Как в dfm обнаружить неанглийские слова и удалить их?
dftest <- data.frame(id = 1:3,
text = c("Holla this is a spanish word",
"English online here",
"Bonjour, comment ça va?"))
Пример построения dfm таков:
testDfm <- dftest$text %>%
tokens(remove_punct = TRUE, remove_numbers = TRUE, remove_symbols = TRUE) %>% %>% tokens_wordstem() %>%
dfm()
Я нашел пакет textcat в качестве альтернативного решения, но в реальном наборе данных есть много случаев, когда целая строка на английском языке распознает ее как другой язык только для символа. Есть ли альтернатива поиску неанглийских строк в фрейме данных или токене в dfm с помощью Quanteda?
Вы можете сделать это, используя список всех английских слов. Одно место, где это существует, находится в пакетах hunspell
, предназначенных для проверки орфографии.
library(quanteda)
# find the path in which the right dictionary file is stored
hunspell::dictionary(lang = "en_US")
#> <hunspell dictionary>
#> affix: /home/johannes/R/x86_64-pc-linux-gnu-library/4.0/hunspell/dict/en_US.aff
#> dictionary: /home/johannes/R/x86_64-pc-linux-gnu-library/4.0/hunspell/dict/en_US.dic
#> encoding: UTF-8
#> wordchars: ’
#> added: 0 custom words
# read this into a vector
english_words <- readLines("/home/johannes/R/x86_64-pc-linux-gnu-library/4.0/hunspell/dict/en_US.dic") %>%
# the vector contains extra information on the words, which is removed
gsub("/.+", "", .)
# let's display a sample of the words
set.seed(1)
sample(english_words, 50)
#> [1] "furnace" "steno" "Hadoop" "alumna"
#> [5] "gonorrheal" "multichannel" "biochemical" "Riverside"
#> [9] "granddad" "glum" "exasperation" "restorative"
#> [13] "appropriate" "submarginal" "Nipponese" "hotting"
#> [17] "solicitation" "pillbox" "mealtime" "thunderbolt"
#> [21] "chaise" "Milan" "occidental" "hoeing"
#> [25] "debit" "enlightenment" "coachload" "entreating"
#> [29] "grownup" "unappreciative" "egret" "barre"
#> [33] "Queen" "Tammany" "Goodyear" "horseflesh"
#> [37] "roar" "fictionalization" "births" "mediator"
#> [41] "resitting" "waiter" "instructive" "Baez"
#> [45] "Muenster" "sleepless" "motorbike" "airsick"
#> [49] "leaf" "belie"
Вооружившись этим вектором, который теоретически должен содержать все английские слова, но только слова на английском языке, мы можем удалить неанглийские токены:
testDfm <- dftest$text %>%
tokens(remove_punct = TRUE, remove_numbers = TRUE, remove_symbols = TRUE) %>%
tokens_keep(english_words, valuetype = "fixed") %>%
tokens_wordstem() %>%
dfm()
testDfm
#> Document-feature matrix of: 3 documents, 9 features (66.7% sparse).
#> features
#> docs this a spanish word english onlin here comment va
#> text1 1 1 1 1 0 0 0 0 0
#> text2 0 0 0 0 1 1 1 0 0
#> text3 0 0 0 0 0 0 0 1 1
Как видите, это работает очень хорошо, но не идеально. «ва» от «са ва» было заимствовано как английское слово, как и «комментарий». Таким образом, вам нужно найти правильный список слов и/или очистить его. Вы также можете подумать об удалении текстов, в которых удалено слишком много слов.
Вот почему я бегу hunspell::dictionary(lang = "en_US")
первым :), он покажет вам точное местоположение!
Не совсем ясен вопрос, хотите ли вы сначала удалить неанглийские «строки» или удалить неанглийские слова позже. Между европейскими языками много родственных слов (слова, которые являются омографами, появляющимися более чем в одном языке), поэтому стратегия tokens_keep()
будет несовершенной.
Вы можете удалить неанглийские документы после определения языка, используя библиотеку cld3:
dftest <- data.frame(
id = 1:3,
text = c(
"Holla this is a spanish word",
"English online here",
"Bonjour, comment ça va?"
)
)
library("cld3")
subset(dftest, detect_language(dftest$text) == "en")
## id text
## 1 1 Holla this is a spanish word
## 2 2 English online here
А затем введите это в quanteda::dfm()
.
Это оба случая. Если у нас уже есть dfm и он содержит только биграммы и триграммы, где слова разделены символом подчеркивания, возможно ли это сделать? Большое спасибо за прекрасную библиотеку, которую вы создали.
Спасибо. Знаете ли вы, где в Windows я могу найти путь «/home/johannes/R/x86_64-pc-linux-gnu-library/4.0/hunspell/»?