Преобразовать прилагательное в наречие

Кто-нибудь знает, как преобразовать английское прилагательное в соответствующее наречие? Python был бы идеальным, но на самом деле любой программный подход был бы отличным.

Я пробовал pattern.en, nltk wordnet и spacy Безрезультатно.

Преобразование наречий в их корневую форму прилагательного - не проблема. Я использую решение SO здесь .

Я хочу пойти другим путем. От прилагательного к наречию.

Вот код nltk wordnet, который преобразует слова между разными словоформами, но не подходит для преобразования прилагательных ‹--> наречий.

В частности, мне бы хотелось, чтобы функция getAdverb выглядела так:

getAdverb('quick')
>>> quickly
getAdverb('noteable')
>>> notably
getAdverb('happy')
>>> happily

Мы будем благодарны за любой код, ресурсы или предложения!


person stuart    schedule 12.01.2018    source источник
comment
Учитывая, что у вас есть словарь слов, попробуйте gist.github.com/alvations/a4a6e0cc24d2fd9aff86.   -  person alvas    schedule 15.01.2018


Ответы (1)


Идея

Давайте возьмем предварительно обученные вложения слов и воспользуемся арифметическими свойствами вектора слов, чтобы получить набор слов, которые семантически < / em> аналогично нашему целевому слову, затем выберите наиболее многообещающие:

word2vec

Но мы попробуем использовать отношения прилагательного - наречия.

Код

Во-первых, вам нужно скачать слово вложения. Обычно я беру GloVe из Стэнфорда. Затем вам нужно преобразовать текстовый формат GloVe в Gensim с помощью:

$ python -m gensim.scripts.glove2word2vec -i glove.6B.100d.txt -o glove-word2vec.6B.100d.txt
2018-01-13 09:54:04,133 : MainThread : INFO : running /usr/lib/python2.7/site-packages/gensim/scripts/glove2word2vec.py -i glove.6B.100d.txt -o glove-word2vec.6B.100d.txt
2018-01-13 09:54:04,248 : MainThread : INFO : converting 400000 vectors from glove.6B.100d.txt to glove-word2vec.6B.100d.txt
2018-01-13 09:54:04,622 : MainThread : INFO : Converted model with 400000 vectors and 100 dimensions

После этого загрузка выполняется довольно просто:

from gensim.models.keyedvectors import KeyedVectors
glove_filename = '../../_data/nlp/glove/glove-word2vec.6B.100d.txt'
model = KeyedVectors.load_word2vec_format(glove_filename, binary=False)
print(model.most_similar(positive=['woman', 'king'], negative=['man']))

Этот тест должен выводить семантически похожие слова для woman, которые похожи на king на man:

(u'queen', 0.7698541283607483)
(u'monarch', 0.6843380928039551)
(u'throne', 0.6755735874176025) 
(u'daughter', 0.6594556570053101)
(u'princess', 0.6520534753799438)

Наконец, вот как мы можем перейти к ближайшим наречиям:

from difflib import SequenceMatcher

def close_adv(input, num=5, model_topn=50):
  positive = [input, 'happily']
  negative = [       'happy']
  all_similar = model.most_similar(positive, negative, topn=model_topn)

  def score(candidate):
    ratio = SequenceMatcher(None, candidate, input).ratio()
    looks_like_adv = 1.0 if candidate.endswith('ly') else 0.0
    return ratio + looks_like_adv

  close = sorted([(word, score(word)) for word, _ in all_similar], key=lambda x: -x[1])
  return close[:num]

print(close_adv('strong'))
print(close_adv('notable'))
print(close_adv('high'))
print(close_adv('quick'))
print(close_adv('terrible'))
print(close_adv('quiet'))

Результат не идеален, но выглядит многообещающе:

[(u'strongly', 1.8571428571428572), (u'slowly', 1.3333333333333333), (u'increasingly', 1.3333333333333333), (u'sharply', 1.3076923076923077), (u'largely', 1.3076923076923077)]
[(u'notably', 1.8571428571428572), (u'principally', 1.3333333333333333), (u'primarily', 1.25), (u'prominently', 1.2222222222222223), (u'chiefly', 1.1428571428571428)]
[(u'rapidly', 1.1818181818181819), (u'briefly', 1.1818181818181819), (u'steadily', 1.1666666666666667), (u'dangerously', 1.1333333333333333), (u'continuously', 1.125)]
[(u'quickly', 1.8333333333333335), (u'quietly', 1.5), (u'briskly', 1.3333333333333333), (u'furiously', 1.2857142857142856), (u'furtively', 1.2857142857142856)]
[(u'horribly', 1.625), (u'heroically', 1.4444444444444444), (u'silently', 1.375), (u'uncontrollably', 1.3636363636363638), (u'stoically', 1.3529411764705883)]
[(u'quietly', 1.8333333333333335), (u'silently', 1.4615384615384617), (u'patiently', 1.4285714285714286), (u'discreetly', 1.4), (u'fitfully', 1.3076923076923077)]

Конечно, вы можете использовать более эффективный способ проверки наречия, использовать nltk.edit_distance для измерения сходства слов и т.д.

person Maxim    schedule 13.01.2018