Я исследовал такие модели НЛП, как Rake, Keybert, Spacy и т. д. Передо мной стоит задача — выполнить простое извлечение ключевых слов, с которым у таких моделей, как Rake и Keybert, нет проблем. Но я видел такие продукты, как NeuronWriter и SurferSEO, которые, похоже, используют значительно более сложные модели.
На чем они основаны и почему они настолько точны для такого количества языков?
Ни одна из моделей, которые я использовал. почти соответствуют релевантности, которую обеспечивают алгоритмы SurferSEO и NeuronWriter.
Вот код, с которым я работаю:
import networkx as nx
import re
import json
from collections import Counter
from goose3 import Goose
from itertools import combinations
from math import ceil
BULGARIAN_STOPWORDS = ["а","автентичен",.....]
def clean_text(text):
text = text.lower()
text = re.sub(r'[^\w\s\u0400-\u04FF]', ' ', text)
text = re.sub(r'\s+', ' ', text)
return text.strip()
def is_cyrillic(word):
return bool(re.search('[\u0400-\u04FF]', word))
def get_words(text):
words = text.split()
return [word for word in words if is_cyrillic(word) and len(word) > 2 and word not in BULGARIAN_STOPWORDS]
def get_phrases(words, max_words=3):
phrases = []
for i in range(len(words)):
for n in range(1, max_words + 1):
if i + n
Подробнее здесь: https://stackoverflow.com/questions/791 ... m-accuracy
НЛП — точность алгоритма извлечения ключевых слов ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Рассчитайте точность, полноту, точность и сбалансированную точность из матрицы путаницы.
Anonymous » » в форуме Python - 0 Ответы
- 41 Просмотры
-
Последнее сообщение Anonymous
-