Ключевой технический строительство
подходы я пробовал: < /h3>
1. Трансформаторы предложений + логистическая регрессия:
- шаги, предпринятые :
использовал библиотеку SERENCETRANSFORMER с предварительно обученной моделью «Парафразо-multingual-minilm-l12-v2» к кодру LogisticRegression Classifier. - фрагмент кода :
на основе en_core_web_md модель (~ 31 МБ), с использованием ~ 5000 с трудоем. /> configuration :
Код: Выделить всё
embedder = SentenceTransformer("paraphrase-multilingual-MiniLM-L12-v2") input_embeddings = embedder.encode(texts) clf = LogisticRegression().fit(input_embeddings, labels) < /code> < /li> [b] result < /strong>: Модель работает хорошо, но одна только модель трансформатора выше 100 мб < /strong>, превышает ограничения Lambda. < /p> < /li> < /ul> [h4] 2. Обученная на заказ модель Spacy: [/h4] шаги, предпринятые [/b]: подготовленная Textcat
использовал Spacy Train с пользовательским config.cfg , компоненты замораживания, такие как tok2vec и только тренировочный текстовый код . Зависимости, такие как Scipy /привели к тому, что развертывание превышало 50 МБ.Код: Выделить всё
numpy
3. Тонко насыщенная дистилберт:
шаги, предпринятые :Fine-Tuned Distilbert Использование трансформаторов Huggingface и тренер API на пользовательском данных ~ 500 выборки через 5 интенсивных. /> result < /strong>:
, достигнутая над 95% точностью < /strong>, но размер модели (~ 250 МБ) делает ее непригодным для стандартной лямбды. < /p>
< /li>
< /ul>
< /h3>
и изучил его, но меня специально интересуют, есть ли какой-либо новый, легкий или эффективный метод для достижения этих целей в пределах предела пакета 50 МБ .
Успешно развернул nlp classifier nlp в соответствии с этими конфигурациями под этими конструкциями
Подробнее здесь: https://stackoverflow.com/questions/797 ... deployment