Я разрабатываю услугу Fastapi для классификации намерений, которая будет развернута на AWS Lambda. Сервис должен классифицировать пользовательские запросы по одному из пяти намерений: «Приветствие», «Положительная обратная связь», «отрицательная обратная связь», «Запрос помощи» и «запасной». Наборы данных. Трансформеры + логистическая регрессия:
Метод: я использовал модель Seedencetransformer с моделью «ПАФРАЗАРС-МОЛЛИНГИНГАЛЬНОГО-МИНИНИЛМ-L12-V2» для генерации вторжений, а затем тренировал классификатор логистики Scikit-learn. Limit. < /li>
< /ul>
< /li>
Модель TextCat Spacy, обученная пользователями:
Метод: I тонкий настройка трубопровода Spacy Textcat на основе модели EN_CORE_WEB_MD (~ 31 МБ). Модель, в сочетании с необходимыми зависимостями, такими как Scipy и Numpy, превысила предел 50 мб. < /li>
< /ul>
< /li>
Метод с тонкой настройкой:
Метод: я тонко надул модель дистильберта, используя Trangerface Transformers на пользовательских DataSet ~ 500. /> Проблема: размер тонкой настройки модели (~ 250 МБ) слишком велик для стандартного пакета развертывания Lambda. Ограничения. < /p>
Мой вопрос: < /p>
Какие специфические, легкие архитектуры модели или методы сжатия моделей могут использоваться для удовлетворения этих строгих точности и ограничений размера? Существуют ли конкретные предварительно обученные модели или библиотеки, которые предназначены для такого рода развертывания?
Подробнее здесь: https://stackoverflow.com/questions/797 ... ambda-with
Как построить и развернуть модель классификации NLP Sub-50 МБ для AWS Lambda с> 95% точностью? [закрыто] ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Как вызвать AWS Lambda через сервисный уровень в проекте .NET API и развернуть через AWS CLI
Anonymous » » в форуме C# - 0 Ответы
- 22 Просмотры
-
Последнее сообщение Anonymous
-