Классификация намерений с высокой точностью с небольшими моделями для развертывания AWS LambdaPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Классификация намерений с высокой точностью с небольшими моделями для развертывания AWS Lambda

Сообщение Anonymous »

Я разрабатываю услуги fastapi для классификации намерений, которая будет развернута на aws lambda . Основная цель состоит в том, чтобы построить модель с высокой точностью (≥95%) как на наборах данных обучения, так и в тестировании. Эта служба будет частью Contrucation AI System , которая классифицирует пользовательские запросы в конкретные намерения: «Приветствие» , «Положительная обратная связь» , «Отрицательная обратная связь» , «Запрос справки» и «Запада» .
Ключевой технический строительство
подходы я пробовал: < /h3>

1. Трансформаторы предложений + логистическая регрессия:

  • шаги, предпринятые :

    использовал библиотеку SERENCETRANSFORMER с предварительно обученной моделью «Парафразо-multingual-minilm-l12-v2» к кодру LogisticRegression Classifier.
  • фрагмент кода :

    Код: Выделить всё

    embedder = SentenceTransformer("paraphrase-multilingual-MiniLM-L12-v2")
    input_embeddings = embedder.encode(texts)
    clf = LogisticRegression().fit(input_embeddings, labels)
    < /code>
    < /li>
      [b] result < /strong>:
    
    Модель работает хорошо, но одна только модель трансформатора выше  100 мб < /strong>, превышает ограничения Lambda. < /p>
    < /li>
    < /ul>
    [h4] 2. Обученная на заказ модель Spacy: [/h4]
    
       шаги, предпринятые [/b]:
    
    подготовленная Textcat 
    на основе en_core_web_md модель (~ 31 МБ), с использованием ~ 5000 с трудоем. /> configuration :

    использовал Spacy Train с пользовательским config.cfg , компоненты замораживания, такие как tok2vec и только тренировочный текстовый код . Зависимости, такие как Scipy / привели к тому, что развертывание превышало 50 МБ.

3. Тонко насыщенная дистилберт:

шаги, предпринятые :

Fine-Tuned Distilbert Использование трансформаторов Huggingface и тренер API на пользовательском данных ~ 500 выборки через 5 интенсивных. /> result < /strong>:

, достигнутая над 95% точностью < /strong>, но размер модели (~ 250 МБ) делает ее непригодным для стандартной лямбды. < /p>
< /li>
< /ul>
< /h3>
и изучил его, но меня специально интересуют, есть ли какой-либо новый, легкий или эффективный метод
для достижения этих целей в пределах предела пакета 50 МБ .
Успешно развернул nlp classifier nlp в соответствии с этими конфигурациями под этими конструкциями

Подробнее здесь: https://stackoverflow.com/questions/797 ... deployment
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»