Я использую предварительно обученную BertForTokenClassification для задачи распознавания вложенных именованных объектов. Чтобы определить вложенные объекты, я использую метод нескольких меток. На выходе модель возвращает 3 списка логитов, по одному для каждого уровня, которые в конечном итоге объединяются вместе. Я запускаю процесс обучения на Linux Ubuntu 22.04 с 16 ГБ ОЗУ.
Проблема в том, что процесс обучения прерывается из-за OutOfMemory. Неважно, какой размер пакета: 1 или 16. Потребление памяти постоянно растет и процесс убивается. Чем меньше размер пакета, тем позже будет получен окончательный результат.
Класс модели:
Я использую предварительно обученную [b]BertForTokenClassification[/b] для задачи распознавания вложенных именованных объектов. Чтобы определить вложенные объекты, я использую метод нескольких меток. На выходе модель возвращает 3 списка логитов, по одному для каждого уровня, которые в конечном итоге объединяются вместе. Я запускаю процесс обучения на Linux Ubuntu 22.04 с 16 ГБ ОЗУ. Проблема в том, что процесс обучения прерывается из-за [b]OutOfMemory[/b]. Неважно, какой размер пакета: 1 или 16. Потребление памяти постоянно растет и процесс убивается. Чем меньше размер пакета, тем позже будет получен окончательный результат. Класс модели: [code]import torch.nn as nn from transformers import, BertForTokenClassification
Я использую предварительно обученную BertForTokenClassification для задачи распознавания вложенных именованных объектов. Чтобы определить вложенные объекты, я использую метод нескольких меток. На выходе модель возвращает 3 списка логитов, по одному...
Я делаю голосового помощника для ресторанов быстрого питания. Я обучил свою модель многоклассовой классификации намерений на Distil-BERT и сохранил файл в формате рассола в Jupyter. Теперь, когда я загружаю его в свое приложение Gradio, чтобы...
Я выполняю РАСПОЗНАВАНИЕ ПРОДУКТОВ НА ПОЛКЕ, где веб-приложение (созданное с использованием flask) анализирует изображения полок с использованием предварительно обученной модели Azure Vision AI. Для этого я использую экземпляр виртуальной машины...