Код: Выделить всё
embedding = model.encode("I am happy")
Код: Выделить всё
emotion_vec = embedding_happy - embedding_neutral
Закодировать входное предложение в пространство для встраивания.
Добавить направление эмоции:
Код: Выделить всё
shifted = original_embedding + emotion_vec
Однако типичные кодировщики предложений, такие как Sentence-BERT, обеспечивают только кодирование; они не декодируют измененные внедрения обратно в текст.
Например, я рассматривал BART, но BART — это, прежде всего, модель последовательности-последовательности — она не предоставляет простого API кодирования → изменения → декодирования из непрерывного векторного пространства.
Мой вопрос
Существует ли архитектура модели, которая:
Предоставляет кодировщик для преобразования текста в непрерывное пространство семантическое пространство,
Позволяет скрытое редактирование в этом пространстве,
Предоставляет декодер для восстановления текста из модифицированных скрытых векторов,
и который в идеале может разумно работать на ЦП (графический процессор не требуется)?
Подробнее здесь: https://stackoverflow.com/questions/798 ... s-and-rege
Мобильная версия