Модели Берта показывают статистику токенизацииPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Модели Берта показывают статистику токенизации

Сообщение Anonymous »

Есть ли какой-либо встроенный способ запроса статистики токенизации при использовании BertTokenizer.from_pretrained('bert-base-uncased') и BertModel.from_pretrained('bert-base-uncased'), чтобы понять, насколько эффективно обрабатываются мои тексты обрабатывается?
Я использую тексты небольшого размера, но их длина колеблется от 4 до 250 символов, в зависимости от обучающего изображения. Тексты иногда могут содержать странные и непопулярные слова. Боюсь, что из-за таких условий процесс токенизации может оказаться не очень эффективным.
Я ищу способ проверки статистики токенизации при обработке всех моих текстовых изображений.
Я попробовал использовать этот код, который был создан на Github, но внутри него много ошибок, и он не очень словесный:
from transformers import BertTokenizer

tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')

texts = ["This is a sample text.", "Another text with some uncommon words."]

encoded_texts = tokenizer(texts, return_tensors='pt')

# Vocabulary Coverage
vocab_size = len(tokenizer.vocab)
total_tokens = sum([len(text) for text in encoded_texts['input_ids']])
oov_tokens = sum([1 for token in encoded_texts['input_ids'].flatten() if token not in tokenizer.vocab])
vocab_coverage = 1 - (oov_tokens / total_tokens)

# Average Token Length
token_lengths = [len(text) for text in encoded_texts['input_ids']]
average_token_length = sum(token_lengths) / len(token_lengths)

print(f"Vocabulary Coverage: {vocab_coverage:.2f}")
print(f"Average Token Length: {average_token_length:.2f}")


Подробнее здесь: https://stackoverflow.com/questions/791 ... statistics
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение
  • Сохраните обновленные веса/размеры для предварительно обученной модели Берта (думаю, я правильно спрашиваю)
    Anonymous » » в форуме Python
    0 Ответы
    21 Просмотры
    Последнее сообщение Anonymous
  • Ранняя остановка в инстансах Берта Трейнера
    Anonymous » » в форуме Python
    0 Ответы
    6 Просмотры
    Последнее сообщение Anonymous
  • Модель Берта разделяет слова самостоятельно
    Anonymous » » в форуме Python
    0 Ответы
    9 Просмотры
    Последнее сообщение Anonymous
  • Модель Берта не учится с использованием JAX. Результаты не меняются
    Anonymous » » в форуме Python
    0 Ответы
    6 Просмотры
    Последнее сообщение Anonymous
  • Удаление биграмм после токенизации для TfidfVectorizer
    Anonymous » » в форуме Python
    0 Ответы
    11 Просмотры
    Последнее сообщение Anonymous

Вернуться в «Python»