Проблема с использованием tokenizer.encode_plusPython

Программы на Python
Ответить
Anonymous
 Проблема с использованием tokenizer.encode_plus

Сообщение Anonymous »

Блокнот #jupyter
Я пытаюсь изучить классификатор BERT с помощью https://colab.research.google.com/drive ... Bdb3pt8LuQ
В этом коллабе, начиная с "Токенизировать все предложение....."
В этом месте у меня возникла проблема: «TypeError: _tokenize() получил неожиданный аргумент ключевого слова 'pad_to_max_length'»
**
input_ids = []
attention_masks = []

for sent in sentences:
encoded_dict = tokenizer.encode_plus(
sent, # Sentence to encode.
add_special_tokens = True, # Add '[CLS]' and '[SEP]'
max_length = 64, # Pad & truncate all sentences.
pad_to_max_length = True,
return_attention_mask = True, # Construct attn. masks.
return_tensors = 'pt', # Return pytorch tensors.
)


Подробнее здесь: https://stackoverflow.com/questions/638 ... ncode-plus
Ответить

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

Вернуться в «Python»