При попытке использовать Llama 3 на VertexAI выдается ошибка 400 Bad Request, но ошибка не имеет смысла [закрыто]Python

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 При попытке использовать Llama 3 на VertexAI выдается ошибка 400 Bad Request, но ошибка не имеет смысла [закрыто]

Сообщение Anonymous »

Я пытаюсь использовать Llama 3 на VertexAI для обработки изображения, извлечения данных из изображения и преобразования их в формат JSON. Я работаю с Gemini в Jupyter Notebook, размещенном на Vertex, но выходные данные варьируются настолько сильно и непоследовательно, что на данном этапе это бесполезно. Я также пытаюсь добиться этого с помощью Llama 3, используя Jupyter Notebooks с Python.
Сначала я создаю экземпляр класса Endpoint:

Код: Выделить всё

endpoint = aiplatform.Endpoint('123456')
Затем я загружаю изображение с диска:

Код: Выделить всё

imageBytes = image_to_byte_array(image_path)
Создаю свою подсказку:question="Вы полезный помощник. Ваша задача..."
Наконец, я вызываю предикат():

Код: Выделить всё

response = endpoint.predict(instances=[question, imageBytes])
Этот вызов возвращает ошибку 400 с сообщением: FailedPrecondition: 400 Размер запроса (1575204 байта) превышает предел в 1,500 МБ.
Я подтвердил, что размер изображения составляет 120 КБ, а сама подсказка — 604 байта. Я не могу понять, почему вызов завершился неудачей из-за ошибки превышения размера. Есть ли у кого-нибудь подсказки, что мне можно проверить дальше?

Подробнее здесь: https://stackoverflow.com/questions/787 ... error-does
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»