Зачем объяснять Logit как «unscaled log prostily» в sotfmax_cross_entropy_with_logits?Python

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Зачем объяснять Logit как «unscaled log prostily» в sotfmax_cross_entropy_with_logits?

Сообщение Anonymous »

В документации TensorFlow (SoftMax_Cross_Entropy_with_logits) они сказали «logits: uncaled log вероятность». Что такое «вероятность журнала»?
Во -первых, я понимаю, что «logits» является «выходом перед нормализацией» или «оценка для класса» .

Код: Выделить всё

logits = tf.matmul(X,W) + b
hypothesis = tf.nn.softmax(logits)
Если я получил [1.5, 2.4, 0,7] от tf.matmul (x, w) + b , затем [1.5 , 2.4, 0,7] IS Logits (оценка) , и это было неквалифицировано. Я могу понять это до этой стадии. Но я не могу понять, почему [1,5, 2,4, 0,7] является «вероятностью журнала» .


Подробнее здесь: https://stackoverflow.com/questions/484 ... opy-with-l
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»