Применение аппроксимации низкого ранга к обучаемым параметрамPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Применение аппроксимации низкого ранга к обучаемым параметрам

Сообщение Anonymous »

Я пытаюсь понять, имеет ли смысл применять аппроксимации низкого ранга к обучаемым параметрам в классе. Цель – сократить количество параметров.
У меня есть следующий пользовательский модуль:

Код: Выделить всё

class CustomPara(nn.Module):

def __init__(self, num_blocks, in_planes, out_planes, kernel_size):
super(CustomPara, self).__init__()
self.coefficient_shape = (num_blocks,1,1,1,1)
blocks = [torch.Tensor(out_planes, in_planes, kernel_size, kernel_size) for _ in range(num_blocks)]
for i in range(num_blocks): init.kaiming_normal_(blocks[i])
self.blocks = nn.Parameter(torch.stack(blocks)) # this is what we will freeze later

def forward(self, coefficients):
final_blocks =  (self.blocks*coefficients).sum(0)
return final_blocks
Можно ли здесь уменьшить количество обучаемых параметров, используя низкоранговую адаптацию параметров блоков?


Подробнее здесь: https://stackoverflow.com/questions/781 ... parameters
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»