Я оцениваю модель интервальной регрессии. Я написал свою функцию вероятности (см. Integ, Stata) как указано, и сравнил свои результаты с Stata. Я нахожу почти точно (в пределах 0,001) те же параметры, что и STATA, но алгоритм BFGS, кажется, все еще не сходится.
Я оцениваю модель интервальной регрессии. Я написал свою функцию вероятности (см. Integ, Stata) как указано, и сравнил свои результаты с Stata. Я нахожу почти точно (в пределах 0,001) те же параметры, что и STATA, но алгоритм BFGS, кажется, все еще не сходится.[code] message: Desired error not necessarily achieved due to precision loss. success: False status: 2 fun: 26435.40918822449 x: [ 7.379e+00 -6.967e-02 ... 2.149e-01 4.295e-01] nit: 94 jac: [-4.883e-04 0.000e+00 ... -2.441e-04 4.883e-04] hess_inv: [[ 3.566e-04 -7.314e-05 ... -1.261e-04 -1.775e-06] [-7.314e-05 5.599e-05 ... 3.216e-05 5.660e-07] ... [-1.261e-04 3.216e-05 ... 4.981e-04 1.297e-06] [-1.775e-06 5.660e-07 ... 1.297e-06 8.380e-06]] nfev: 4235 njev: 121
< /code> и команда, которую я использую для минимизации: < /p> initial_params = np.concatenate([np.zeros(X.shape[1]), [1.0]]) result = minimize(log_likelihood, initial_params, args=(X, y_lower, y_upper), method='BFGS', options={'disp':True})
[/code] У кого -то есть представление о том, почему алгоритм, кажется, сходится, но все еще дает сообщение, что это не так?
Надеюсь, у вас все хорошо.
Я хочу запустить приведенный ниже код для maxiter = 20001. Я не хочу, чтобы он останавливался по каким-то критериям по умолчанию.
results = scipy.optimize.minimize(
fun=get_loss_and_grads,
x0=params,
jac=True,...
Я хочу запустить приведенный ниже код для maxiter = 20001. Я не хочу, чтобы его останавливали по каким-то критериям по умолчанию.
results = scipy.optimize.minimize(
fun=get_loss_and_grads,
x0=params,
jac=True,
method='L-BFGS-B',
options={'maxiter':...
Я пытаюсь понять, почему scipy.optimize.least_squares существует в scipy. Эту функцию можно использовать для подгонки модели. Однако можно использовать scipy.optimize.minimize, чтобы сделать то же самое. Единственная разница заключается в том, что...
Я пытаюсь понять, почему scipy.optimize.least_squares существует в scipy. Эту функцию можно использовать для подгонки модели. Однако можно использовать scipy.optimize.minimize, чтобы сделать то же самое. Единственная разница заключается в том, что...
Я хочу найти локальный минимум для функции, которая зависит от двух переменных. Для этого я планировал использовать функцию scipy.optimize.minimize с методом newton-cg , поскольку я могу вычислить якобиан и гессиан аналитически.
Однако, когда мои...