Я пытаюсь с помощью fmin_bfgs найти локальный минимум абсолютной функции abs(x)
. Начальная точка установлена равной 100,0; ожидаемый ответ 0.0. Однако я получаю:
In [184]: op.fmin_bfgs(lambda x:np.abs(x),100.0)
Warning: Desired error not necessarily achieved due to precision loss.
Current function value: 100.000000
Iterations: 0
Function evaluations: 64
Gradient evaluations: 20
Out[184]: array([100.0])
Почему?
Методы, такие как fmin_bfgs и fmin_slsqp, требуют гладких (непрерывных производных) функций для обеспечения надежных результатов. abs (x) имеет дивертивую производную на своем минимуме. Такой метод, как симплекс Нельдера-Мида, который не требует непрерывных производных, может обеспечить лучшие результаты в этом случае.