Градиентные методы.

Градиентом скалярной функции clip_image002 в точке clip_image004 является вектор clip_image006. Этот вектор перпендикулярен плоскости, проведенной через точку clip_image008, и касательной к поверхности уровня (поверхности постоянного значения функции clip_image002[1], проходящей через точку clip_image008[1]. Вектор-градиент направлен в сторону возрастания функции. Вектор, противоположный градиенту clip_image010 называется антиградиентом и направлен в сторону наибольшего убывания функции clip_image002[2] (рис. 3.1.). В точке минимума градиент функции равен нулю.

Выбирая в качестве направления спуска clip_image012из формулы (44) антиградиент функции clip_image002[3] в точке clip_image014 получаем итерационный процесс вида:

clip_image016 clip_image018 clip_image020, (45)

Все итерационные процессы, в которых направление движения на каждом шаге совпадает с антиградиентом (градиентом) функции называют градиентными методами. Они отличаются друг от друга способом выбора шага clip_image022.

 

При методе с постоянным шагом для всех итераций выбирается некоторая постоянная для всех итераций величина шага. Достаточно малый шаг clip_image022[1]обеспечит убывание функции, т.е. выполнение неравенства:

clip_image034 (46)

Однако, это может привести к необходимости проводить очень большое число итераций для достижения точки минимума. С другой стороны, слишком большой шаг может вызвать неожиданный рост функции, либо привести к колебаниям около точки минимума. Из-за отсутствия информации для выбора величины шага методы с постоянным шагом применяются редко. Более экономичными в смысле количества итераций и надежными являются градиентные методы с переменным шагом, среди которых часто применяется метод наискорейшего спуска [11].

Предлагаю ознакомиться с аналогичными статьями: