Interested Article - Градиентный спуск

Градиентный спуск, метод градиентного спуска — численный метод нахождения локального минимума или максимума функции с помощью движения вдоль градиента , один из основных численных методов современной оптимизации.

Активно используется в вычислительной математике не только для непосредственного решения задач оптимизации (минимизации), но и для задач, которые могут быть переписаны на языке оптимизации (решение нелинейных уравнений, поиск равновесий, обратные задачи и т. д.). Метод градиентного спуска можно использовать для задач оптимизации в бесконечномерных пространствах, например, для численного решения задач оптимального управления.

Особенно большой интерес к градиентным методам в последние годы связан с тем, что градиентные спуски и их стохастические / рандомизированные варианты лежат в основе почти всех современных алгоритмов обучения, разрабатываемых в анализе данных.

Описание

Иллюстрация последовательных приближений к точке экстремума в направлении наискорейшего спуска (красн.) в случае дробного шага. Синим отмечены линии уровня .

Пусть целевая функция имеет вид:

.

И задача оптимизации задана следующим образом:

В случае, когда требуется найти максимум, вместо используется

Основная идея метода заключается в том, чтобы идти в направлении наискорейшего спуска, а это направление задаётся анти градиентом :

где задает скорость градиентного спуска и может быть выбрана

  • постоянной (в этом случае метод может расходиться);
  • убывающей в процессе градиентного спуска;
  • гарантирующей наискорейший спуск:
    1. Для поиска минимума получаем
    2. Для поиска максимума получаем

Алгоритм

  1. Задают начальное приближение и точность расчёта
  2. Рассчитывают , где
  3. Проверяют условие остановки:
    • Если , или (выбирают одно из условий), то и переход к шагу 2.
    • Иначе и остановка.

Соотношение Канторовича

Для квадратичной функции вида метод наискорейшего градиентного поиска сходится из любой начальной точки со скоростью геометрической прогрессии (линейно) со знаменателем, не превосходящим значение . При этом справедливы следующие оценки:

,
,
,

где и — минимальное и максимальное собственные числа матрицы вторых производных .

Таким образом, поскольку функция близка в малом к своей квадратичной аппроксимации, скорость сходимости, в окрестности точки минимума, зависит от отношения собственных чисел. Чем больше это отношение, тем хуже сходимость метода.

Пример

Применим градиентный метод к функции . Тогда последовательные приближения будут выглядеть так:

Градиентный метод в действии. Иллюстрация для линий равного уровня. Градиентный метод в действии. Иллюстрация для поверхности.

Это типичный пример овражной функции. Градиентный метод «прыгает» с одного склона оврага на другой и обратно, иногда почти не двигаясь в нужном направлении, что существенно замедляет сходимость. Другим примером тестовой овражной функции является функция Розенброка .

Усовершенствования, модификации

Для минимизации функции в направлении градиента используются , например, метод золотого сечения . Также можно искать не наилучшую точку в направлении градиента, а какую-либо лучше текущей.

Метод градиентного спуска наиболее простой в реализации из всех методов локальной оптимизации. Имеет довольно слабые условия сходимости, но при этом скорость сходимости достаточно мала (линейна). Шаг градиентного метода часто используется как часть других методов оптимизации, например, метод Флетчера — Ривса .

Метод градиентного спуска оказывается очень медленным при движении по оврагу, причём при увеличении числа переменных целевой функции такое поведение метода становится типичным. Для борьбы с этим явлением используется , суть которого очень проста. Сделав два шага градиентного спуска и получив три точки, третий шаг следует сделать в направлении вектора, соединяющего первую и третью точку, вдоль дна оврага.

Для функций, близких к квадратичным, эффективным является метод сопряжённых градиентов .

Применение в искусственных нейронных сетях

Метод градиентного спуска с некоторой модификацией широко применяется для обучения перцептрона и в теории искусственных нейронных сетей известен как метод обратного распространения ошибки . При обучении нейросети типа «персептрон» требуется изменять весовые коэффициенты сети так, чтобы минимизировать среднюю ошибку на выходе нейронной сети при подаче на вход последовательности обучающих входных данных. Формально, чтобы сделать всего один шаг по методу градиентного спуска (сделать всего одно изменение параметров сети), необходимо подать на вход сети последовательно абсолютно весь набор обучающих данных, для каждого объекта обучающих данных вычислить ошибку и рассчитать необходимую коррекцию коэффициентов сети (но не делать эту коррекцию), и уже после подачи всех данных рассчитать сумму в корректировке каждого коэффициента сети (сумма градиентов) и произвести коррекцию коэффициентов «на один шаг». Очевидно, что при большом наборе обучающих данных алгоритм будет работать крайне медленно, поэтому на практике часто производят корректировку коэффициентов сети после каждого элемента обучения, где значение градиента аппроксимируются градиентом функции стоимости, вычисленном только на одном элементе обучения. Такой метод называют стохастическим градиентным спуском или оперативным градиентным спуском . Стохастический градиентный спуск является одной из форм стохастического приближения. Теория стохастических приближений даёт условия сходимости метода стохастического градиентного спуска.

Ссылки

  • J. Mathews.
  • Метафорическая интерактивная демонстрация метода

Литература

  • Поляк Б. Т. Введение в оптимизацию. — М. : Наука. Главная редакция физико-математической литературы, 1983. — 384 с.
  • Нестеров Ю. Е. . — М. : Издательство МЦНМО, 2010. — 281 с.
  • Гасников А. В. . — М. : МФТИ, 2018. — 291 с. — ISBN 978-5-7417-0667-1 .
  • Акулич И. Л. Математическое программирование в примерах и задачах. — М. : Высшая школа, 1986. — С. 298-310.
  • Гилл Ф., Мюррей У., Райт М. Практическая оптимизация = Practical Optimization. — М. : Мир, 1985.
  • Коршунов Ю. М., Коршунов Ю. М. Математические основы кибернетики. — М. : Энергоатомиздат, 1972.
  • Максимов Ю. А., Филлиповская Е. А. Алгоритмы решения задач нелинейного программирования. — М. : МИФИ, 1982.
  • Максимов Ю. А. Алгоритмы линейного и дискретного программирования. — М. : МИФИ, 1980.
  • Корн Г., Корн Т. Справочник по математике для научных работников и инженеров. — М. : Наука, 1970. — С. 575-576.
  • Городецкий С. Ю., Гришагин В. А. Нелинейное программирование и многоэкстремальная оптимизация. — Нижний Новгород: Издательство Нижегородского Университета, 2007. — С. 357-363.
Источник —

Same as Градиентный спуск