tgoop.com/ds_interview_lib/439
Last Update:
Что вы знаете о координатном спуске?
Внимание, не нужно путать это с градиентным спуском. Хотя оба являются методами оптимизации и позволяют минимизировать функцию.
Различие заключается в том, что координатному спуску не нужно вычислять градиенты целевой функции. Вместо этого он последовательно обновляет значения одной переменной за раз, фиксируя остальные. Это позволяет методу координатного спуска быть простым в реализации.
В общем случае алгоритм выглядит так:
▫️Проводится инициализация некоторым значением x_0
▫️Затем фиксируются значения всех переменных кроме x_i, — так получается одномерная функция f(x_i). Проводится одномерная оптимизация по переменной x_i любым методом одномерной оптимизации. Если выполнен критерий останова, то возвращается текущее значение x. Это повторяется для i=1…n.
#машинное_обучение
BY Библиотека собеса по Data Science | вопросы с собеседований
Share with your friend now:
tgoop.com/ds_interview_lib/439