Przejdź do treści

Gradient descent

Zejście gradientowe – Powszechne podejście stosowane w nadzorowanym uczeniu maszynowym, w którym modele są szkolone tak, aby pasowały do ​​danych szkoleniowych, minimalizując błędy w przewidywaniach w sposób iteracyjny. Podczas opadania gradientowego w poszukiwaniu najmniejszego błędu podejmowane są małe „kroki” w różnych „kierunkach”.