Descenso por gradiente (Gradient descent)

El método de descenso por gradiente, gradient descent de ahora en adelante, es uno de los algoritmos de optimización más populares en aprendizaje automático, particularmente por su uso extensivo en el campo de las redes neuronales. Gradient descent es un método general de minimización para cualquier función $f$. A la versión original se le considera lenta pero versátil, sobretodo para casos de que la funciones multi-dimensionales.

Al algoritmo gradient descent se le conoce por varios nombres, sobretodo en la literatura en inglés (vanilla gradient descent, batch gradient descent). A veces se les da el nombre de steepest descent, pero este término es más propio para aproximación analítica de integrales . El algoritmo también tiene una versión gemela bizarra que en lugar de buscar por un mínimo busca el punto máximo de una función.


Lee Mas →