Invítame un café Inicio

Descenso de gradiente

Visualiza cómo el algoritmo de descenso de gradiente encuentra el mínimo de una función de pérdida siguiendo la dirección del gradiente negativo.

Superficie de pérdida L(w₁, w₂)

Punto actual
Trayectoria
Mínimo global
🖱️ Arrastra para rotar · Scroll para zoom
Tasa de aprendizaje (η) 0.10

η muy pequeña → convergencia lenta
η muy grande → puede divergir

L(w₁, w₂) = w₁² + w₂²
w₁, w₂ ∈ [-3, 3]
Mínimo global: (0, 0)
0
Iteración
0.000
Pérdida L
0.00
w₁
0.00
w₂
Vector gradiente ∇L
[0.00, 0.00]