Visualizaciones interactivas para entender los conceptos fundamentales del machine learning. Aprende experimentando.
Explora cómo la complejidad del modelo afecta el balance entre sesgo y varianza. Ajusta el grado del polinomio y observa los efectos.
Dibuja puntos de dos clases y observa cómo diferentes modelos crean fronteras de decisión con distintos niveles de complejidad.
Visualiza la importancia de separar datos de entrenamiento y prueba. Ajusta las proporciones y observa el impacto.
Animación paso a paso de la validación cruzada. Observa cómo cada fold se usa como conjunto de validación.
Matriz de confusión interactiva. Modifica los valores y observa cómo cambian todas las métricas de clasificación.
Construye la curva ROC punto a punto. Ajusta el umbral de clasificación y observa cómo cambia TPR y FPR.
Visualiza el algoritmo K-Nearest Neighbors. Haz clic para clasificar puntos y observa los K vecinos más cercanos.
Animación paso a paso del algoritmo K-Means. Observa cómo los centroides se mueven y los puntos se reasignan.
Compara MAE, MSE, RMSE, MAPE y R². Arrastra puntos, añade outliers y observa cómo afectan a cada métrica.
Diseña reglas para clasificar viviendas SF vs NY. Aprende cómo funcionan los sistemas basados en reglas.
Visualiza el método de mínimos cuadrados. Ajusta la recta manualmente o deja que el algoritmo encuentre el óptimo.
Visualiza los 4 supuestos del modelo de regresión lineal. Observa cómo lucen cuando se cumplen y cuando se violan.
Visualiza un plano de regresión ajustándose a datos con dos predictores. Rota el gráfico 3D para explorar desde diferentes ángulos.
Explora la función sigmoide y cómo los pesos definen la frontera de decisión en regresión logística.
Visualiza la función de pérdida de entropía cruzada y cómo penaliza las predicciones incorrectas en clasificación.
Visualiza el algoritmo de descenso de gradiente optimizando una función de pérdida en 3D.
Entrena un clasificador logístico en tiempo real y observa cómo la frontera de decisión evoluciona.
Visualiza cómo las SVM encuentran el hiperplano que maximiza el margen entre las clases.
Explora cómo el parámetro C controla el balance entre margen y tolerancia a errores en datos no separables.
Compara lado a lado cómo dos clasificadores diferentes aprenden del mismo dataset.
Explora cómo la correlación entre predictores afecta la estimación de coeficientes en regresión múltiple.
Descubre por qué predecir fuera del rango de los datos de entrenamiento puede ser peligroso.