Sí, de hecho, en el curso de Machine Learning en Coursera de Andrew Ng, él toma un enfoque similar, sin profundizar en la parte matemática de los algoritmos de Machine Learning, cosas como probar por qué funcionan las ecuaciones para Gradient Decent o Normalization. Da una visión general de alto nivel sobre cómo llegamos a esas ecuaciones, cosas como aplicar diferenciales parciales a la hipótesis, puede ignorarla si no tiene mucho sentido para usted. Depende totalmente de usted buscar las pruebas completas reales de esas ecuaciones, si está interesado. De lo contrario, puede simplemente tomar esas ecuaciones y comenzar a resolver problemas de aprendizaje automático con ellas, y no preocuparse por qué funcionan, simplemente hacer que funcionen.
Pero creo que si realmente quieres profundizar en el aprendizaje automático, debes tratar de entender las pruebas detrás de esa ecuación. Eso solo te hará un mejor ingeniero de ML.
- ¿Cómo saben las computadoras cuándo comienza y termina una cadena binaria?
- ¿Por qué la complejidad temporal de los algoritmos de Edmond Karps O (VE ^ 2)? A mí me parece O (E * (E + V)).
- Cómo usar la primera búsqueda en profundidad en un laberinto
- ¿Por qué deberíamos instanciar una matriz en una línea diferente?
- ¿Encontrar la complejidad temporal de los algoritmos está relacionado con las matemáticas discretas?