Son bastante buenos CS 231N: Las redes neuronales convolucionales para la visión por computadora crearon un modelo de clase que otros cursos de aprendizaje profundo como CS 224D / N y CS 273B han intentado emular. Al menos, las notas del curso para 231N han aparecido en otras clases de Stanford, e incluso en el curso de aprendizaje profundo para PNL que audité en Oxford. Cualquier cosa con “aprendizaje profundo” en la descripción del curso en Stanford tiende a ser inscrita en exceso. El primer día de clase para 231N, enviaron un correo electrónico y publicaron letreros que decían a las personas que no vinieran a dar una conferencia en persona, ya que no todos encajaríamos en la sala.
Sin embargo, la cuestión es que los cursos de aprendizaje profundo tienden a enseñarnos solo 1) conceptos fundamentales en el aprendizaje profundo, por ejemplo, propagación hacia atrás, abandono y 2) la última y más popular tendencia en DL (cualesquiera que sean los periódicos de NIPS / ICML / arxiv). Para realmente obtener una buena comprensión a largo plazo de DL y ML más allá de la implementación, uno debe complementar estas clases con más material teórico / matemático. (Aunque quizás la mayoría de las tareas en la industria realmente solo requieren un conocimiento conceptual básico y la capacidad de leer la documentación de Tensorflow).
- ¿Qué lenguaje usaría una IA para programarse a sí misma o su engendro?
- ¿Cuáles son las posibilidades de que profesiones como abogados y médicos sean reemplazadas por IA para 2067?
- ¿Por qué el aprendizaje automático es menos satisfactorio que la codificación estándar?
- ¿Por qué Elon Musk cree que la comprensión de Mark Zuckerberg de la IA es limitada?
- ¿Los robots nunca serán considerados propiedad? ¿Habrá algún momento en el que los robots tengan derechos legales?