Comencemos diciendo que las anteriores son excelentes respuestas. Quería agregar otra perspectiva sutil y diferente, creo que algunas personas se perdieron.
Hinton tiene una conferencia imperdible llamada “¿Qué hay de malo en las redes neuronales convolucionales?”. También creo que el esfuerzo más reciente de Hinton en ‘Redes neuronales escandalosamente grandes’ también ayuda a llevar mi punto a casa …
Mi sensación, que espero que también sea de Hinton, es que ha creado un monstruo Frankensteins de ese tipo.
- ¿Cuál es la relación entre el aprendizaje por refuerzo y el aprendizaje contradictorio (por ejemplo, GAN)?
- ¿Cómo crearías una IA que pueda pasar por alto la verificación de Google "No soy un robot"?
- ¿Cómo se pueden aprovechar los análisis predictivos en chatbots para el comercio conversacional?
- ¿Cómo define el aprendizaje automático para un niño de seis años?
- ¿Cómo se usa el aprendizaje automático para evaluar los currículums?
Verá, las redes neuronales profundas son criaturas enormes y voluminosas e ineficientes que le permiten resolver eficazmente un problema de aprendizaje al obtener grandes cantidades de datos y una súper computadora. Actualmente intercambian eficiencia por fuerza bruta casi siempre. Las redes neuronales convolucionales son un excelente ejemplo porque no tienen una noción estándar de marco de referencia y no son invariables a los cambios de rotación y escala. La solución goto de hoy no es hacerlos invariables sino hacerlos ‘tolerantes’: usar grandes cantidades de datos y una gran capacidad de modelo.
La forma de Frankensteins también tiene sus problemas:
- Algunos problemas de hoy simplemente están fuera del alcance de la mayoría de los investigadores ocasionales porque carecen de hardware adecuado. Eche un vistazo al lento ritmo de aprendizaje profundo que el video ha hecho hasta hace poco.
- Esta misma ineficiencia es lo que hace que las redes profundas sean menos útiles para problemas de ‘datos pequeños’.
Si eres Google y obtienes un conjunto de datos etiquetado de 100 millones y una supercomputadora 10 Petaflop está a tu alcance, eres dorado. El problema es que este es el camino del ingeniero y no del científico. Hinton cree que deberíamos invertir en hacer que las redes neuronales sean más eficientes. Aún necesitaría datos etiquetados, pero mucho menos.