Una de mis mejores amigas es la nieta de Marvin Minksy. Le pregunté, y esto es lo que respondió textualmente, con la revelación de que no era una opinión experta:
“Respuesta corta: no cree en el aprendizaje profundo.
Respuesta larga: Realmente no sé qué es el aprendizaje profundo, pero sé que la teoría implica el uso de redes neuronales. Marv escribió este libro llamado Perceptrons en 1969 (cuando las redes neuronales estaban de moda en el mundo de la IA) demostrando que cierto tipo de red neuronal que se creía que tenía mucho potencial no podía hacer lo que la gente pensaba que podría que hacer. Desafortunadamente, todos interpretaron esta descripción de las limitaciones de un tipo de red neuronal como diciendo que no deberíamos investigar / usar redes neuronales para la IA, y se cree que esto condujo al invierno de la IA de 1970 (“el abandono del conexionismo “) – básicamente, todos culpan a Marv por ese invierno, y él podría merecerlo. Las redes neuronales ya están de vuelta, aunque las personas ya no piensan que son los precursores de algo particularmente sorprendente. A Marv todavía no le gustan mucho y cree que tienen más limitaciones que otras personas. Por lo tanto, él no cree en todo el aprendizaje profundo, del cual, una vez más, en realidad no sé nada, así que no pongas esto en un examen ni nada “.
Espero que esto ayude un poco
¿Cuál es la visión de Marvin Minsky sobre el aprendizaje profundo?
Related Content
¿Crees que los científicos de investigación serán reemplazados por robots?
¿Crees que tu trabajo actual será reemplazado por un robot / software?
¿Alguna vez AI hará preguntas para las que no sabe la respuesta?
Marvin Minsky no siguió de cerca los últimos seis años de resultados innovadores en el entrenamiento de redes neuronales de muchas capas, y no estaba al tanto de las aplicaciones recientes de redes convolucionales, codificadores automáticos, LSTM, etc. Después de haber trabajado en perceptrones y el aprendizaje hebbiano al principio de su carrera, no sentía que justificaran su atención más. En una conversación personal, descartó el aprendizaje profundo como una moda pasajera y sostuvo que no había habido avances significativos en IA durante los últimos quince años.
Sin embargo, en defensa de Marvin Minsky, debe argumentarse que muchas de las ideas que hicieron exitoso el aprendizaje profundo hoy ya se habían desarrollado en los años sesenta y setenta, y que los aprendices profundos no son un buen modelo de inteligencia, ya que en su mayoría modelan hasta la percepción Lamentablemente, su reciente auge también coincidió con el deterioro de la salud de Marvin Minsky.
Minsky ha dicho exactamente esto durante la presentación de diapositivas:
“Las redes neuronales, el refuerzo y los métodos basados en estadísticas tienden a ser demasiado opacos para soportar otros tipos de pensamiento reflexivo”.
“Cuando estas soluciones funcionan, lo que terminas con son máquinas que pueden resolver problemas sin que nadie sepa cómo lo hacen”.
El artículo de Minsky sobre Perceptron, era como un hacha asesina sobre Perceptrons. Pero con el desarrollo del descenso de gradiente y BPN y una mejor comprensión de cómo los MLP realmente pueden resolver problemas no lineales, sea lo que sea lo que Minsky tenga que decir, no serán las últimas palabras en redes de varias capas (redes basadas en aprendizaje profundo)
More Interesting
¿Cuál es el punto de la robótica?
Cómo usar el aprendizaje automático
¿Son los robots el futuro del cuidado de los ancianos?
¿Cuál es la prueba de que la iteración de políticas converge en el aprendizaje por refuerzo?
¿Se pueden utilizar las API de IBM Watson para crear un asistente de voz completo?
Reconocimiento de voz: ¿algunos idiomas hablados son más fáciles de reconocer por una máquina?
¿Cómo puede un bebé aprender a caminar sin resolver conscientemente un problema de control dinámico?
¿Cómo se puede estimar la percepción de profundidad con visión monocular?
¿Hemos entrado oficialmente en la era de los robots y la inteligencia artificial?