Respondiendo una ligera variante de la pregunta anterior
¿Por qué no hemos construido una máquina de IA que sea paralela a la inteligencia humana?
- Antes de responder a eso, veamos un ejemplo del estado actual de la técnica en el esfuerzo por crear inteligencia artificial. Es un modelo que lee el libro de un niño y le da sentido, es decir, crea una representación interna de la historia. Esta representación interna le permite responder preguntas simples ( ejemplo, figura a continuación ). Este es un artículo que se revisará para su publicación el próximo año en ICLR 2017. Seguimiento del estado mundial con redes de entidades recurrentes, Yann Lecun et al.
- ¿Qué importancia tienen las estructuras de datos y los modelos gráficos para el aprendizaje automático?
- ¿Hay alguna métrica de evaluación para chatbots?
- ¿Se está saturando el aprendizaje automático como campo de investigación?
- ¿En qué tipos de búsqueda falla más claramente Google? ¿Y qué vías y sitios abordan estos problemas mejor o más prometedora?
- ¿Por qué el submuestreo de características u observaciones mejora el rendimiento de GBM?
- La representación interna anterior significa, actualizar el estado interno, etc., a medida que se lee la historia. Por ejemplo, citando un ejemplo del artículo anterior, “John sale de la cocina”: el agente de IA que lee la historia debe aprender a actualizar su estimación de la ubicación de John, así como el número de personas en la habitación, etc.
- Si bien en los últimos años, hemos visto redes neuronales artificiales que pueden superar a los humanos en pocas tareas, todavía estamos en la etapa de crear una máquina que pase algunas pruebas simples como la prueba del libro para niños cuando se trata de emular la verdadera inteligencia .
Porqué es tan dificil?
- No es gracioso, es difícil porque la inteligencia es difícil de entender, y mucho menos emularla / duplicarla.
- Hasta la fecha no hemos descubierto cómo funciona un gusano de 1 mm de longitud ( con aproximadamente 400 neuronas y 7000 conexiones entre ellas ), a pesar de que hemos mapeado completamente sus conexiones. Lo mejor que hemos logrado hasta ahora es identificar que el hombre tiene alrededor de 80 neuronas adicionales que la mujer que le permite ejecutar un “algoritmo de copulación” ( este comportamiento está conectado genéticamente a cada gusano, lo que significa que nacen con él ) tan pronto hace contacto con una hembra. ¿Qué es un conectoma?
- En una escuela de aprendizaje profundo organizada en Toronto a principios de este año (2016), la perspectiva de broma de un biólogo sobre nuestro progreso en la creación de inteligencia artificial captura la dificultad del problema, mientras rastrea el progreso de una neurona artificial, que se inspiró en parte en neuronas biológicas Más allá de la inspiración: cinco lecciones de biología sobre la construcción de máquinas inteligentes
- En la década de 1960, todo lo que hizo una neurona fue realizar una suma ponderada de entradas ( figura a continuación ). Luego, se aplicaría un umbral en la suma ponderada para generar una salida, que luego podría usarse como un mecanismo de clasificación ( por ejemplo, la suma de las entradas ponderadas por encima de un umbral es 1; de lo contrario, 0 ). Sin embargo, este modelo no era entrenable, dado que la función de umbral no era una función suave (el descenso del gradiente ya era conocido entonces )
- Nos llevó 20 años darnos cuenta en 1980 de que podíamos reemplazar esa función de umbral con una función suave ( diferenciable ), por lo que ahora podemos entrenar la red con descenso de gradiente (figura a continuación) . Pero la función sigmoide lisa aún presentaba algunos desafíos porque se satura tanto en la parte superior como en la inferior, limitando el rango dinámico de salida en relación con la entrada.
- Luego, 20 años después, en 2000 nos dimos cuenta de que podemos usar una función de activación ( ReLu ) que no se engancha en la parte superior, sino que se engancha en la parte inferior con un umbral (figura a continuación) .
- Entonces, en broma, dice que todo lo que hicimos en el transcurso de 50 años fue cambiar la función de activación, que prácticamente hizo la misma operación hace 50 años que ahora, el umbral.
- Dicho esto, el progreso que hemos realizado hasta ahora no es de ninguna manera pequeño en su alcance e impacto. Esto se capta mejor en una declaración que Andrew Ng hizo en una charla recientemente en septiembre de 2016. Su regla general aproximada y cruda ( enfatiza ) a qué problemas podemos aplicar los modelos actuales de aprendizaje automático para resolver.
- Si una persona típica tarda menos de un segundo en resolver un problema, entonces ese problema es un candidato potencial para que el aprendizaje automático resuelva. (punto de tiempo alrededor de 1 hora: 05)
- Si uno enumerara el número de trabajos que caen en ese cubo, no es un número insignificante …