En la visión por computadora, me sorprendió:
* Cuando Vicarious pudo romper el captcha
* Vicario pudo dibujar una vaca. ‘Dibujar el ejercicio de la vaca’ es más que solo visión: también es una mejor cognición. Probablemente no sea un buen conocimiento de la inteligencia general artificial, pero sí un buen conocimiento de cómo se entienden las formas y los vértices.
En PNL, me sorprendió cuando:
* Google Now pudo transcribir mejor la entrada de voz de los radios que Siri. Fue capaz de transcribir más ascensos que Siri (sin mencionar el Discurso del Dragón)
En NLU (comprensión del lenguaje natural) me sorprendió cuando:
* IBM Watson jugó al juego Jeopardy y lo ganó
* Houndify demostró cómo podía entender y responder preguntas de un género en particular sobre el cual fue entrenado
* frase-c, que actuaría como un servidor de base de datos de lenguaje natural
- ¿Cuál es la parte más lenta del método SVM?
- ¿Cómo debe comenzar un principiante con la investigación en Machine Learning?
- ¿Qué es mejor: un tema fundamental de doctorado de ML o uno aplicado?
- ¿El aprendizaje de transferencia es adecuado para modelos que pueden tener características de entrada crecientes?
- ¿Por qué alguien usaría un modelo de regresión basado en un árbol de decisión?
En programación genética me sorprendió cuando:
* Google Deepmind pudo aprender a jugar juegos de Atari y pudo competir con jugadores humanos (algunos entusiastas de la IA argumentarían que Deepmind entra en la disciplina de ‘visión de computadora’ que en la programación genética; mi argumento es que están superando bastante bien los programas genéticos en su banco de pruebas de atari)
Honestamente, ninguno de los anteriores me “sorprende”, pero estoy “feliz por ellos” porque la evolución está ocurriendo a un ritmo constante. Probablemente me sorprenderá cuando un agente inteligente pueda entregar un libro, que una vez leído por el agente lo hará inteligente. Algo así como el ‘Robot College Student Test’ como se describe en https://en.m.wikipedia.org/wiki/…