Mi forma favorita de pensar sobre el progreso de la IA en este momento es un par de publicaciones que un Googler hizo internamente. Hace un año, esta persona publicó: “Las fotos no reconocen las morsas”. Recientemente, la persona publicó: “Actualización: las fotos reconocen las morsas ahora”.
Las fotos aprendieron a reconocer mucho más que las morsas en el último año. Pero las morsas son lo único que esta persona notó que faltaba hace un año y no lo es hoy.
Así es como se ve el progreso de la IA. A menos que esté íntimamente familiarizado con todos los modos de falla de una IA, y realice un seguimiento de ellos, es poco probable que note que la cantidad de modos de falla se está reduciendo.
- ¿Cómo es ser parte del Programa Ninja de Aprendizaje Automático de Google?
- ¿Por qué los sistemas de recomendación comienzan a recomendar elementos solo después de un pequeño encuentro con un elemento similar?
- ¿AI podría escribir código?
- ¿Dónde puedo obtener reglas para un sistema experto?
- ¿Por qué Elon Musk está tan preocupado por la IA cuando ni siquiera está cerca de ser tan inteligente como una ameba?
La otra cosa es que tus expectativas cambian. Si fue hace dos años, dudo que encuentre muchas personas (incluidos los ingenieros que trabajan en el proyecto) que dicen que algún día, Photos reconocerá las morsas. Pero en el tiempo en que Photos ha ido mejorando, también lo han hecho nuestras expectativas sobre lo que puede hacer.
Escuché esto atribuido a Marvin Minsky: “La inteligencia artificial es algo que las computadoras aún no pueden hacer”. En lo que respecta a la IA, tenemos un sesgo cognitivo hacia el movimiento de los postes. Mientras más cosas aprende a hacer una IA, más cosas vemos que no puede hacer. Es como el misterioso efecto de valle en la animación, donde cuanto más realista es una escena, más defectos saltan al espectador.