Concepto erróneo uno: una IA que sea buena en una tarea también lo será en otras tareas.
Entre los humanos, esta habilidad tiene sentido, ya que los cerebros adultos aprenden rápidamente nuevas habilidades, ya que ya aprendimos muchas habilidades básicas sobre las que desarrollamos. Así sabemos aprender; Al abordar cada nueva tarea, entendemos rápidamente qué información es esencial y qué no, y no necesitamos instrucciones repetidas una y otra vez para generalizar y aprender la habilidad en un grado que sea útil en muchas circunstancias diferentes. Entendemos los principios que podemos reutilizar para acelerar el proceso de aprendizaje, así como confirmar cómo lo sabemos y enseñar a otros.
Sin embargo, el estado actual del aprendizaje automático (IA que se mejora a sí mismo) implica enseñar a la computadora cómo hacer solo una cosa bien . Al comenzar a aprender cada nueva tarea / problema, el humano necesita mucho esfuerzo para dar forma a los datos y elegir el algoritmo para que una computadora pueda usarlo para aprender una sola tarea. Si / cuando eso se ha logrado, casi sin excepción , la computadora es incapaz de realizar una tarea diferente igualmente bien, incluso una similar. Y generalmente, es incapaz de realizar una tarea diferente.
- ¿Cuánto podrían ahorrar los Estados Unidos en el presupuesto militar y los beneficios para veteranos si desarrollaran un ejército de IA?
- ¿Cómo se sienten los ateos sobre el posible sufrimiento de la inteligencia artificial?
- ¿Por qué algunas personas le temen a la IA?
- ¿Qué son los conjuntos de datos en el aprendizaje automático y cómo funcionan?
- ¿Es la "teoría unificada de AI" del MIT realmente un gran avance?
Por ejemplo: digamos que usamos IA para entrenar una computadora para reconocer gatos en fotos. Después de mostrarle a la computadora muchos miles de fotos que contienen gatos y objetos que no son gatos, aprende a reconocerlos de manera útil. Entonces, ¿puede reconocer otros objetos que son * como * un gato (por ejemplo, con cuatro patas o pelaje), como un banco de parque o un sombrero de castor? No en realidad no. Para hacerlo de manera confiable, la computadora tendrá que mostrar miles de fotos con bancos y sombreros peludos. Solo entonces discriminará constantemente entre estos tres tipos de objetos. Incluso entonces, no puede explicar en absoluto cómo un objeto podría ser similar a otro. Después de todo ese entrenamiento, esa habilidad explicativa está completamente ausente. Y no tenemos idea de cómo agregarlo. El estado del arte en IA se detiene allí .
¿Qué pasa con el aprendizaje de los otros innumerables objetos que ocurren en las fotos que una IA útil debe saber para ser útil para Facebook al analizar el contenido de las fotos de los usuarios o para una cámara de policía al registrar un crimen? Aprender cada uno de esos objetos adicionales o actividades de video requerirá muchos miles de ejemplos más de cada nuevo concepto cada vez que se agregue un nuevo concepto. El método de aprendizaje de IA involucrado es completamente incapaz de aprender los principios involucrados que distinguen cada nuevo objeto de una manera que acelera su capacidad de aprender nuevos objetos similares, o de maneras que explican cómo la forma, el color o el movimiento de un objeto difiere de otro.
Esa incapacidad de los métodos actuales de inteligencia artificial para aprender a reconocer muchos objetos rápidamente con solo unos pocos ejemplos, o de manera significativa, en función de un conjunto de características de componentes, son enormes límites sobre cuán flexible y generalmente útil es la tecnología hoy y durante mucho tiempo. . Hasta que descubramos formas de hacer que la IA resuelva los problemas de forma rápida y compositiva , para que pueda aprender de algunos ejemplos y construir nuevas ideas paso a paso basadas en los principios que ha aprendido antes, la IA continuará aprendiendo solo de memoria y, por lo tanto, se limitará a regurgita sin pensar solo lo que ya ha memorizado.
Si la IA no llega a ser más inteligente que eso, siempre será un pony de un solo truco.