¿Cómo crearán los investigadores inteligencia artificial general?

Mi punto de vista sobre esto, como uno de esos investigadores, es simple: AGI, si de hecho es completamente posible (depende del campo filosófico en el que resida: IA débil o IA fuerte), será posible gracias a los esfuerzos de quienes unieron Se siguen varios hilos a lo largo de los distintos subdominios de IA (visión por computadora, habla, lenguaje, robótica, planificación / toma de decisiones, etc.). Esto también requiere que todos los subdominios hayan desarrollado soluciones suficientemente buenas / correctas para sus objetivos / problemas particulares, o que hayan alcanzado los límites de lo que cada uno puede hacer en forma aislada de los otros subdominios (como visión sin lenguaje o viceversa).

Desde mi punto de vista de la literatura, incluso en el aprendizaje automático solo, estamos comenzando a ver cada vez más mezclas o entretejidos de hilos / ideas previamente dispares (tome los subtítulos automáticos de imágenes como un ejemplo interesante de visión y lenguaje). Todavía tenemos un largo camino por recorrer, pero hay muchas promesas mezcladas en todas las ideas del carro y las reinvenciones de la rueda.

Si dejamos de lado la exageración, creo que veremos un progreso continuo en la IA estrecha en el ámbito de la aplicación. Esto será útil para ampliar los límites de los distintos subdominios que nos permitirán identificar mejor los límites de los métodos actuales y populares. Pero para lograr un progreso sustancial real en AGI, necesitaremos ver aún más avances en la comprensión de nuestras propias mentes primero (desde la perspectiva de la neurociencia, la ciencia cognitiva, la filosofía, etc.). Lo más probable es que se realicen avances en todas las disciplinas (no olvidemos cómo los físicos y los sociólogos pueden aportar grandes ideas incluso si la intención no estaba relacionada con la IA, aunque ahora incluso los físicos están jugando con esos buenos neuronales). redes un poco más) que se unirán de varias maneras que ayudarán a dar forma a la imagen más amplia de AGI.

¿Será rápido? ¿Será fácil? Más importante aún, ¿surgirá ? Lo dudo, pero estoy seguro de que se logrará un progreso a largo plazo a medida que aprendamos más sobre nosotros mismos y la forma en que los humanos pensamos. [Tenga en cuenta que me suscribo y he trabajado en el área de sistemas adaptativos complejos, por lo que no estoy discutiendo el concepto de comportamiento emergente, pero estoy diciendo que es muy poco probable que los humanos tropiecen mágicamente con la solución emergente sin una mejor comprensión de un gran muchas otras cosas, incluidas las mejores ideas del elemento de procesamiento básico, como en una arquitectura neuronal.]

[Esta respuesta asume que los humanos no nos destruimos antes de llegar allí; sin embargo, tendemos a ser bastante violentos y resistentes al cambio de vez en cuando, y con la automatización del lugar de trabajo, esta parte de nuestra naturaleza podría salir con más fuerza en poco tiempo. Afortunadamente, algunos avances en nuestra capacidad de tratar con los demás, social y políticamente, también llegarán pronto. De lo contrario, tenemos que manejar el movimiento ludita bastante moderno primero, y posiblemente algunos momentos difíciles para la financiación por delante.]

Primero GRACIAS! Por introducir el término apropiado agi en lugar de ai general muchas gracias, es un poco molesto. En segundo lugar, en mi opinión, comenzará como una red neuronal auto modificante que, después de muchas modificaciones en sí misma, podrá hacer lo que cualquier humano puede hacer (de ahí proviene el general en agi para aquellos que no saben) y en ese momento El punto es completo, aunque puede que todavía no tenga una comprensión completa, pero continuará modificándose y aprendiendo.