¿Cuál es la mayor barrera científica o de ingeniería para la inteligencia general artificial?

Soy un poco un novato de IA en este momento, pero tengo algunas ideas sobre esta pregunta.

Puedo hablar con un par de tus barreras sugeridas. No creo que los límites computacionales sean un obstáculo significativo. La industria del hardware es increíble y sofisticada. Nuestras velocidades de reloj se dispararon antes hace unos años, y ahora estamos yendo de manera puramente paralela masiva con granjas de servidores y GPU, y granjas de servidores con GPU. Hay un problema importante en el mundo de HPC donde llegar a las supercomputadoras a escala de petas, necesitará un pequeño reactor nuclear para suministrar suficiente energía. En Oak Ridge National Lab (donde trabajo), el HPC y la energía son el pan y la mantequilla. Una cosa que han estado haciendo es usar GPU más para HPC porque son realmente más eficientes energéticamente por sus capacidades comparativas. Nvidia está yendo muy duro en el espacio de HPC porque saben que la gente no quiere construir un reactor nuclear para poder hacer HPC.

Eso suena bastante mal, sinceramente, pero no creo que lo sea. Por un lado, tenemos sistemas HPC increíbles en este momento que funcionan maravillosamente y solo serán más baratos de construir. La otra razón es que en unas pocas décadas, probablemente tendremos poderosas computadoras cuánticas, y la investigación sobre algoritmos cuánticos está en su infancia. Una cosa que es particularmente emocionante es el aprendizaje automático a través de la optimización cuántica adiabática. Google Research, USC / Lockheed-Martin y la NASA están trabajando en esto. Una razón por la que esto no será un obstáculo para AGI es porque es un obstáculo para otros problemas que son más pertinentes para nosotros. HPC siempre se verá impulsado a mejorar, simplemente porque hay demasiada investigación e ingeniería que se pueden hacer con un costo menor si solo pudiéramos hacer nuestros cálculos más rápido o con mayor precisión.

El otro punto sobre los conjuntos de datos también es insostenible, en mi opinión. En cierto sentido, la cantidad de datos que tiene que cuidar está algo relacionada con HPC, y hay muchas cosas que suceden en HPC para la extracción, visualización, almacenamiento y recuperación de datos. Si observa muchos laboratorios de alta tecnología en las universidades para HPC, notará que esto es un gran problema. Se está llevando a cabo una investigación similar en ORNL y otros laboratorios del Departamento de Energía (hay un gran impulso para la supercomputación en los laboratorios, por lo que es un buen lugar para mirar si desea mantenerse actualizado sobre la vanguardia de HPC – Lawrence-Berkeley , Oak Ridge, Argonne y Los Alamos son algunos bastante grandes). La recopilación de datos tampoco va a ser un problema, creo. Similar a la razón que di antes, no creo que sea un problema para AGI porque ya es un problema para muchos otros campos en el aprendizaje automático y la minería de datos, y está siendo impulsado especialmente por la industria de la tecnología (que históricamente ha tenido sido un motor muy poderoso).

Sin embargo, creo que su primer punto tiene validez. Nuestras técnicas son lo suficientemente buenas como para hacer cosas estúpidas como detectar tu voz, pero no son lo suficientemente buenas como para que una computadora realmente piense. Muchas personas parecen pensar que el aprendizaje profundo es un paso importante hacia AGI, y estamos ahora (en los últimos años) capaces de usar eficientemente un instrumento bastante contundente (redes profundas) y aplicarlo a diferentes problemas con buen éxito. El ajuste específico de la aplicación aumentará eso aún más, pero ese es un problema. Todavía hay cosas que deben especificarse para que el algoritmo de aprendizaje funcione bien, y hasta que comprendamos cómo ayudarlo a aprender por sí solo, no podremos hacer nada como AGI. El aprendizaje profundo es un paso hacia eso, pero es un paso muy pequeño. Creo que este será el mayor obstáculo, porque realmente estamos entrando en territorio desconocido. Si comparas las líneas de tiempo, creo que la IA en este momento se parece mucho a la física antes que a la mecánica cuántica.

Hay un último punto para hacer. No creo que AGI esté muy bien definido en la mente de las personas que no están trabajando en ello. Imaginan esta IA que puede hacer todo y cualquier cosa, atacando a las supercomputadoras y a los humanos con su juicio superior que nos hace inútiles. No olvidemos el teorema de no-free-lunch, que siempre habrá compensaciones entre aplicaciones y algoritmos que se utilizan para resolver problemas en esos campos de aplicación. Los humanos somos bastante buenos en algunas cosas, pero somos realmente, muy estúpidos en MUCHAS cosas. AGI está motivado en parte por tener un cerebro humano … pero no está del todo claro si somos realmente inteligentes o estúpidos por querer eso.

Pero como dije, soy un novato, y estas son solo mis humildes opiniones.

La mayor barrera es el término ‘inteligencia’. Este es un concepto mal definido y en constante cambio. Las computadoras que podían jugar al tic-tac-toe alguna vez se llamaron inteligentes. Entonces ajedrez. Entonces las matemáticas. Luego imitando la conversación (por ejemplo, Eliza). Luego traducción al lenguaje natural. Luego resolución de problemas y optimización. Luego adversarios de videojuegos. Etcétera etcétera

Es algo así como la pregunta: ¿cuál es la mayor barrera para el smorfishness?

4. Es muy dificil.