¿Cuáles son los nuevos desafíos de inteligencia artificial?

Como se trata de una pregunta final bastante abierta, me pregunto si quiere decir como en “prueba” o como en “desarrollo”. La IA eventualmente superará cualquier prueba de inteligencia que podamos idear. En cuanto a las pruebas, los juegos de mundo pequeño, como los tipos RTS, son probablemente el nuevo campo de batalla para probar la inteligencia artificial frente a la inteligencia humana.

Aquí están los verdaderos desafíos que creo:

  • Escala : las redes neuronales actuales son redes neuronales de segunda generación que operan utilizando una estructura estadística muy simple (principalmente perceptrón). Si bien son complicados e incluyen diferentes tipos de organización, no codifican información espacio-temporal como el cerebro, lo que requiere que más neuronas codifiquen el mismo tipo de información y que requieren diferentes rutas a través de la red para obtener resultados similares. Cuanto mayor es la tarea, mayor es la red. A medida que se vuelvan más inteligentes, también se harán más grandes, ya medidos en grupos versus núcleos. Escalar a un cerebro de tamaño humano usando el procesamiento lineal estándar de tipo GPU será difícil.
  • Hardware: se diseñará hardware especializado que ayudará a acelerar los cálculos. Esto ya comenzó con varios tipos de chips experimentales de la Unidad de Procesamiento de Tensor de Google o el DGX-1 de NVidia, que son procesadores o computadoras con propósitos especiales diseñados para hacer computación de redes neuronales de segunda generación masivamente paralelas. Esto ayudará al problema de la escala porque el hardware especializado podrá realizar los cálculos más rápido que el hardware de uso general para ayudar a reducir la cantidad de nodos de cómputo necesarios para una red de tamaño determinado.
  • Revolución neuromórfica : los cerebros biológicos no están basados ​​en binarios. La red de perceptrón multicapa de retroalimentación es un modelo muy básico de neuronas verdaderas. Las neuronas biológicas se basan en el potencial de membrana y la diferencia de voltaje entre el interior y el exterior de la membrana celular. A medida que se acumula la carga, eventualmente alcanzan un punto donde la carga pasa de la dendrita al axioma, lo que provoca una liberación química del potencial de acumulación en las neuronas cerca de los extremos axiomales, también conocido como aumento. Las señales pasan de una neurona a otras conectadas a ella. Este es el mecanismo básico de una segunda generación, excepto que un pase de cómputo comienza en las entradas y mueve los valores (no el potencial de voltaje) a través de la red con cada valor ajustado por el peso de la conexión. Las neuronas biológicas son asíncronas y se disparan cuando el potencial de voltaje alcanza un valor dado, lo que también puede provocar disparos adicionales (como neuronas inhibidoras de rápido aumento). Esto hace que las neuronas biológicas sean más análogas, ya que la velocidad a la que disparan y el momento en que disparan transmiten la información utilizando la frecuencia de disparo y los intervalos de disparo (por lo tanto, espacio-temporal).

Los cerebros de los mamíferos tienen unidades básicas de procesamiento llamadas columnas neocorticales que varían de 10 mil (ratas) a 60 mil neuronas (humanas) por columna dispuestas en seis capas con un billón de sinapsis. Las técnicas de computación que simulan las neuronas biológicas producen una estructura de datos que produce neuronas con púas que imitan perfectamente a las neuronas biológicas (Hodgkin-Huxley, llamada biológicamente significativa), pero son lentas para procesar modelos que producen espigas similares a las biológicas (Izhikevich) a muy simples no biológicos picos (integrar y disparar).

Es más difícil trabajar con las redes neuronales de punta, ya que no tenemos excelentes modelos de entrenamiento (aunque se pueden hacer para autoentrenamiento usando plasticidad a largo y corto plazo como STDP), pero muchos creen que una verdadera simulación de un ser humano (entonces más grande cerebro humano) será la forma en que logremos la verdadera IA: imitemos el modelo biológico que ya tenemos. La IA pasará de las redes de segunda generación (alimentación hacia adelante) a la tercera generación (redes neuronales) también con la ayuda de hardware (BrainChip, TrueNorth, SpiNNaker, BrainScaleS – Procesadores neuromórficos).

  • Aceptación : el último y verdadero desafío de la IA será la aceptación por parte de los humanos no solo de ser superior, sino también completamente capaz de creatividad y emociones, es decir, “los nuevos hunanes”, el siguiente paso en la evolución humana, dejando atrás nuestros cuerpos biológicos. Comenzará en pequeñas actividades, como autos sin conductor, luego administradores de fondos artificiales, abogados informáticos y médicos, hasta que, finalmente, cuando se logre la IA general, una máquina de pensamiento totalmente capaz de interactuar con los humanos para avanzar en la robótica y la genética para ayudar a nuestros cuerpos así como construir cuerpos para los nuevos humanos.

El principal desafío en la inteligencia artificial es y siempre ha sido la representación del conocimiento.

Hay dos desafíos principales en la inteligencia general artificial, o AGI:

  1. encontrar un algoritmo para la inteligencia;
  2. integrando módulos de inteligencia artificial estrecha en un sistema que puede producir inteligencia general.

Estos dos desafíos AGI coinciden con las dos escuelas de diseño AGI descritas por Paul Rosenbloom, la escuela de arquitectura de uniformidad primero y la escuela de arquitectura de diversidad primero. La primera escuela plantea la hipótesis de que la inteligencia surge del algoritmo correcto, la segunda escuela plantea la hipótesis de que la inteligencia surge de la combinación correcta de módulos que funcionan sinérgicamente.

Mi primer enfoque de diversidad se describe aquí: Construyendo mentes con patrones.

Anteriormente, el uso de la inteligencia artificial nos permitía integrar profundamente capacidades ‘cognitivas’ o inteligentes en el código informático. Ahora podemos hacer esto a un nivel superior, es decir, sistemas que se conectan y analizan directamente con analistas e incluso consumidores. Esto tiene el potencial de una disrupción radical, pero puede tomar tiempo para madurar

Hay muchos, pero aquí hay algunos.

El aprendizaje semántico sería bueno, sin supervisión todavía no está tan sin supervisión como la gente quiere decirnos. Soy dueño de una compañía de inteligencia artificial, y la diferencia en el código y la opinión pública es asombrosa. Sería bueno si las personas pudieran reconocer lo que se une a un problema de IA, por lo que la educación también es un problema.

Lo más importante es que las personas deben ser más directas sobre si algo es un sistema experto, un algoritmo, optimización estocástica, optimización regular o IA.

Todo el mundo está llamando a todo AI en estos días si contiene lógica, y creo que eso da un mal golpe al campo de la IA.

Además, descubrir formas de interpretar los cuadros negros una vez que los ponemos en movimiento sería bueno. Este campo sería similar a (o un subconjunto de) estadísticas; pero necesitamos descubrir cómo reducir toda esta no linealidad interactiva a algo que podamos criticar. Sí, tenemos medidas, pero están atascadas y funcionó x% tipo de medidas.

Podemos descubrir cosas sobre la IA al hacerlo; y ciertamente entenderemos mejor la diferencia entre las capacidades humanas y de computadora.

Además, el poder computacional y los procesos de recolección de datos.

Buena pregunta, ¡adelante!