¿Cuáles son algunos de los problemas de desarrollo que enfrenta la inteligencia artificial?

Hay muchos problemas y muchos que, en general, son problemas de hoy en día para el gran público que para las personas que representan el gran corpus en la IA.

El más grande, en mi opinión, es principalmente que la IA de nivel humano, actualmente al menos, es oro de tontos. Fue en los años 80 cuando muchos pensaron que estábamos cerca de lograrlo y de repente se dieron cuenta de que todavía no estábamos allí. Esto resultó en el invierno de IA que llevó a muchos investigadores de IA a lo que algunos llaman IA débiles. Es probablemente la misma historia que se repite.

El fracaso de la IA no está en su éxito, sino en el hecho de que algunos, desafortunadamente los que son más atractivos para la prensa por esta razón exacta, prometen demasiado. En consecuencia, apenas pueden entregar menos. Muchos de los éxitos de la IA no vinieron de estas personas sino de los que hacen exactamente lo contrario. y hoy en día muchos de estos trabajos resultan en aspectos que impactan cada vez más en nuestra vida: los anuncios que se le entregan se adaptan cada vez más a lo que se puede aprender a través de su actividad en la web (en caso de que sea gracias a Google, Facebook o muchos otros) ), sus resultados de búsqueda se vuelven relevantes gracias a la teoría de gráficos, pero también nuevamente lo que el sitio aprendió de sus búsquedas típicas, puede hacer una pregunta en lenguaje natural a su teléfono o computadora y tiene, en algunos límites, una respuesta precisa que se integra incluso información potencialmente contextual, como su ubicación. Y estos son solo los lugares muy conocidos y vistos donde se utilizan técnicas de IA. ninguna de esas técnicas estaba realmente destinada a producir inteligencia a nivel humano, sino ser lo mejor posible (en muchos casos mejor que cualquier humano) en lo que hacen específicamente.

En el aspecto técnico, cada técnica que conocemos tiene sus defectos en su propio aspecto. Los enfoques simbólicos presentan el inconveniente de que a menudo son pesados ​​(computacionalmente y en términos de complejidad del modelo requerido para ser diseñado) y no están muy abiertos a evolucionar por sí mismos (aprender un modelo de nuestros datos ruidosos en símbolos es un tema difícil) . Ambos están progresando y mejorando, pero esto permanece.

El aprendizaje automático o el conexionismo están hechos para aprender, pero tampoco son perfectos. La dificultad de modelar desde lo simbólico se reemplaza por otros problemas, como cómo preprocesar los datos para mejorar los resultados y evitar alcanzar mínimos locales y / o falsos positivos. También son muy difíciles de analizar y mejorar, ya que son básicamente una gran caja trasera. Esto es problemático tanto en términos de ingeniería (cómo mejorar un modelo aprendido si no sabe qué lo lleva en la dirección equivocada) como en investigación. También tienen que demostrar el mismo poder de inferencia y proyección que los enfoques simbólicos más clásicos: es bueno reconocer un patrón, pero si no puede inferir sobre ellos, ¿puede hacer más? Para el conexionismo (o enfoques inspirados en la neurociencia), el problema que escucho cada vez más a menudo es que los modelos utilizados para una neurona hasta ahora están demasiado simplificados. Lo cual puede ser cierto, pero también es la misma canción que se cantó hace 30 años.

También hay muchas preguntas abiertas sobre cuáles son los elementos necesarios para exhibir alguna forma de inteligencia. Una de ellas es la cuestión de la “encarnación”, más precisamente es la acción necesaria para adaptarse realmente. Puede aprender sin acciones (la mayoría de los enfoques de ML hacen exactamente esto), pero la acción también es una forma de experimentar cosas nuevas y cerrar el ciclo de propiocepción. La memoria a corto plazo frente a largo plazo es otro aspecto: creemos que los humanos tienen ambos recuerdos (si la separación es tan precisa como algunos sugieren que es discutible), ¿son importantes también? De ser así, ¿cómo pueden traducir lo que hemos hecho? lejos.

Tenga en cuenta que el hardware nunca entró en los problemas que presenté. El progreso del hardware es bueno para mejorar el rendimiento, pero muchos de los enfoques que hemos explorado con resultados exitosos tratan problemas que van mucho más allá del problema de la falta de potencia informática. La búsqueda en la lógica de primer orden todavía tiene muchos problemas que simplemente se identifican como indecidibles en la falta de supuestos de simplificación. La maldición de la dimensionalidad en ML no se resuelve simplemente buscando más sino revisando cómo se realiza la búsqueda. En ninguno de los casos, la informática resolvería algo, simplemente empuja la frontera un poco más sin ningún esfuerzo: lo que permite que existan para el gran público en lugar de los laboratorios de investigación.

Ahora volviendo a mi “nivel humano de IA inicial es oro de tontos”. Cuando las personas dicen IA de nivel humano, a menudo inconscientemente realmente quieren decir “IA humana perfecta”. Quieren su pastel y también se lo comen. Quieren las garantías matemáticas perfectas (integridad, solidez, corrección, …) y la flexibilidad (adaptabilidad, reactividad, …). Quieren que esto sea capaz de vencer al mejor jugador de ajedrez, pero también vencer a los mejores jugadores en Jeopardy e incluso entonces no cederán simplemente diciendo “sí, pero ¿puede hacer X?” (y X es este objetivo que siempre retrocede). El aspecto importante aquí es nuevamente que no quieres una IA de nivel humano (los humanos están cometiendo muchos errores y la mayoría de nosotros no somos los mejores en nada), sino solo esta visión idealizada de una IA que puede hacer algo al menos igual de bueno – y a menudo mucho mejor – que cualquier humano puede hacer.

Incluido yo mismo, si tengo que lidiar con algo que se me presenta como, por ejemplo, mi nuevo asistente y no puede entenderme adecuadamente, estoy decepcionado y lo descarto como una basura inútil. Mientras tanto, olvido que soy un extranjero que vive en los EE. UU. Y que muchas llamadas de telemercadeo que recibo no me entienden en muchos casos también debido a mi acento. También olvido que lo mismo ocurre con un niño que está aprendiendo, no podrá entender primero, pero con el tiempo corregirá sus errores. ¿Estoy diciendo que Siri, Google Voice o Cortana son IA de nivel humano? Dios no. Pero es importante capturar que las expectativas de nuestros usuarios no son las mismas que para un ser humano, a menudo son las mismas que el ser humano idealizado que imaginamos. Y luego olvidamos que son muy bien esas imperfecciones generales que todos tenemos las que nos permiten a pocos alcanzar este ideal en, como máximo, un dominio específico.

Entonces, la última parte, que es más mi opinión personal, es que la IA de nivel humano no solo es “tonta de oro” por el hecho de que la vemos de hecho como “IA de nivel humano perfecto”, sino también y sobre todo porque es un retroceso Gol. Cuando reemplazamos los caballos para el transporte, la solución no era hacer un caballo mecánico. Hubiera sido un enfoque ridículamente caro y frágil. En cambio, tratamos de aprovechar la potencia que pudimos generar de la manera más eficiente y robusta que pudimos imaginar. Sí, un tren o un camión son mucho más especializados que un caballo, pero son mucho mejores en lo que hacen. Lo mismo ocurre con muchas creaciones humanas y especialmente las más exitosas: no intentaron reproducir la mejor solución del pasado, trataron de encontrar una solución que abordara el problema, teniendo en cuenta que un motor no es un músculo, o una rueda no es una pata, … pueden servir para propósitos similares pero son diferentes.

Lo mismo ocurre con la IA y los humanos. Un procesador no es un cerebro, un transistor no es una neurona, un robot siempre será un humano. No funcionan de la misma manera y cuanto más intentes ir contra la corriente siempre fallarás (o terminarás tarde en la fiesta). Otro aspecto es que inteligencia es solo un término muy general que cubre muchos aspectos vagos y, en cierto sentido, no es una escala sino mucho más multidimensional. Los humanos y nuestros genios son una buena manera de demostrar que incluso entre nosotros hay muchos aspectos diferentes: ¿Es Einstein más inteligente que Shakespeare? ¿Qué tal Henry Ford?
El hecho del asunto es que buscar inteligencia artificial a nivel humano solo está ignorando esta multidimensionalidad sobre cómo la Inteligencia puede expresarse. Y una forma de inteligencia artificial puede muy bien estar en un eje en el que no estamos muy presentes mientras no tenemos otros. Si algo no podía tolerar hablar pero aún así puede demostrar la capacidad de componer y tocar música increíble, es posible que carezca de habilidades sociales, pero ¿es menos inteligente?

En general, todavía estoy convencido de que cualquier promesa de estos AI de nivel humano (o incluso AGI) sigue siendo muy hueca y mal dirigida. Al igual que quien imaginaba un caballo mecánico y puede no haber visto que el hecho de que un tren no pueda nadar o ir a través de terrenos irregulares no cambió el hecho de que un tren es más económico y más rápido que un caballo para ir de una ciudad a otra.

PROBABLEMENTE podemos crear una IA a nivel humano, dado un hardware infinito (poder computacional mucho mayor que un cerebro humano), pero eso no significa nada.

Necesitamos encontrar formas mucho más eficientes para lograrlo.

Muchos problemas en el mundo se pueden resolver con hardware infinito, pero el problema es que no tenemos hardware infinito. Una gran parte de la informática es encontrar formas eficientes de hacer las cosas.

El hardware es parte de esto.

http://www.theguardian.com/scien

Hay 86 mil millones de neuronas en el cerebro humano. Pero no se puede emular una sola neurona con un solo transistor.

http://www.willamette.edu/~gorr/
https://books.google.com/books?i … (página 48)

Parece que una neurona puede tener un máximo de 20,000 sinapsis. Si asume la lógica digital, es potencialmente una puerta lógica de 20,000 entradas. El peor caso posible es que esto es equivalente a! 20000 puertas lógicas.

http://justinwhite.com/big-calc/

Así es como se ve el factorial mil. No es amigable y está un poco más allá de lo que puede poner en un chip de silicio incluso a 15 nm. Y recuerde, esto es solo para simular una neurona. Tenemos que simular 86 mil millones de ellos.

Las redes neuronales hacen trampa un poco ante esto. Hay una función de ponderación (que puede tener millones en un solo chip) en la que conecta los datos. Esto requiere 20,000 pesos por neurona. Incluso si usa valores de 64 bits, eso es 160k de datos por neurona. Puede administrar alrededor de cinco millones de neuronas en un solo servidor, si lo hace de esta manera. Si apilas 17,000 servidores juntos, tienes suficiente para simular un cerebro.

Esto supone que las señales son digitales, recuerde, y que no hay cambios en los datos a través de una sinapsis, y que las sinapsis son fijas.

Lo digital probablemente esté bien, pero sabemos que las sinapsis pueden convertir los pulsos N en pulsos M con un retraso de D. También sabemos que las sinapsis transportan proteínas que regulan la señal de alguna manera, y que las sinapsis pueden variar.

Comencemos con diferentes sinapsis. Fácil de replicar, necesita una tabla de direcciones lo suficientemente grande. 64 bits es suficiente (tiene que ser una potencia de 2) y eso significa que hemos duplicado los datos por sinapsis. Sin embargo, ahora necesita un enrutador. Para simular cada conectoma posible, podemos introducir neuronas de enrutamiento virtuales que no hacen más que recolectar datos y cultivarlos en la neurona correcta o en una neurona de enrutamiento más cercana. Esto multiplica el número de neuronas que necesita por 8192. Por lo tanto, nuestro multiplicador de tamaño total es 16,384.

Para simular el retraso, la multiplicación de la señal y obtener el tiempo correcto, las tuberías deben tener prioridad FIFO. Antes estaba asumiendo un búfer de ping-pong, para que las salidas no borraran las entradas que aún se necesitaban. Hay algo de espacio adicional en la dirección, podemos usarlo para prioridades y retrasos. Si suponemos que se pueden poner en cola cuatro valores a la vez, debemos multiplicar el almacenamiento por cuatro. Esto nos lleva hasta 65.536 veces.

Haciendo trampa escandalosamente en los cálculos, obtenemos una nueva cifra de alrededor de un millón de servidores.

Eso es mucho espacio en el servidor que necesitarías. Y mucho dinero. Hay computadoras más grandes que esta, el simulador de tierra, por ejemplo, pero no hay muchas y no son baratas. El simulador de cerebro en Europa, aparentemente, será de este tipo de orden de tamaño.

La información para el arranque de una computadora de este tipo todavía es limitada. El proyecto Human Connectome está llegando allí, pero tardará un tiempo. Sin datos de arranque, tomaría casi tanto tiempo llegar al estado de conciencia de una máquina como el campo de la informática ha existido hasta ahora.

En pocas palabras, no tenemos idea de cómo funciona la inteligencia humana. Ni siquiera tenemos consenso sobre qué es la inteligencia.

Se ha hecho y se ha hecho mucha investigación, pero todavía solo está rascando la superficie del problema.

Creo que se debe a las teorías fragmentadas en el campo. No pude hacer un programa de IA viable solo con mi conocimiento de CS. Sin embargo, más tarde entré en otros campos de ingeniería y obtuve más conocimientos sobre el problema de la IA y sus aplicaciones prácticas. Finalmente, se me ocurrió una solución matemáticamente más rigurosa: ¿es realmente posible una IA fuerte?