¿Qué hace posible que la inteligencia artificial sea más inteligente que los humanos?

La cuestión es que nadie sabe en este momento si ese punto ocurriría o no, y cualquiera que diga lo contrario es como Peter en Peter and the Wolf. No digo que esta persona esté equivocada, como dije que nadie lo sabe, pero su afirmación se basa en suposiciones sobre cómo será el futuro, que a menudo son imprecisas e inexactas en el mejor de los casos.

Ahora, la suposición suele ser así: hoy en día somos capaces de hacer sistemas simples, si se basan en una red neuronal artificial, aprendizaje automático estadístico, inferencia simbólica, …, que presentan capacidades cada vez más complejas: puede “reconocer” a los gatos en YouTube (Wired UK) sin haber sido entrenado específicamente para ello (es curioso que reconozca al animal que siempre se bromea como la estrella de una gran parte del video de YT …), puede ganar contra el mejor jugador de ajedrez (Kasparov vs Deep Blue ) o jugadores de Jeopardy (IBM Watson: la historia interna de cómo nació la supercomputadora ganadora de Jeopardy y qué quiere hacer a continuación), y cada año se producen nuevos logros (la IA de Google ahora es lo suficientemente inteligente como para jugar a Atari Like the Pros | WIRED y estoy seguro de que la gente puede señalar a muchos otros). Esto significa que las personas desarrollan algoritmos y arquitectura para IA que son mejores y mejores en lo que hacen, más sobre eso más adelante …

La segunda pieza que entra en juego son las capacidades informáticas cada vez mayores de las computadoras físicas. Puedes llamarlo la ley de Moore, cambio acelerado, singularidad tecnológica o lo que sea. La base de la idea es que estas cosas tienden a evolucionar siguiendo una tendencia exponencial y solo proyectan esta tendencia esperada y la llaman “la verdad”.

Por lo tanto, si los algoritmos se vuelven más inteligentes y podemos calcular cada vez más rápido, llegaremos a un punto en el que la IA será tan eficiente y se ejecutará en un hardware tan rápido que no solo alcanzará la “inteligencia a nivel humano” sino que la superará (y continuará avanzando) más allá de este punto). Entonces tenemos algo mucho más inteligente que nosotros y, por lo tanto, todo puede ir muy mal desde allí: si se parece a nosotros, probablemente intentará destruirnos tan pronto como nos considere una amenaza / recurso. Alguien podría usar este nuevo genio increíble para malas acciones … y la lista sigue y sigue para todas las cosas terribles que podrían suceder o, por el contrario, cómo sería una segunda venida y la capacidad para que seamos transhumanos (o cualquier cosa gloriosa) )

El problema es que hay muchas fallas en cualquier forma de razonar al respecto. De hecho, leí hoy una ocurrencia muy rara de un artículo que trata de mantener las cosas bien equilibradas (página en techcrunch.com) y, especialmente proveniente de un sitio web de la industria tecnológica, considero que está sorprendentemente bien presentado y equilibrado y hace un buen trabajo en haciendo la distinción entre resultados potenciales y hechos. El hecho es que todavía estamos lejos de aquí: cada ejemplo que di de IA está utilizando enfoques muy diferentes entre sí y todos tienen algunas ventajas y defectos importantes. Por supuesto, esos no se detallan en un artículo de 5000 palabras que debe leerse a menudo para obtener ganancias. El crecimiento exponencial sigue siendo una teoría, funcionó hasta ahora. Eso no significa que funcionará siempre; aún más, muchas presentaciones de él tratando de transponer el crecimiento de la potencia de la computadora a un elemento precedente de la historia son muy debatibles (vea esta charla Peter Norvig en Singularity Summit 2007 donde discute algunos de estos aspectos, específicamente después de la marca 11:45 pero Todo lo que se habla es bueno para obtener un punto de vista más científico sobre el problema general y cómo incluso la forma en que usted mira los datos puede ayudarlo a interpretar como quiera).

Una vez más, no digo que eso no pueda suceder ni que debamos ser cautelosos sobre cómo evolucionan, pero lo mismo ocurre con cualquier otra investigación y tecnologías potenciales. La historia pasada puede ser un buen indicador de la tendencia futura, pero no predice el futuro, solo un resultado probable suponiendo que sus suposiciones sean correctas. Pero en ciencia, todas las teorías son probables hasta que se falsifiquen. Esta es la base de la ciencia y hacer algo diferente es tan válido como cuando leo mi horóscopo diario.

Los humanos han creado muchas máquinas que superan ampliamente las capacidades humanas: los aviones, los automóviles e incluso las calculadoras de bolsillo son mejores que los humanos en ciertas tareas. ¿Por qué los humanos no pueden construir una máquina de pensamiento que pueda superar a un humano? Todavía estamos muy, muy lejos de que eso sea una realidad, pero no hay una razón particular para creer que sea imposible.

Un AGI tendría una memoria perfecta y vasta. Dado que tendría un proceso de pensamiento comparable o superior, las cualidades antes mencionadas lo harían más inteligente que un humano.

Bueno, podríamos preguntarnos “¿qué hace que un humano sea más inteligente que otro?” La misma consulta de funcionalidad puede aplicarse a las IA. Hay un espectro de IA, y algunos son buenos para especializar tareas estrechas, y otros pueden ser más amplios. El legendario súper AGI tendría que tener una gran cesta de capacidades mejoradas para ser más inteligente que un buen ser humano. Pero no estamos ni cerca de saber cuáles son los verdaderos mecanismos en los humanos, y estamos bastante atrasados ​​al tratar de hacer versiones artificiales y sintetizadas para IA.