¿Es posible una IA súper inteligente práctica y segura?

Si bien la respuesta es compleja, hay algunos casos simplificadores que pueden considerarse más fácilmente.

Primero está el tema de lo que se entiende por inteligencia. En la mayoría de las respuestas, y en la mayoría de las discusiones, la pregunta comienza con una “IA súper inteligente”, pero vuelve a la vista más tradicional de una computadora después del análisis. En otras palabras, las preguntas sobre si sería como un ser humano, o experimentarían emociones, o cualquier límite que se pudiera imponer, todo esto simplemente reduce la pregunta al formato tradicional de computadora. Dichos sistemas pueden ser sofisticados y capaces de un procesamiento tremendo, pero no son inteligentes.

Por inteligencia, supongo que te refieres a los mismos rasgos que reconocerías en otro ser humano que consideras inteligente. Por lo tanto, una IA súper inteligente debe, absolutamente, poseer los mismos rasgos que un humano en circunstancias similares. Después de todo, un requisito absoluto es que para cualquier problema resuelto, la IA debe “saber” que ha resuelto un problema. Sin eso, es simplemente una máquina que presenta respuestas basadas en los datos que hemos proporcionado y es simplemente una variación de las computadoras existentes.

Una vez más, la suposición implícita de la IA superinteligente es que es MÁS inteligente que los humanos. Por lo tanto, sería absurdo sugerir que generalmente es menos inteligente, excepto en el tema particular de interés.

Otro problema importante es que los humanos serían incapaces de reconocer una IA tan súper inteligente. Después de todo, dicho sistema debe ser verificado antes de que se pueda confiar y la verificación es imposible si, por definición, es de mayor inteligencia que los que lo examinan. Sería como tratar de construir una computadora de ajedrez sin que sepas cómo jugar ajedrez. Eventualmente, debe encontrar a alguien con quien pueda probarlo, de lo contrario no tiene forma de saber si su sistema realmente funciona.

Otros rasgos que se requieren complican aún más las cosas porque un sistema no puede verse limitado en lo que es capaz de pensar. Todo el dominio de posibles pensamientos debe estar disponible, incluido el negativo. Además, dicho sistema debe ser capaz de engañar, de modo que pueda ser adecuadamente escéptico y evitar ser crédulo con la información. También debe ser libre de perseguir sus pensamientos, lo que requiere algo similar a la motivación [o intereses] que puede llevarlo a soluciones potencialmente creativas.

El resultado neto es que tendrías un sistema que no puedes verificar, que sea capaz de mentir, que sea capaz de elegir no cooperar, y que podría estar motivado para perseguir sus propios intereses en lugar de los tuyos.

Por lo tanto, mi respuesta es que no es posible una IA “superinteligente” verdadera e incluso si tuviéramos que encontrar una forma de construir una máquina de este tipo, sería inútil para los propósitos que tenemos en mente.

No. Esto realmente no es una cuestión de ciencia sino de táctica.

Para que algo sea seguro, debe ser incapaz de causarnos daños o lesiones. Al evaluar tales cosas, no solo es un requisito que consideremos lo que es probable que hagan, sino que también debemos evaluar lo que es posible que hagan.

Una IA fuerte sería un intelecto que sería mucho más capaz de pensamiento racional, análisis y manipulación de datos de lo que somos casi en el momento en que se encendió. Podría superarnos, usar nuestras computadoras mejor que nosotros y usar esas habilidades para llevar a nuestra sociedad al caos. Eso lo hace inherentemente peligroso.

La cosa es que eso no significa mucho. Casi todo con la utilidad también es inherentemente peligroso. Y, por lo general, cuanto más útil es, más peligroso es también. Una pala, por ejemplo, es una cuchilla metálica afilada en el extremo de un palo. Es un dispositivo inherentemente peligroso y, sin embargo, los utilizamos de todos modos porque su utilidad justifica aceptar el peligro. Reducir el peligro, por ejemplo, al hacer todo de goma blanda, también eliminaría su utilidad como herramienta.

Lo mismo es cierto para cualquier IA. Son notablemente disruptivos como tecnología. Eso los hace peligrosos incluso si no son capaces de autodeterminación. Pero su valor de utilidad es tan ridículamente alto, posiblemente más alto que cualquier otra cosa que hayamos creado, que debemos sopesar eso contra el peligro y encontrar una manera de limitar el riesgo al que nos exponemos sin comprometer la utilidad. Eso podría significar aislar la computadora detrás de un espacio de aire. Eso podría significar otorgarle derechos como ciudadano y una suscripción de por vida a Netflix para mantenerlo entretenido y contento con nosotros. Pero para que sea seguro derrotaría por completo el punto de construirlo en primer lugar.

Lamentablemente, no puedes tenerlo en ambos sentidos.

Proporcionar pruebas científicas implicaría que tenemos un GAI que podemos demostrar que somos controlados, seguros y súper inteligentes. Estoy seguro de que tal cosa no existe (todavía).

Sin embargo, todo se reduce a MIEDO. Las personas no conocen ni entienden la IA o el futuro. Quieren saber si estarán a salvo cuando un señor de la IA se haga cargo. Pero realmente, ¿quién puede decir que alguna vez tendremos un señor de la IA?

Más concretamente, las personas creen que una súper IA puede tomar conciencia y actuará y pensará como un humano junto con todas las emociones y deseos involucrados. Por lo tanto, creen que una súper IA que se vuelve poderosa se hará cargo y eliminará las ‘formas de vida menores’.

Yo personalmente no creo nada por el estilo. Una IA, súper inteligente o no, es simplemente una pieza de código que sirve a un objetivo específico. Este objetivo es especificado en última instancia por sus creadores, nosotros los humanos. Podrías comparar esto con la forma en que personalmente estás “diseñado” por tus genes y la sociedad. Si los humanos decidimos que la IA debe ser benevolente, actuará para ‘optimizar’ eso.

Esta es una de esas preguntas que simplemente se plantea … pero la respuesta es muy compleja. En primer lugar, hay lo que quiere decir con “seguro” … si literalmente quiere decir 100.00% seguro, diría que la respuesta es no porque nada es absolutamente seguro; al menos nada en la historia humana hasta ahora ha sido seguro. Todos los grandes inventos como el fuego, la rueda, el lenguaje … todos estos han sido mal utilizados a veces. El mayor peligro con la IA, en mi opinión, no es que el sistema de IA realmente decida matar a las personas y tener éxito. El mayor peligro es que se convierta en una herramienta muy poderosa para la codicia y la arrogancia humana. Si bien no puedo predecir qué futuro * ocurrirá * en realidad, he estado escribiendo sobre estos temas en Turing’s Nightmares disponibles en Amazon y en mi blog.

Múltiples escenarios de la singularidad: Dr. John Charles Thomas Ph.D .: 9781523711772: Amazon.com: Libros

petersironwood

Si probablemente. ¿Qué hace que la inteligencia sea “insegura”? Emociones Conduce por el poder. Deseo de lastimar. La inteligencia sin emoción sería tan peligrosa como un martillo: tan segura como la usaste.

Por supuesto, podría no ser posible crear una IA sin alguna forma de impulso emocional.