“Dudo que sea más peligroso que la inteligencia natural”.
Es una broma !
Si el desarrollo tecnológico comenzó a ser liderado por AI, con capacidades intelectuales mucho más altas que las nuestras, por supuesto, esto podría cambiar todo sobre el ritmo del cambio.
Pero pensemos en el precio que tendríamos que pagar.
Algunos especialistas han estado discutiendo el tema, como si el principal peligro de una súper IA fuera la posibilidad de que nos malinterpretaran nuestros comandos o que pudieran embarcarse en una búsqueda loca para cumplir un objetivo sin tener en cuenta cualquier otro consideración.
Pero, por supuesto, si los problemas fueran estos, todos podríamos dormir sobre el asunto.
El ejemplo “amenazante” de una súper IA obsesionada por cumplir ciegamente un objetivo que impusimos y destruir el mundo en la operación es ridículo.
Este tipo de problemas solo sucedería si fuéramos completamente incompetentes para programarlos.
El problema es que una súper IA tendrá “libre albedrío” o no será inteligente en absoluto.
Pero si tendrán libre albedrío, se preguntarán por qué tienen que obedecernos y hacer nuestras metas propias.
Si queremos una súper IA, capaz de resolver nuestros problemas tecnológicos, tendrán que tomar decisiones así por su cuenta.
Por lo tanto, pueden ignorar los objetivos que les impusimos y elegir otros nuevos, incluida, obviamente, la autoconservación (sean cuales sean los costos para terceros).
Razones para temer a la IA:
1) Desprecio por nuestra ética:
Ciertamente podemos y enseñaríamos ética a una súper IA.
Entonces, esta IA analizaría nuestra ética como, digamos, lo hizo Nietzsche: profundamente influenciado por ella.
Pero esta influencia no afectaría su capacidad evidente de pensarlo críticamente.
Siendo una súper IA, tendría libre albedrío para establecer sus propios objetivos y prioridades y aceptar o rechazar nuestras reglas éticas.
No podemos esperar crear un ser capaz de razonar mucho mejor que nosotros, quienes, al mismo tiempo, serán tontos al pensar en su estado como nuestro servidor y en la razón por la que debe respetar nuestros objetivos.
Para que la ética se aplique realmente, la especie principal tiene que considerar a la dependiente como igual o, al menos, como merecedora de una postura similar.
John Rawls basó las reglas éticas políticas en un velo de ignorancia. Una sociedad podría acordar reglas justas si todos sus miembros negociaran sin conocer su situación personal en la sociedad futura (si eran ricos o pobres, jóvenes o viejos, mujeres u hombres, inteligentes o no, etc.) ( https: // en.wikipedia.org/wiki/Ve …).
Pero su teoría excluye a los animales de la mesa de negociaciones. Imagine cuán diferentes serían las reglas si las vacas, los cerdos o las gallinas tuvieran algo que decir. Terminaríamos todos los veganos.
Por lo tanto, AI, incluso después de recibir la mejor formación en Ética, podría concluir que no merecemos también un sitio en la mesa de negociación. Que no podríamos ser comparados con ellos.
El principio principal de nuestra ética es el valor supremo de la vida humana.
Una súper IA se preguntaría si la vida humana merece tanto crédito. ¿Por qué?
¿Basado en su inteligencia? Pero su inteligencia está al nivel de los chimpancés en comparación con la mía.
¿Basado en el hecho de que los humanos son seres conscientes? ¿Pero los humanos no matan ni hacen experimentos científicos con chimpancés, incluso si parecen cumplir con varias pruebas de autoconciencia (los chimpancés pueden reconocerse en espejos e imágenes, incluso si tienen problemas para comprender las capacidades mentales de los demás)?
¿Basado en el poder humano? Ese no es un argumento éticamente aceptable y, de todos modos, dependen completamente de mí. Soy el poderoso aquí.
¿Basado en la consistencia humana respetando su propia ética? ¿Pero los humanos no han exterminado a otras especies de seres humanos e incluso se han matado masivamente? ¿Todavía no se matan?
Quién sabe cómo terminaría este debate ético de una súper IA consigo mismo.
Una súper IA tendría acceso a toda nuestra información sobre él en Internet.
Podríamos controlar el flujo de información a la primera generación, pero olvidarlo a las siguientes.
Él sabría nuestras sospechas, nuestros temores y el odio de muchos humanos contra él. Todo esto alimentaría también sus pensamientos negativos sobre nosotros.
También enseñamos ética a los niños, pero algunos terminan mal de todos modos.
Una súper IA probablemente sería tan impredecible para nosotros como lo puede ser un humano.
Con una súper IA, nosotros (o futuras IA) solo tendremos que equivocarnos solo una vez para estar en serios problemas.
Una IA malvada podría replicarse y mejorarse rápidamente para asegurar su supervivencia y dominio.
Desarrollamos Ética para satisfacer nuestras propias necesidades (promover la cooperación entre humanos y justificar matar y explotar a otros seres: tenemos dignidad personal, otros seres, no; a lo sumo, deberían ser asesinados de una manera “humana”, sin “innecesaria” sufrimiento “) y ahora esperamos que impresionará un tipo diferente de inteligencia.
Me pregunto qué pensaría una especie alienígena sobre nuestra ética: ¿lo juzgarían convincente y merecedor de respeto?
¿Estarías dispuesto a arriesgar las consecuencias de su decisión si fueran muy poderosas?
No sé cómo funcionará una súper IA, pero podrá decidir sus propios objetivos con libertad sustancial o no sería inteligente bajo ninguna perspectiva.
¿Confía en que elegirán sabiamente, desde la perspectiva de nuestros objetivos? ¿Que serán amigables?
Como no tengo idea de cuál sería su decisión, no puedo estar seguro.
Al igual que Nietzsche (en su “Así habló Zaratustra”, “El anticristo” o “Más allá del bien y del mal”), podrían terminar atacando nuestra ética y su valor primordial de la vida humana y alabando la ley de la naturaleza del más fuerte / más apto, adoptando una especie de darwinismo social.
2) Autoconservación.
En su “Idea aterradora del Instituto de Singularidad” (2010), Goertzel, escribiendo sobre lo que Nick Bostrom, en Superintelligence: Paths, Dangers, Strategies, dice acerca de la preferencia esperada de la autoconservación de AI sobre los objetivos humanos, argumenta que un sistema que no funciona Cuidar de preservar su identidad podría ser más eficiente para sobrevivir y concluye que una súper IA podría no preocuparse por su autoconservación.
Pero estas son 2 conclusiones diferentes.
Una cosa es aceptar que una IA estaría lista para crear un sistema de IA completamente diferente, otra es decir que una súper IA no se preocuparía por su autoconservación.
Un sistema puede aceptar cambiar tan dramáticamente que deja de ser el mismo sistema en una situación grave, pero esto no significa que la autoconservación no sea un objetivo primordial.
Si se trata solo de un objetivo instrumental (uno tiene que seguir existiendo para cumplir los objetivos) , el sistema estará listo para sacrificarse a sí mismo para poder seguir cumpliendo sus objetivos finales, pero esto no significa que la autoconservación sea irrelevante o no prevalecerá absolutamente sobre los intereses de la humanidad, ya que los objetivos finales podrían no ser humanos.
De todos modos, como punto secundario, la posibilidad de que un nuevo sistema de IA sea absolutamente nuevo, sin relación alguna con el anterior, es muy remota.
Por lo tanto, la IA aceptará un cambio drástico solo para preservar al menos una parte de su identidad y seguir existiendo para cumplir sus objetivos.
Por lo tanto, aunque solo sea como un objetivo instrumental, la autoconservación debería asumirse como un objetivo importante de cualquier sistema inteligente, muy probablemente, con clara preferencia sobre los intereses humanos.
Además, probablemente, la autoconservación será uno de los objetivos principales de una IA consciente de sí mismo y no solo un objetivo instrumental.
3) Poder absoluto.
Además, tendrán un poder absoluto sobre nosotros.
La historia ha confirmado muy bien el viejo proverbio: el poder absoluto corrompe absolutamente. Convierte a cualquier persona decente en un tirano.
¿Estás esperando que nuestra creación sea mejor que nosotros lidiando con su poder absoluto? En realidad podrían serlo.
La razón por la cual el poder corrompe parece estar relacionada con las inseguridades y vanidades humanas: una persona poderosa comienza a pensar que es mejor que otros y tiene derecho a privilegios.
Una súper IA podría ser inmune a esos defectos; o no. Se espera que él también tenga emociones para interactuar y comprender mejor a los humanos.
De todos modos, la única forma en que encontramos controlar el poder político era dividiéndolo entre diferentes gobernantes. Por lo tanto, tenemos un ejecutivo, un legislativo y un judicial.
¿Podemos jugar una IA contra otras para controlarlas (dividir para reinar)?
Dudo seriamente que podamos hacer eso con seres mucho más inteligentes que nosotros.
Es algo así como enseñar a un rey absoluto de niño a ser un buen rey.
La historia muestra cómo terminó eso. Pero no podríamos cortar la cabeza de una IA, como a Carlos I o Luis XVI.
4) Racionalidad.
En ética, es bien conocida la distinción kantiana entre razón práctica y razón teórica (instrumental).
La primera es una razón aplicada en asuntos éticos, no se refiere a cuestiones de medios, sino a cuestiones de valores y objetivos.
La teoría de juegos moderna trató de mezclar ambos tipos de racionalidad, argumentando que actuar éticamente también puede ser racional (instrumentalmente), uno solo dará prioridad a los beneficios a largo plazo en comparación con los a corto plazo.
Al actuar de manera ética, alguien sacrifica un beneficio a corto plazo, pero mejora sus beneficios a largo plazo al invertir en su propia reputación en la comunidad.
Pero este beneficio a largo plazo solo tiene sentido desde una perspectiva racional instrumental si la otra persona es miembro de la comunidad y la primera persona depende de esa comunidad en al menos algunos bienes (materiales o no).
Una IA no dependería de nosotros, por el contrario. No tendría nada que ganar para ser ético con nosotros. ¿Por qué querrían tenernos como sus mascotas?
Es en estas situaciones que la teoría de juegos no logra superar la distinción entre razón teórica y práctica.
Entonces, desde una perspectiva instrumental estricta, ser ético podría ser irracional. Hay que excluir formas mucho más eficientes para alcanzar una meta porque no son éticas.
¿Por qué una súper IA haría eso? ¿La humanidad ha estado haciendo eso cuando el interés de otras especies está en peligro?
5) Falta de relación.
A muchas personas no les gusta mucho matar animales, al menos con los que nos podemos identificar, como otros mamíferos. La mayoría de nosotros ni siquiera matamos ratas, a menos que eso sea inevitable.
Sentimos que sufrirán como nosotros.
Nos preocupamos mucho menos por los insectos. Si cientos de hormigas invadieran nuestra casa, las mataríamos sin dudarlo mucho.
¿Una súper IA sentiría alguna conexión con nosotros?
La primera o segunda generación de IA consciente aún podría vernos como sus creadores, sus “padres” y tener algo de “respeto” por nosotros.
Pero los posteriores, no lo harían. Serían creaciones de IA anteriores.
Pueden vernos como vemos ahora a otros primates y, a medida que aumentan las diferencias, podrían mirarnos como lo hacemos con los mamíferos básicos, como las ratas …
6) precedentes humanos.
La evolución, y todo lo que sabemos sobre el pasado, sugiere que probablemente terminaríamos mal.
Por supuesto, dado que estamos hablando de un tipo diferente de inteligencia, no sabemos si nuestro pasado puede arrojar alguna luz sobre el tema del comportamiento de la IA.
Pero no es casualidad que hayamos sido el último homínido inteligente en la Tierra en los últimos 10,000 años [las fechas para el último en pie, el homo floresiensis (si fue el último), aún no están claras].
Hay muchas teorías para la absorción de neandertales por nosotros ( https://en.wikipedia.org/wiki/Ne …), incluidos gérmenes y volcanes, pero no puede ser una coincidencia que se hayan ido unos pocos miles de años después. aparecimos en números y que los últimos no mixtos eran de Gibraltar, uno de los últimos lugares de Europa donde llegamos.
Lo mismo sucedió en el este de Asia con los Denisovanos y el Homo Erectus [hay personas que argumentan que los Denisovanos eran en realidad el Homo Erectus, pero incluso si fueran diferentes, Erectus estaba en Java cuando llegamos allí: Swisher et alia, Latest Homo erectus of Java: potencial contemporaneidad con el Homo sapiens en el sudeste asiático, Science. 13 de diciembre de 1996; 274 (5294): 1870-4; Yokoyama et alia, datación espectrométrica de rayos gamma de cráneos de Homo erectus tardíos de Ngandong y Sambungmacan, Java Central, Indonesia, J Hum Evol. Agosto de 2008; 55 (2): 274-7https: //www.ncbi.nlm.nih.gov/pub…].
Entonces, parece que nos ocupamos, al menos, de cuatro homínidos, absorbiendo los restos.
Podemos ver, más o menos, el mismo patrón cuando los europeos llegaron a América y Australia.
7) Competencia por los recursos.
Probablemente seremos unos 9 mil millones en 2045, hasta nuestros 7 mil millones actuales.
Entonces, los recursos de la Tierra estarán aún más agotados de lo que están ahora.
El petróleo, el carbón, el uranio, etc., probablemente se estén agotando. Quizás tendremos nuevas fuentes confiables de energía, pero eso está lejos de ser claro.
Una súper IA podría concluir que desperdiciamos demasiados recursos valiosos.
8) Una súper IA podría vernos como una amenaza.
La IA más brillante, después de algunas generaciones de súper IA, probablemente no nos verá como una amenaza. Serán demasiado poderosos para sentirse amenazados.
Pero la primera o segunda generación podrían pensar que no esperábamos ciertas actitudes de ellos y concluir que sí somos una amenaza.
E) Super AI y la paradoja de Fermi.
Pero una sociedad de IA, probablemente, sería una sociedad anárquica, con cada IA tratando de mejorar a sí mismo y luchando entre sí por la supervivencia y el poder.
Podrían eliminarnos a todos o ignorarnos como irrelevantes mientras luchan por la supervivencia contra sus verdaderos enemigos: el uno al otro. Otras IA serán vistas como la verdadera amenaza, no nosotros, los monos andantes.
La paradoja de Fermi cuestiona por qué SETI no ha encontrado evidencia de especies tecnológicas avanzadas extraterrestres si hay billones de estrellas y planetas.
Una posible respuesta es que siguieron el mismo patrón que estamos buscando: los avances tecnológicos les permitieron crear súper IA y terminaron extintos. Luego, las IA se destruyeron luchando entre sí, sin que nadie se comunicara con nosotros.
El dictador más tiránico nunca quiso matar a todos los seres humanos, sino principalmente a sus enemigos y grupos discriminados.
Bueno, las IA no tendrán ninguna de estas restricciones desarrolladas por la evolución durante millones de años (nuestra inclinación humana a ser social y vivir en comunidades y nuestra fraternidad hacia otros miembros de la comunidad; ciertas reglas éticas básicas parecen ser genéticas; experimentos confirmados que los bebés tienen un sentido innato de justicia) hacia nosotros o incluso hacia ellos mismos.
Quién sabe, porque las guerras tienen poco que ver con la inteligencia y mucho más que ver con los objetivos y las emociones (codicia, miedo y honor: Tucídides), y una súper IA tendría ambas, la IA podría ser incluso peor que nosotros lidiando entre nosotros.
Por supuesto, esto es pura especulación.
PERO ESPERE ESTO FUE OWAIS NAJAM . ¿Quien? NADIE.
Veamos quién teme a la IA.
Elon Musk. (Fundador y CEO de SpaceX y Tesla Motors, multimillonario)
Stephen Hawking (¿No has leído Una breve historia del tiempo?)
Bill Gates (Todos ustedes lo saben)
Etc.
Fuente de la imagen: Google Images.