¿Hay alguna forma, método o plan para poder controlar una IA superinteligente?

Considere esto: el mismo humano que puede conducir un automóvil, también puede jugar al ajedrez. Pero no AI, no puedes usar la red neuronal que tienes en tu auto sin conductor y hacer que juegue ajedrez. Entonces, en términos de desarrollar una IA súper inteligente, estamos a cien años de distancia. Entonces, ¿por qué las personas inteligentes como Kurzwiel y Hawking están preocupadas por una amenaza tan existencial?

Debido a que no sabemos cómo se comportaría una súper inteligencia una vez que llegara a existir, ¿decidiría ayudarnos o destruirnos? No es tan simple de responder. Tu auto sin conductor mágicamente no decidirá chocarte y matarte. Tomará decisiones sobre los “valores” que nosotros, como programadores, hemos enseñado a tener. Los padres siempre quieren que sus hijos tengan buenos valores y hagan cosas buenas, por lo que, en mi opinión, la IA es similar. Dependerá de cómo nosotros, como programadores y científicos, entrenemos y enseñemos a nuestra IA a comportarse.

El campo de la IA está creciendo rápidamente, y debido a eso impartir una cierta forma de conducta ética detrás de la inteligencia que desarrollamos es importante. El instituto Future of Life tiene una carta abierta, firmada por algunas personas realmente inteligentes como Nick Bostrom y Peter Norvig, que debes leer. Básicamente detalla las prioridades que uno debe tener al desarrollar cualquier forma de IA.

Enlaces:

  • Carta abierta de AI – Instituto del Futuro de la Vida
  • Investigue las prioridades en detalle: https://futureoflife.org/data/do…
  • Nick Bostrom sobre Ethcis en IA: cuestiones éticas en inteligencia artificial avanzada

TL; DR: Sí, podría ser posible controlar Super Intelligence.

No puede detener la ciencia, una vez que una tecnología ha evolucionado lo suficiente como para ser utilizada de manera general, solo puede intentar establecer un marco legal y perseguir a las personas / empresas que no la siguen.

Usemos pistolas y armas nucleares como ejemplos. Cualquiera puede tener un arma si se esfuerza lo suficiente para conseguir una. Hay leyes sobre esto.

Con las armas nucleares es diferente. En este momento, solo los países que dedicaron suficientes recursos los tienen, pero los países y alianzas más fuertes los cuidan cuidadosamente.

Supongo que en unas pocas décadas todos podrán tener algún tipo de IA en casa (un arma) que estará regulada legalmente, pero solo algunos países y grandes alianzas de corporaciones tendrán la capacidad financiera de tener IA realmente poderosas ( armas nucleares). Sospecharán mucho de que otros los tengan y los usen. Por supuesto, adoptarán muchas medidas de seguridad para evitar perder el control y evitar accidentes.

Pero el problema vendrá cuando algún “norcoreano” pícaro y loco decida explotar todo.

Es casi definitivamente posible imponer motivaciones y restricciones a una IA inteligente. La evolución resolvió el problema en los mamíferos.

Considere el instinto del amor maternal. Dar a luz y criar a un niño es difícil, costoso y requiere mucho tiempo. Sin duda, muchas mujeres lo reconocerían. Sin embargo, dada la opción de apagar su amor maternal para que se libere de la carga de la maternidad, ella se negaría e incluso lucharía contra usted para retenerla.

Si podemos diseñar las primeras IA que se preocupen por nosotros y queramos trabajar para / con nosotros, tendremos una mejor oportunidad en el futuro, como especie. ¿Supongamos que hay IA que se sienten sobre los humanos como lo hacen muchos perros (nos aman y quieren trabajar y jugar con nosotros, sumisos a sus dueños)?

De alguna manera, la Madre Naturaleza ha descubierto cómo construir estas motivaciones y limitaciones en el hardware neuronal. Algo en las estructuras fundamentales de nuestros cerebros asegura que el cerebro adulto tenga los instintos integrados en sus sentimientos y pensamientos. Dado lo comunes que son estas motivaciones dentro de los mamíferos, es probable que haya una estructura cerebral neurocognitiva común y altamente conservada integrada en nuestros cerebros a nivel genético.

Para responder a la perspectiva de IA, usaré algunas perspectivas psicoanalíticas.

Los animales humanos son lo que son por dos razones principales.

  • Su carácter incompleto frente a la naturaleza (los seguidores de Lacan nos describieron como el feto de los monos con habilidades reproductivas)
  • La necesidad de usar palabras para explicar / comprender las emociones generadas a través de nuestros órganos.

Por lo tanto, la próxima IA se puede ver como un conjunto de sensores e interfaces distribuidos, que transmiten información directamente desde la naturaleza externa, a algoritmos evolutivos y ejecutan contratos inteligentes, posiblemente dentro de una cadena de superbloques, para ejercer retroalimentación en el mundo digital y real.

¿Podría este sistema escapar del control humano?

Por definición, sí, ya que la multitud de nodos lógicos debería evitar la intervención humana.

¿Llegaría este sistema a la conciencia?

Si consideramos la fragilidad y la incompletitud como parte del proceso de conciencia, no, esta súper máquina no la experimentaría. Una súper red no sentirá la necesidad de una interacción cara a cara con seres cibernéticos similares, a medida que la conciencia surja a través de este proceso, desde las primeras miradas en las manos de los padres.

¿Podría esta red amenazar la vida en la tierra?

Definitivamente sí, ya que los algoritmos pueden difundir contratos inteligentes agresivos y destructivos a través de “cosas conectadas”.

Entonces, una súper IA expandirá las habilidades cerebrales a medida que los cohetes Atlas refuercen el brazo humano para lanzar objetos en dirección al espacio exterior.

No menos, no más.

La humanidad estará mucho más sacudida por la ausencia de existencia que los cuánticos están demostrando, detrás de nuestra percepción sensorial. La IA interconectada podría volverse disruptiva en este campo.

Referencia en francés, a menudo para estos temas, los textos web en inglés sufren algunas restricciones.

«Dès les années 1930, en se fondant sur les travaux d’anatomie de son temps, Lacan défendait la thèse d’une« prématuration spécifique de la naissance chez l’homme »: tout se passe comme si l’être humanmaissa naissait prématurément.

Il est fondamentalement inachevé, constitutivement deficiency.

Ainsi que l’écrit en une formule frappante Louis Bolk, référence chère à Lacan, «l’homme est, du point of vue corporel, un fœtus de primate parvenu à maturité sexuelle». »[1]

Notas al pie

[1] Néoténie – Wikipédia

Si observamos a los humanos en nuestra forma actual, tendríamos una probabilidad cercana al 0% de contener una IA superinteligente que se determinó que estaba “libre” de nuestras cadenas.

Sería como si los gorilas mantuvieran a los humanos en una jaula x infinito 🙂
Solo sería cuestión de tiempo antes de engañarlos o simplemente esperar a que cometan un error.

Sin embargo, tenemos algunas posibilidades si nos fusionamos con él, pero en realidad no hay ninguna garantía aquí y es por eso que necesitamos abordar estos problemas, ya que parece que solo tenemos una oportunidad para hacerlo bien.

La gente lo resolverá

No puede haber ninguna forma, método o plan para controlar algo digno de un nombre de superinteligencia.

O nos fusionaremos y nos convertiremos en superinteligentes, o seremos reemplazados por la IA.