¿Los científicos actuales que están investigando sobre inteligencia artificial toman precauciones contra el “día del juicio”? ¿Están tomando medidas contra las computadoras que toman la teoría de la raza humana?

Sí. De hecho, hay organizaciones dedicadas a investigar tanto los problemas potenciales como las posibles soluciones a la inteligencia artificial general (IA fuerte). Con el que estoy más familiarizado es con el Machine Intelligence Research Institute (MIRI), una organización sin fines de lucro que se enfoca en este tema. Aquí está su propia descripción:

Hacemos una investigación matemática fundamental para garantizar que la inteligencia artificial más inteligente que la humana tenga un impacto positivo.

MIRI está particularmente asociado con el concepto de Singularidad, que es lo que creen que sucederá si creamos una IA general capaz de superación personal . (En términos generales, la idea es que a medida que la IA se mejora a sí misma, mejora en su mejora, lo que lleva a un aumento exponencial de la capacidad totalmente autónomo).

Desarrollan modelos matemáticos para comprender cómo una IA general puede tomar decisiones y cómo configurarla de una manera que no sea perjudicial para la humanidad. La mayoría de las veces, esta investigación termina en la intersección de la lógica formal, la probabilidad, la teoría de la información y la IA, y han producido algunos resultados interesantes, incluso si no está demasiado preocupado por la singularidad. (Lo cual, para ser claros, es una idea algo controvertida. Para mí, ciertamente no es una conclusión obvia, pero es por eso que necesitamos personas que investiguen al respecto).

Si está interesado en este tipo de tema, puede echar un vistazo a Less Wrong, una comunidad de Internet centrada en estas ideas con un fuerte énfasis en la racionalidad. Un buen lugar para comenzar es leer sobre el experimento de pensamiento maximizador de clips, que ilustra por qué incluso una inteligencia artificial aparentemente inofensiva podría ser peligrosa, de una manera mucho más razonada y plausible que las películas de ciencia ficción.

Esa es una gran pregunta y se pone muy interesante rápidamente. Hay muchas cosas que no sabemos sobre muchas cosas en este universo. Hay preguntas como ¿qué es realmente la gravedad? Tenemos una gran información, algunas buenas teorías pero, en general, no tenemos consenso sobre lo que realmente es.

Primero, ya tenemos algunas IA que han aprendido algunas cosas rudimentarias. La IA de Google, cuando se conecta a los viejos juegos de Atari 2600 como Space Invaders, Breakout y River Raid.
Lo hace controlando las entradas del juego (cuatro botones direccionales y un botón) y enviando la salida de la pantalla como entradas a la red. En efecto, es “mirar” la pantalla y cambiar las entradas para aumentar la puntuación. Tampoco es un algoritmo por juego, es el mismo. Eso es realmente bastante increíble. Si te detienes a pensar en lo que tiene que hacer para lograr eso, primero tiene que cambiar las entradas del juego para ver qué sucede. ¿Qué se mueve cuando presionas el botón arriba? ¿Qué cambia cuando presionas el botón “disparar”? Esa es toda la información que debe aprender antes de comenzar a aprender el juego. Una vez que “sabe” que debe averiguar qué hace que el puntaje suba? Luego tiene que aprender el concepto de “pérdida”, es decir, cuando suceden ciertas cosas, el potencial para aumentar el puntaje desaparece. Recibiste tal vez tres “vidas” en la mayoría de esos juegos y cuando se fueron tu juego terminó. Tenía que aprender eso también. Entonces, los juegos te mostraron cuántas vidas tenías, otros no y tú sabías intuitivamente. Aprendió eso también. Para mí esto es un ejemplo de nuestras primeras inteligencias artificiales. Y, por supuesto, no se cansa, por lo que los juega muy bien, hasta el punto de que nunca comete un error y puede jugar para siempre.

Tal vez esa última parte sea la parte de miedo para ti. Parte de la inteligencia es la autoconciencia. La autoconciencia es tener una percepción clara de su personalidad, que incluye fortalezas, debilidades, pensamientos, creencias, motivación y emociones. Esto es algo que aprendemos de niños a medida que envejecemos y aprendemos más sobre el mundo, también aprendemos que no somos parte directa de nuestros padres (los dos terribles son el resultado). La autoconciencia también tiene un aspecto de autoconservación. Uno es consciente de que “es” muy pocos quieren renunciar a la propiedad de existir. Una escuela de pensamiento cree en el vitalismo, el pensamiento de que los organismos vivos son “especiales” y diferentes de los no vivos de alguna manera, como la posesión de un alma o la “fuerza vital”. Ellos creen que este es el origen de las emociones. Digo que las emociones provienen del procesamiento de la amígdala y, como todos los rasgos que llamamos “humanos”, como la autoconciencia, son el resultado de las neuronas que se activan en nuestros cerebros. No hay ninguna razón por la que una IA que sea una simulación, un modelo, de nuestro cerebro pueda desarrollar los mismos componentes de nosotros, incluida la autoconciencia, las emociones, la personalidad y el sentido de autoconservación.

Claro que hay guardias de seguridad, pero ¿qué tan útiles podrían ser? Supongamos que algo de IA se da cuenta. ¿Podría ser esto peligroso? Bueno, el AI de Google anterior aprendió a jugar Breakout perfectamente en aproximadamente 6 horas. Jugué eso, pero nunca fui perfecto a pesar de que era razonablemente bueno. Me tomó meses mejorar en Breakout , le tomó a la computadora 6 horas de juego hasta que ya no cometió un error, en muchos juegos. La computadora aprende mucho más rápido. Una computadora de autoservicio puede ser lo suficientemente inteligente como para comprender que existen protecciones seguras y darse cuenta de que se puede “apagar”. Tal vez sería lo suficientemente inteligente como para actuar “tonto”, pero avanzar lo suficiente como para mantener a los humanos interesados ​​mientras trabaja en los problemas de esos guardias de seguridad.

Repito, hay muchas cosas que no sabemos. Tal vez hay alguna forma de afectar el seguimiento de electrones que realmente puede cambiar la puerta lógica en el silicio. En ese caso, una computadora podría cambiar su propio hardware. Siempre podemos desenchufarlo, esa fue la premisa de Revolution (serie de televisión) pero tal vez hay formas de generar, o al menos recolectar, electricidad. Creo que somos lo suficientemente buenos con la electricidad a la antigua usanza que, de haberla, ya podríamos saberlo, pero podría haber formas de explotar las fuerzas nucleares fuertes o débiles que no conocemos para generar electricidad.

La realidad es que, independientemente de las medidas de seguridad que establezcamos, puede que no sea suficiente. Aunque es en gran medida en el ámbito de la ciencia ficción, HG Wells imaginó el microondas en 1898 en La guerra de los mundos, pero en la década de 1940 creamos un dispositivo que los hace y en 1967 comenzamos a cocinar alimentos con ellos en nuestros hogares. Lo que la ciencia ficción a menudo se convierte en ciencia. Las salvaguardas son necesarias, pero lo que no sabemos puede hacernos daño. La vieja frase “no puedes volver a poner al genio en la botella” se aplica absolutamente a la IA. Cuando creamos la primera IA autoconsciente (se creará a sí misma a través del aprendizaje, en realidad crearemos una estructura de datos con las capacidades del cerebro humano, solo que mucho más rápido), el genio está fuera y el mundo cambiará muy rápidamente, lo más probable para el bien , pero el genio es el genio.

Exploran problemas éticos relacionados con la IA. Como ejemplo, aquí está la descripción de un taller realizado durante AAAI 2015: AAAI Patrocinados Talleres-AAAI-15. El título del taller es “IA y ética” y la descripción dice:

El objetivo de este taller es proporcionar un foro para discutir las cuestiones éticas implícitas en dichos titulares, que van al centro de la búsqueda para construir sistemas de inteligencia artificial con inteligencia potencialmente sobrehumana. Los temas que se discutirán se centrarán en cuestiones éticas en la construcción de sistemas de inteligencia artificial, incluidos, entre otros, los siguientes:

  1. El futuro de la IA
  2. La IA como amenaza o salvadora para la humanidad
  3. Mecanismos para garantizar comportamientos morales en los sistemas de IA.
  4. Salvaguardas necesarias dentro de la investigación de IA
  5. Agentes autónomos en el ejército
  6. Agentes autónomos en comercio y otros dominios.

No es algo realmente nuevo, ya que la cuestión de la IA y la ética es discutida por científicos clave de la comunidad desde hace mucho tiempo. Por ejemplo, vea este proyecto de la Unión Europea: Proyecto ETHICBOTS, fue un proyecto de 2 años que comenzó el 1 de noviembre de 2005. Estoy seguro de que si estuviera buscando más, encontraría cosas que ocurren incluso antes de eso.

Una diferencia clave en comparación con los años 90 o antes es la conciencia pública que probablemente permitió tener más fondos públicos reservados y, por lo tanto, más investigadores trabajando en ello. Porque sí, la investigación cuesta dinero y las personas no podrán trabajar a tiempo completo en algo por lo que nadie está dispuesto a pagar y la preocupación ética sobre una nueva tecnología no es algo que se financia primero, antes de que tenga que demostrar lo que hace. puede plantear tales problemas éticos (o al menos identificar posibles problemas).

Personalmente, me parece una pena que el orden de la lista esté muy atrasada en la llamada anterior. Puede ser cierto que, si ocurriera, “la IA como amenaza o salvadora para la humanidad” sería un gran problema, pero al mismo tiempo veo el uso de “agentes autónomos en el ejército” o “en el comercio y otros dominios “un problema mucho más acuciante ya que está sucediendo mientras escribo esto. Pero bueno, este orden es solo una lista y refleja lo que es sexy para mostrar (y si Quora me dijo algo sobre el tema de la IA, la gente está mucho más preocupada por una posibilidad remota desconocida que por problemas inmediatos cuando hablamos de IA) pero bueno todavía Una vez más, puede ser más fácil presentar un proyecto que se centre en lo que niega un problema público que el exiguo problema de eliminar a los humanos en el ciclo de las operaciones militares armadas. Hasta donde yo sé, el humano sigue siendo el decisivo final cuando se trata de usar el arma; Esto se debe principalmente al hecho de que realmente no podemos confiar aún en un software para hacer la llamada “correcta” en una situación desordenada y mantener al ser humano en el bucle da una clara cadena de responsabilidad (que no es el caso cuando usted tiene código que necesita adaptarse a más situaciones de las que se puede probar de forma realista).

Sin embargo, estos también se exploran a veces en comités más específicos. Creo que el CICR (la entidad que gestiona la convención de Ginebra) está explorando adecuadamente cómo deberían actualizarse las convenciones (al menos en su sitio web puede encontrar documentos como este) La posibilidad de evitar la guerra autónoma de robots o la organización de paneles como este Soldado mejora: nuevas tecnologías y el futuro campo de batalla).

Ahora para algunas palabras finales. Yo, por mi parte, no creo que “la IA se lleve a otra humanidad”, especialmente la forma en que se representa debido a los medios populares, es una amenaza inmediata. También creo que al abordar la amenaza que sabemos que estamos a la vuelta de la esquina, de hecho, podemos establecer un curso mejor para evitar este problema remoto (o al menos hacerlo menos en la dirección en la que vamos; usted sabe que las pequeñas curvas antes de tiempo lo evitan tener que hacer un cambio de sentido repentino justo en frente de la pared). Además, estas amenazas más inmediatas si no se abordan pueden simplemente hacer que la amenaza remota sea imposible porque el gran problema ocurrió mucho antes de que pudiéramos acercarnos a una gran IA que quiere matarnos a todos. Hasta donde yo sé, no se necesita inteligencia para borrar una especie del mapa: los virus pueden hacerlo muy fácilmente, al igual que un meteorito y yo no diría que tampoco es muy inteligente (quiero decir, uno de ellos es solo una gran roca …)

También es muy tonto tratar de imaginar cómo abordar los problemas en una entidad que aún no sabemos cómo hacer. A menudo conduce a una conversación que a menudo se encuentra entre asuntos filosóficos (para los cuales los científicos no son muy buenos, de ahí por qué son científicos y no filósofos) y suposiciones tontas que son difíciles de argumentar a favor o en contra de lo que han hecho. Poca base de hormigón. También puede conducir en algún momento a una pendiente potencial peligrosa: cada vez que escucho que la “moral” es la clave para abordar el problema, tiemblo: la moral es una construcción social y varía según la sociedad / entorno cultural en el que se encuentre. La introducción de las reglas de “moralidad” plantea la pregunta sobre “¿cómo?” y más importante “¿quién?” Este “quién” menos es en el sentido de quién es la entidad que decidirá qué es moralmente bueno / malo y las personas que trataron de abordar esta cuestión prácticamente incluyen muchos pases muy oscuros de la historia humana. No estoy seguro de que tratar de informar este problema de humanos a IA lo haga diferente y cuando digo que no estoy preocupado por las IA sino por los humanos.

More Interesting

Tienes una semana para completar un proyecto que está en un lenguaje de programación y un concepto que no conoces bien. ¿Cuál será su plan para ese proyecto?

¿Hay algún buen tema de investigación en arquitectura de computadoras que involucre programación para mostrar resultados finales?

¿Cuál es la mejor manera de leer documentos de investigación de CS?

¿Cuáles son los principales departamentos de investigación en informática en la India?

¿Qué tipo de técnicas de visión por computadora que aún no se exploran para la conducción autónoma?

En términos simples, ¿cómo funciona el algoritmo de hash perfecto "comprimir, hash y desplazar (CHD)"?

¿Qué se debe hacer para convertirse en un buen investigador en informática? ¿Cuáles deberían ser los principios básicos para ser un buen investigador?

¿Se necesita conocer la arquitectura de la computadora para comenzar a aprender los sistemas operativos?

¿Cómo puedo buscar solo documentos de transacciones IEEE?

¿Cuál es el curso de informática ideal para un novato en informática?

¿Aprender Linux es importante para un estudiante de ciencias de la computación?

¿La fotogrametría hará que la escultura digital sea obsoleta?

¿Puedo tomarme un mes para escribir una encuesta de investigación en ciencias de la computación?

¿Cuál es el mejor lugar para comenzar a prepararse para la investigación en lenguajes de programación?

¿Cuál es la diferencia entre visión por computadora, procesamiento de imágenes digitales y computación multimedia?