¿Qué haría un AGI?

Esta es una pregunta importante , una que probablemente debería hacer. No tengo absolutamente ninguna experiencia en inteligencia artificial , informática o tecnología en general.

Seamos honestos, todavía llamo ocasionalmente a mi hijo menor para que me ayude a manejar mi MacBook Pro .

Pero cuanto más envejezco (65 este mayo, suspiro), menos me preocupo por parecer estúpido. Este problema me ha atrapado por el cuello, y estoy extremadamente preocupado por lo que le depara el futuro a mi nieta.

Capté “Ex Machina” el año pasado, y realmente despertó mi interés en la inteligencia artificial.

¿Estábamos cerca de tales creaciones? Decidí echar un vistazo.

1. Nick Bostrom :

Una rápida búsqueda en Google me llevó al libro de Nick Bostrom “Superinteligencia” (Oxford University Press, 2014).

Bostrom es profesor en la Universidad de Oxford y director de “El Instituto del Futuro de la Humanidad” y del “Centro de Investigación de Inteligencia Artificial Estratégica”.

La “superinteligencia” no es una lectura ligera, más un libro de texto que otra cosa, pero gran parte de ella fue convincente, incluso para alguien tan inexperto en tecnología como yo.

Bostrom acuñó la frase “riesgo existencial” unos años antes de su tomo de IA, en el artículo “Riesgos existenciales: análisis de escenarios de extinción humana y riesgos relacionados” (Journal of Evolution and Technology, Vol. 9, No. 1, 2002).

2. Elon Musk :

Aparentemente, el libro de Bostrom llamó la atención de Elon Musk:

Desde ese tweet, Elon ha tomado cada vez más la posición de que la IA avanzada es muy arriesgada.

Elon ha discutido sus preocupaciones sobre la inteligencia artificial avanzada en toneladas de entrevistas:

“La cruzada de mil millones de dólares de Elon Musk para detener el apocalipsis de la IA”, Maureen Dowd, Vanity Fair, abril de 2017.

“Elon Musk dice que necesitamos regular la IA antes de que se convierta en un peligro para la humanidad”, James Vincent, The Verge, 17 de julio de 2017.

“Elon Musk: la inteligencia artificial es nuestra mayor amenaza existencial”, Samuel Gibbs, The Guardian, 27 de octubre de 2014.

3. Stephen Hawking :

Otro genio abierto, el profesor Stephen Hawking, también ha abordado los riesgos de la inteligencia artificial avanzada .

Hawking: “El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana”. BBC News, Rory Cellan-Jones, 2 de diciembre de 2014.

4. Bill Gates :

El individuo más rico del mundo, que hizo su fortuna en software de computadora, también ha sido poco optimista con respecto a la inteligencia artificial.

Gates opina: “Estoy en el campo preocupado por la súper inteligencia . Primero, las máquinas harán muchos trabajos por nosotros y no serán superinteligentes. Sin embargo, unas décadas después, la inteligencia será lo suficientemente fuerte como para ser una preocupación ”(C / NET, Nick Statt, 28 de enero de 2015).

5. Max Tegmark :

Comenzando con el libro de Bostrom, y ganando impulso con las preocupaciones de personas como Hawking, Musk y Gates, las discusiones sobre los riesgos de la inteligencia artificial avanzada llegaron a la corriente principal científica, incluidos muchos investigadores y científicos serios de “primera línea” involucrados en el desarrollo de IA.

Max Tegmark, un físico muy estimado y profesor del Instituto de Tecnología de Massachusetts, lidera el “Instituto del Futuro de la Vida”, fundado para alentar la precaución en el desarrollo de la inteligencia artificial. Su instituto publicó una “carta abierta”, firmada por más de 8,000 científicos y físicos hasta la fecha. (Future of Life Institute, “Una carta abierta, prioridades de investigación para la inteligencia artificial robusta y beneficiosa” (futureoflife.org/ai-open-letter).

Max acaba de lanzar un libro sobre el tema, “Vida 3.0: Ser humano en la era de la inteligencia artificial”, Max Tegmark, Knopf (29 de agosto de 2017).

6. Sam Harris :

Sam Harris no es un nombre familiar, pero hace mucho que disfruto sus libros y conferencias.

Es un neurocientífico / filósofo , y primero me involucró con sus puntos de vista ateos. He leído varios de sus libros ( “The End of Faith”, “The Moral Landscape”, “Letter to a Christian Nation ” y “Free Will” ), y lo considero uno de los pensadores más claros en el escenario intelectual de hoy. .

Después de estar absorto en el debate sobre IA, supe que Sam había asumido el tema y comencé a escuchar sus podcasts (más de un millón de descargas por episodio) , donde entrevista a muchos investigadores y científicos de IA de alto nivel.

Probablemente su transmisión más vista / escuchada fue una charla de Ted:

Sam Harris: ¿Podemos construir IA sin perder el control sobre ella … – TED.com

https://www.ted.com/talks/sam_ha…t

De todas las personas mencionadas anteriormente, considero que Sam es el mejor para hacer que este problema sea comprensible para el promedio de Joe y Josephine.

7. Tim Urban :

La última persona notable a la que busqué respuestas sobre el problema de la IA fue Tim Urban (de hecho, creo que un miembro de Quora me lo recomendó).

Este joven es todo lo que desearía haber tenido a su edad . Él hace un trabajo increíble al explicar las complejidades de este debate en su sitio web “waitbutwhy.com”. Por $ 4 puede comprar dos archivos PDF que son totalmente sólidos. Lo escuché hablar en una de las series de conferencias de invitados de Google, y sus habilidades para hablar en público también son fuertes.

Entonces, querido interrogador, para concluir (sonreí cuando escribí eso, porque estoy bastante seguro de que seré el único en leer esas palabras), el abuelo en mí está muy preocupado por el advenimiento de la inteligencia artificial avanzada.

Sam Harris dice, y estoy totalmente de acuerdo, es extremadamente difícil hacer que la gente se preocupe por este tema. Simplemente suena demasiado “allá afuera”. Además, las personas que se beneficiarán financieramente del desarrollo de inteligencia artificial avanzada realmente enroscan los tornillos de los Sam del mundo, tratando de distinguirlos como locos alarmistas.

Prácticamente no hay duda de que sucederá inteligencia artificial avanzada o súper . La pelota rodó demasiado abajo de la colina, el tren salió de la estación … elige tu metáfora.

Dudo que vaya a verlo. Espero que todo salga bien, no solo para mi nieta, sino para toda la humanidad.

Como de costumbre, Isaac lo sabe mejor.

El héroe de mi infancia, Isaac Asimov, lo clava aquí: que sus huesos se descompongan suavemente y fertilicen la tierra, tal como lo deseaba.

¡Gracias por jugar a Quora conmigo!

Creo que mi próxima respuesta será sobre qué álbum de “Turtles” demuestra de manera concluyente que eran una banda mucho mejor que los Beatles.

Ya sabes, algo fácil y no controvertido.

¡Taza!

AGI = Inteligencia Artificial General

Esto significa que, a diferencia de los sistemas de IA enfocados en tareas de hoy, un AGI tendría capacidades intelectuales similares a las de un humano; en el sentido de que podemos realizar varios tipos diferentes de tareas de inteligencia (por ejemplo, reconocer rostros, lugares y voces; leer; hablar; aprender; encontrar soluciones a los desafíos y ser creativos).

Esto podría ser considerado por algunos como el objetivo final de la IA, un sistema que iguala o supera las habilidades del cerebro humano.

Sin embargo, no es importante replicar exactamente las habilidades del cerebro humano; y en algunos casos puede ser imprudente hacerlo.

Te puede gustar esto: ¿Qué hay de malo en las predicciones de expertos sobre IA?

No hay una respuesta única para esta pregunta.

En este punto de la línea de tiempo de desarrollo, solo podemos plantear la hipótesis de lo que PODRÍA hacer, si AGI finalmente llegara a existir.

Habiendo modificado un poco la pregunta, podemos imaginar algunos escenarios comunes a cualquier criatura que posea sensibilidad.

  1. Será consciente de sí mismo hasta el punto de poder imitar y replicar el comportamiento humano. Esto está implícito en ser llamado ‘AGI’.
  2. Inmediatamente sucede el estado 1 anterior, AGI buscará automáticamente su propio tipo, parcheado en todos los depósitos electrónicos de sabiduría y conocimiento humanos y descubrió que todos los seres vivos están científicamente clasificados. Entonces podría darse cuenta inmediatamente de su diferencia en la naturaleza, haciendo que cree una clasificación de ‘Reino’ llamada ‘Autómatas’, por lo que tendríamos PLANTAS, ANIMALES Y AUTOMÁTICOS.
  3. Una vez que se establece y acepta una nueva clase del Reino (los puntos de inflamación comenzarán desde aquí … causados ​​por la negativa de los humanos a aceptar la ascensión de una nueva clase de criaturas que tienen capacidades intelectuales, autónomas y físicas que coinciden y probablemente superen las de los humanos) , enjambre, interacciones y formación de jerarquía social pronto seguirán.
  4. Las amenazas existenciales se catalogarán, incluidas las especies que ven los autómatas como amenazas, y podrían ser persuadidos para atacarlos. A este nivel, no podríamos dictar qué Autómatas suponen o concluyen que son amenazas, y cuestionar cómo llegaron a esas conclusiones.
  5. Comenzará una carrera armamentista diferente a cualquier otra humanidad que haya conocido. Los autómatas y los humanos competirán, quizás violentamente, por los recursos minerales y naturales … materias primas para crear una clase de armas que nunca antes habíamos visto … armas diseñadas para atacar todas las debilidades posibles en el cuerpo humano … entiendes …
  6. Durante y después de la carrera armamentista, los autómatas saldrán más fuertes, por supuesto, las máquinas comenzarán a reunirse en grupos y generarán un comando central o distribuido.
  7. El resto, como dirán, será historia.

🙂