¿La inteligencia artificial representa un riesgo significativo para la humanidad? ¿Algún grupo científico está investigando el problema? Si es así, ¿cuál es el horizonte de eventos para cuando el peligro es claro y presente y está más allá de nuestro control?

Depende de lo que entiendas por “riesgo” y “humanidad”.

Como Andrew Ng dijo:

Gurú de la inteligencia artificial Ng: Temer un aumento de robots asesinos es como preocuparse por la superpoblación en Marte

Si lo que tienes en mente es que Skynet está acabando con la especie humana, entonces no hay razón para preocuparse. Estamos tan lejos de eso, que tiene literalmente 0 sentido gastar cualquier tipo de esfuerzo en preocuparse por eso en este momento.

Sin embargo, si lo que temes es una IA “tonta” que se entromete de manera indeseable en los asuntos humanos, entonces básicamente estás jodido.

Además de la automatización de los trabajos y el consiguiente aumento del desempleo entre cierta fuerza laboral no calificada, tiene cosas como automóviles autónomos o drones militares autónomos (solo una posibilidad), que provocan desiciones de vida o muerte.

Los verdaderos desafíos de la IA en el futuro previsible, la OMI, son cómo abordar la alta tasa de desempleo de las personas que la IA está reemplazando y cómo mantener a la IA fuera de los lugares donde tiene que tomar decisiones morales (porque no puede). O, al menos, cómo lidiar con los casos en que la IA tiene que hacerlos.

Estos no son problemas tecnológicos, son económicos, políticos y filosóficos.

En ese sentido, estos peligros están bajo nuestro control como sociedad, suponiendo que las decisiones económicas, políticas y filosóficas estén bajo nuestro control como sociedad.

Para mí, un riesgo significativo significa “más del 0.1% de probabilidad”. Entonces sí, lo hace. Stuart Russell (uno de los nombres más importantes en la IA de hoy) ha pedido a las personas que consideren el escenario donde supimos que había extraterrestres que venían directamente en nuestra dirección. Supongamos que parecen estar a unos 100 años de distancia. ¿Qué nos gustaría hacer? ¿Solo esperar hasta que lleguen aquí? Probablemente querríamos destinar una gran fracción del PIB a la investigación de la ciencia de los materiales, la física básica y la geoingeniería, en caso de que descubrieran que eran hostiles. Es una intuición bastante directa que la IA que es más inteligente que nosotros es del mismo orden de magnitud de peligrosa que la llegada de algunas especies alienígenas tecnológicamente avanzadas, aunque los argumentos en contra de varias objeciones pueden complicarse. De hecho, creo que el riesgo es mucho mayor 0.1%, pero no intentaré defender ese reclamo más extenso aquí. (Este ensayo hace ese caso, si quieres leer más).

Hay algunos grupos que investigan el tema, y ​​definitivamente recomendaría mirar sus agendas si tiene curiosidad sobre qué están haciendo exactamente: MIRI (agenda A; agenda B), CHAI (agenda), FHI, la seguridad equipo de OpenAI (agenda) y el equipo de seguridad de DeepMind.

El horizonte de eventos para cuando las cosas están más allá de nuestro control es tan pronto como alguien construya una IA inteligente a nivel humano que pueda acceder a Internet, cuyos objetivos no están alineados con los nuestros. ¿Cuándo podría suceder eso? Nadie lo sabe. Probablemente sea seguro decir que no en los próximos 10 años. Un poco incauto para decir que no en los próximos 20, pero eso todavía suena bastante razonable. Diría que hay una buena posibilidad de que sepamos cómo hacer IA inteligente a nivel humano en los próximos 100 años, pero eso definitivamente podría estar mal.

Parece que cada vez que lees las noticias hay otra historia que advierte sobre la amenaza de la IA, pero la verdad es que estas historias a menudo optan por el sensacionalismo en lugar de una visión matizada. La realidad es más compleja y, en mi opinión, mucho más interesante.

El riesgo de la IA y la robótica que debe abordarse no es una intención dañina, sino una inteligencia insuficiente: en lugar de máquinas malvadas que nos lastiman por malicia, ¿cómo los hacemos lo suficientemente inteligentes como para saber cuándo llevar a cabo su tarea impactaría negativamente a un humano?

Actualmente hay varios centros de estudio innovadores para hacer que la IA y la robótica sean seguras. Por ejemplo, un equipo de la Universidad de Hertfordshire está trabajando en Empowerment, un marco complejo para programar la ética en robots al optimizar la cantidad de opciones de comportamiento disponibles para ellos.

Aunque debemos continuar haciendo que la IA sea lo más segura posible, no debemos permitirnos ignorar el enorme potencial de la IA para transformar nuestro mundo para mejor. Apenas hay problemas en este momento en el mundo en los que la IA no pueda participar en el abordaje. La NASA espera usar naves inteligentes y autónomas para explorar los alcances más alejados e inhóspitos del sistema solar, mientras que los algoritmos de aprendizaje profundo ya son capaces de diagnosticar ciertas enfermedades con un notable grado de precisión. Estos son los proyectos a los que deberíamos dirigirnos: intentos hacia el futuro y hacia el futuro para aprovechar la tecnología de una manera que nos beneficie a todos.

Si está interesado en los desarrollos extraordinarios que suceden en IA, puede leer más sobre el blog de mi empresa Kohli Ventures, así como sobre mi propio blog personal.

More Interesting

¿Debo obtener una licenciatura en inteligencia artificial?

¿Es la inteligencia artificial un campo potencial para ganar?

¿Podría crear un programa de inteligencia artificial que analice las bases de código y encuentre errores para las personas que son relativamente nuevas en la programación?

¿Cuál es el futuro del periodismo de datos en la era de la IA?

Cómo enseñarme IA

¿Cuáles son las posibilidades de que una IA fuerte pueda surgir del ejército?

¿Cuánto Python debo aprender antes de comenzar a aprender sobre Inteligencia Artificial?

¿Cuáles serían las implicaciones de crear una inteligencia artificial con vicios o adicciones?

¿Será el deporte el único dominio en el que se celebrará el espíritu humano en el futuro a medida que la inteligencia y la creatividad sean asumidas por la IA?

¿Cómo se puede aplicar la inteligencia artificial en la fabricación?

¿Qué pasa si el cerebro humano usa lógica binaria como la inteligencia artificial pero no lo sabemos porque solo podemos ver / sentir la salida?

Supongamos que se inventa una IA de propósito general, entonces, ¿cómo ayudará a dar forma al mundo?

¿De dónde saca la gente la idea de que la IA (si alguna vez existiera a ese nivel) nos va a matar?

¿La IA pronto reemplazará a las escuelas y universidades y creará programas de capacitación personalizados para jóvenes o personas de cualquier edad?

¿Crees que es tarde para competir por el primer puesto de Asistente personal de AI?