¿Cuál es la controversia sobre la IA?

Agencia moral codificadora

Creo que la preocupación central con la IA, incluso si no siempre se afirma como tal, es si queremos poner máquinas y algoritmos en una posición para tomar decisiones con serias implicaciones éticas, decisiones que nosotros como humanos encontramos difíciles de tomar debido a Las apuestas involucradas. En resumen, ¿queremos hacer agentes morales de IA?

Por ejemplo, pregúntate si te sentirías cómodo dejando que una IA haga lo siguiente:

  • Determine qué anuncios mostrar en las páginas web. Los algoritmos de aprendizaje automático ya lo están haciendo, pero aún no es una IA.
  • Reequilibrar las carteras de inversión. Los algoritmos pueden reaccionar a las condiciones cambiantes del mercado de capitales mucho más rápido que nosotros y pueden procesar grandes cantidades de datos que exceden mucho de lo que un humano puede manejar. Este es un uso limitado del aprendizaje automático, acercándose a la IA.
  • Conducir autos. ¿Qué es lo peor que puede pasar? Una IA puede causar lesiones corporales o la pérdida de vidas humanas, pero generalmente serán mucho más seguras que los conductores humanos. Este es un caso más complejo de aprendizaje automático, acercarse a la IA, y uno que implica un riesgo para la vida humana.
  • Determinar la atención médica. ¿Llegaremos a un momento en que las IA sean mejores para diagnosticar enfermedades y seleccionar opciones de tratamiento? Actualmente, el aprendizaje automático se utiliza para ayudar al diagnóstico, pero los médicos siguen siendo quienes toman las decisiones. ¿Te sentirías cómodo hablando con un médico de IA para problemas comunes y tomando los medicamentos que te recetan?
  • Usa la fuerza letal. ¿Deberíamos poner bombas capaces de matar a cientos de personas en un avión no tripulado autónomo y dejar que vuelen sobre aldeas donde los terroristas se pueden esconder entre los civiles? Ya lo estamos haciendo, pero los drones aún no son IA, y hasta donde yo sé, no tienen la capacidad de decidir usar la fuerza letal sin un ser humano en el circuito.

¿Qué tienen en común todos estos escenarios? Afectan a los seres humanos y la calidad, incluso la continuación o terminación, de la vida humana. Las IA no están involucradas en esas situaciones, todavía no, pero las tendencias dicen que estamos llegando allí.

Miles de millones de personas en todo el mundo toman este tipo de decisiones todos los días, y cada decisión sigue un sistema de reglas, explícito o implícito. Las decisiones no siempre son fáciles de tomar, y dejar que las máquinas las tomen requiere, al menos al principio, codificar un sistema de reglas.

Todo se reduce a esto: hacer reglas sobre el valor de la vida humana . Generalmente no nos sentimos cómodos haciendo eso, y eso es algo bueno. La historia muestra lo fácil que es marginar a grupos de personas en función de la religión, el origen étnico, la capacidad física o mental, etc. Los resultados nunca son buenos, desde evitar que las personas vivan hasta su máximo potencial hasta el genocidio.

Una preocupación importante con las IA es que les transmitiremos nuestros valores de una de dos maneras.

  1. Estamos creando las reglas que definen sus valores, para que las IA puedan compartir nuestros prejuicios, para bien o para mal
  2. Una vez que una IA está en modo de aprendizaje, los que interactúan con los humanos aprenderán de los humanos, por lo que le enseñaremos a reflejar nuestros valores.

Lo que sucedió con Tay es un caso estrecho del segundo punto anterior. El chabot de la IA fue engañado para imitar declaraciones ofensivas, como la forma en que un niño de cuatro años repetirá malas palabras para llamar la atención.

No nos sentimos cómodos haciendo reglas sobre el valor de la vida humana, y las IA nos obligan a contemplar hacerlo. Hacer que una IA sea un agente moral es un dilema ético, y a menos que desarrollemos salvaguardas y las incorporemos a IA que interactúen y afecten a los humanos, corremos el riesgo de permitirles, incluso causarles, que nos hagan daño. Pero … Tay tenía salvaguardas, y fueron superados en menos de 15 horas.

Hay varias controversias en torno a la IA.

  1. ¿Deberíamos desarrollar sistemas de IA? ¿Hay algún riesgo? ¿Nos matarán / tomarán nuestros trabajos / …
    Este tema se amplifica debido a las películas y la literatura de ciencia ficción, y también debido a las recientes declaraciones de las personas Stephen Hawking, Elon Musk, …
  2. ¿Es posible desarrollar un sistema artificial tan inteligente como una persona?
    Este es el objetivo original de IA de desarrollar un sistema tan inteligente, hoy en día llamado Inteligencia General Artificial (AGI). Algunas personas piensan que no es posible, algunas personas piensan que sí. Surgen preguntas como cómo evaluar que lo hicimos. Vea la prueba de Turing sobre una prueba general de inteligencia.
  3. Otra controversia podría ser la cercanía de la singularidad tecnológica en la que, debido a la gran cantidad de cómputo disponible, los sistemas de IA se vuelven tan poderosos que ellos mismos comienzan a desarrollar sistemas de IA aún más inteligentes y se vuelven mucho más inteligentes que los humanos.

Rodea la exageración mediática sobre “ven conmigo si quieres vivir” como lo dijo Hollywood. Nuestro nivel actual de comprensión del cerebro humano es casi insignificante; 200 mil millones de neuronas, cada una con quién sabe cuántas células dentro de ellas, para simular este nivel de conectividad de red está fuera de nuestro alcance de las matemáticas; Los algoritmos para atravesar dichos gráficos de manera eficiente no existen. Hay un límite finito en el tamaño de un transistor (un átomo), la complejidad neuronal es enorme.
.
Trataré de descartar la controversia simplemente. Aún no podemos escribir software que pueda escribirse de manera efectiva. Cosas como escribir quines siguen siendo inherentemente desafiantes. Tener un código que podría (sin información externa) formar un código nuevo y significativo con buena semántica sería un gran avance. Aún no tenemos eso.
.
O tal vez pueda discutir de otra manera. Usando un poco de detección de imagen básica, instrumentación de vuelo y un enlace satelital de enlace ascendente a una base USAF / RAF en algún lugar del mundo, ya hemos creado nuestros robots asesinos, y son efectivos. Pero esto no es IA, es el seguimiento paso a paso e ingenuo de un algoritmo bastante sofisticado.
.
¿Puede una máquina tener conciencia? Dejo esto como una pregunta abierta.

La controversia: ¡si solo hubiera uno!

He estado involucrado en IA desde principios de la década de 1970 cuando programé el aprendizaje automático simple y la traducción del lenguaje natural. Ahora vivo a solo una milla de donde Turing hizo gran parte de su pensamiento sobre el tema de lo que ahora se llama IA.

Gran parte de la humanidad se ve a sí misma como superior. Superior a su vecino, otros géneros, otras razas, otros animales, no debo continuar.

Debido a esto, se sienten amenazados por la mera posibilidad de que algo les demuestre que están equivocados y esto duele especialmente si ese algo es una máquina.

Por supuesto, hay muchas cuestiones de control, medios de vida, seguridad, etc., que las sociedades deben considerar lo antes posible y preferiblemente antes de que las IA se vuelvan demasiado buenas. Personalmente, no veo ninguna dificultad real, excepto que, como humanos, no estamos tan interesados ​​en cambiar si se percibe que este cambio conduce a una existencia menos cómoda.

En una de mis clases sobre temas personales en informática, pregunté acerca de los “derechos de máquina” de la década de 1990 y todavía estoy esperando que la discusión capte la imaginación del público.

En mi opinión, esta es la verdadera controversia y es urgente que la abordemos.

More Interesting

¿Qué se necesita para crear autoconciencia en una máquina?

¿Qué problemas de investigación deben resolverse para que la IA mejore dramáticamente?

¿La prueba de Turing está desactualizada? ¿Se necesita hacer una nueva prueba para validar la sensibilidad de una IA?

Cómo crear un chatbot de dominio específico

¿La inteligencia artificial jugará un papel clave en la creación de buenos servicios al cliente?

¿Cómo encontrarán significado los humanos si eventualmente los robots harán casi todo lo que los humanos pueden hacer?

¿Qué es exactamente la "creatividad computacional"? ¿Y hay algún programa aplicable desarrollado en ese campo? ¿O es solo un campo de investigación hasta ahora?

¿Cuál es la diferencia entre un robot y un droide?

¿Puede una red neuronal aprender a modificar eficientemente su propia arquitectura para mejorar la precisión?

Después de terminar el curso de aprendizaje automático en Coursera. ¿Qué tengo que hacer? ¿Curso de inteligencia artificial sobre edx o tutoriales de aprendizaje profundo?

¿Cómo se pueden aprovechar los análisis predictivos en chatbots para el comercio conversacional?

¿Existe una manera matemáticamente definida de fusionar dos redes neuronales en una sola de dimensiones iguales?

¿No dependería la calidad de un robot de IA de la cantidad de código que uno escribe en respuesta a todas las posibilidades / interacciones que enfrentaría?

¿Por qué entraste en el campo de la IA?

¿Cómo se relacionan la inteligencia humana y el talento humano?