¿Tiene algún valor considerar las posibles consecuencias filosóficas (y éticas) del surgimiento / desarrollo de la Inteligencia Artificial?

El problema con el valor en la mayoría de los estudios de vanguardia es que a menudo los consideramos en retrospectiva. La mayor parte del trabajo en teoría de números era, en aquel entonces, completamente inútil, no tenía aplicación. Hoy, todo Internet y CUALQUIERA de su uso práctico se basa en la criptografía que se basa en la teoría de números.

Eso no significa que todo vaya (bueno, Feyerabend podría argumentar que sí), sino que lo que parece descabellado hoy, o incluso fuera de su alcance, podría llevar a remodelar nuestro mundo fundamentalmente unas décadas o siglos después.

Si cree que la IA tiene una pequeña posibilidad de suceder, entonces hay valor, pero solo si la consideración se realiza correctamente y, por lo tanto, mejora la comprensión actual, ya que actualmente ya hay MUCHO escrito.

  • Inteligencia Artificial de Cambridge
  • Oxford amenaza a la supervivencia de la humanidad
  • Investigación privada – Instituto de Investigación de Inteligencia de Máquinas
  • Beneficios privados y riesgos de la inteligencia artificial
  • https://openai.com privado

Y mucho más desordenado pero bastante valioso https://en.wikipedia.org/wiki/Ex…

¡Si, absolutamente! Agregaré detalles más adelante en una edición, pero el campo está lleno de preguntas como esa. ¿Qué sucede si un robot tiene autoridad sobre a quién debe salvar en una misión de recuperación? ¿O qué coche no chocar en un accidente? Los bots de software harán determinaciones demográficas basadas en datos cuestionables, ya lo hacen.

Es mi opinión que la ética de la IA debe ir de la mano con su desarrollo, y que estas cuestiones éticas se plantean constantemente. Tendremos dispositivos muy tontos, en comparación con los humanos, con gran capacidad y sin sabiduría. Y pueden existir en grandes cuantiles, ya que podrían fabricarse ellos mismos.

Un automóvil de 10 años es un dispositivo con una gran capacidad, puede recorrer más de 160 kilómetros por hora, pero no tiene inteligencia en absoluto. Veremos muchos robots pesados, algunos bastante humanos, vea el desafío de Darpa Robotics Inicio | Finales de la RDC.

Las primeras versiones tendrán muy poca inteligencia con gran capacidad, y obtendrán luz verde cuando las señales com desaparezcan. Pero cuanto más inteligencia obtienen, mayor es el riesgo de algo realmente estúpido.

Estos problemas son bien conocidos en el campo de la IA, y habrá un gran esfuerzo para evitarlos. Sin embargo…

Surgirán problemas desconocidos, los dispositivos (software o máquinas) se utilizarán de manera criminal, se tomarán atajos descuidados (como el VW Snaffu) y más.


Editar:

No estamos en las primeras etapas del desarrollo de IA; Tenemos formas primitivas de AGI, como en autos sin conductor y las máquinas de desafío de robot Darpa, Watson y nuestro sistema operativo. Todos están programados, sin duda, aún son generales de una manera primitiva. Sin embargo, abundan las preguntas de filosofía.

A medida que las máquinas se vuelvan más inteligentes, habrá desequilibrios de poder y sabiduría con los humanos. Las máquinas tendrán un gran poder y poca sabiduría. Esto impulsa una nueva filosofía. El AGI completo sobre el que escribe David Deutch puede no existir durante mucho tiempo, si es que existe.

La filosofía será la clave que desbloquea la inteligencia artificial | David Deutsch

Como la mayoría, Deutch ignora el alma humana, pero puede ser completamente natural, residir en la función de onda, mantenida por mensajeros químicos de larga vida, almacenados en el ADN, en colectores de gravedad, en sistemas complejos (una olla de agua hirviendo es una) , en energía oscura, partículas enredadas o una combinación de todo. No entendemos nada de eso, así que no podemos descartarlo.

¿Qué le sucede a un AGI muy inteligente, más capaz que los humanos en el razonamiento cotidiano? Deutch dice que podría ser poco ético mantenerlo bajo nuestro control. Pero, ¿y si no tiene alma?

La ética de AGI mantendrá a muchos profesores de filosofía empleados, con dinero que se les arrojará en cada oportunidad.

Adicional: Suponga que un investigador de IA encuentra una calidad natural en los genes, otra biología o física que podría explicar la personalidad humana y otras cualidades sutiles, como quiera llamarlo. Se agrega a un dispositivo AGI, dándole una calidad similar a Hal, Commander Data o Ava (de Ex Machina). ¿Luego?

Hay mucho valor, independientemente de si el desarrollo de una verdadera inteligencia general artificial es capaz de ser creado o no.

La inteligencia artificial tal como está ahora ya está haciendo una gran diferencia en el mundo. Es realmente importante considerar las consecuencias filosóficas y éticas, ya que ya son profundas.

Margaret Boden ha estado activa en este campo desde los años 70 con su libro de 1977 “Inteligencia artificial y hombre natural”. Es conocida por relacionar la IA con la psicología.

Uno de mis favoritos personales es Hubert Dreyfus. Las opiniones de Hubert Dreyfus sobre la inteligencia artificial fueron una gran influencia para mí. Utiliza la filosofía de Wittgenstein para criticar la base teórica de la IA. Sin embargo, este no es un análisis de las consecuencias: es un análisis filosófico de la propia IA.

¿Valor práctico? Muy poco. Prácticamente no hay ningún efecto que la filosofía y la ética tengan sobre el desarrollo actual de la IA como herramientas y productos. No cambia la forma en que hacemos IA, para qué la usamos o qué leyes tiene que observar. En lugar de hipotéticos escenarios éticos sobre los automóviles con IA que deciden si atropellar a un niño o una persona mayor, ya hay normas de seguridad establecidas para los automóviles y leyes contra cualquier discriminación “ética” que se aplique a los creadores de la IA.

Eso no quiere decir que no tiene valor. Siempre hay valor en afinar nuestros propios valores morales, y uno siempre debe considerar las consecuencias y anticipar problemas durante el desarrollo. Pero solo tiene un valor práctico cuando se aplica al desarrollo actual, no a algo que puede suceder o no en la fantasía desinformada de alguien. Muchos filósofos no estarán de acuerdo, pero no son ellos los que crean la IA.

Sí, ciertamente, pero hay una naturaleza interesante de “autolimpieza” que veo al abordar esta pregunta.

Lo que quiero decir con esto es que parte del valor al hacer la pregunta ya se está devolviendo en ese momento. Yo compararía esto con alguien que pregunta: “¿Hay valor en preguntar si hay cuestiones éticas a considerar con ser narcisista?” La naturaleza de “autolimpieza” en esto es que los narcisistas, por naturaleza, no hacen ese tipo de preguntas ni priorizan las ramificaciones sobre sus prioridades centradas en sí mismos. Por lo tanto, si uno hace esa pregunta, ya hay algún valor devuelto en la expresión de formularla y demostrar preocupación por los demás.

Del mismo modo, el valor más significativo de hacer esa pregunta es que la hacen quienes desarrollan IA; que tienen una mentalidad étnica suficiente para considerar eso como un valor. Porque cómo y qué desarrollan será un reflejo de su propia inteligencia, y si son del tipo de personas que hacen tales preguntas, entonces sus productos de IA inevitablemente reflejarán valores similares.