Si se supone que la IA salvará a los humanos al predecir sus acciones futuras, ¿pueden evitar que hagamos ciertas cosas en la vida (por el bien común) y hasta qué punto (Ej: aceptar un no por respuesta, cuando somos tercos y queremos esquiar) en hielo delgado)?

Si se supone que la IA salvará a los humanos al predecir sus acciones futuras, ¿pueden evitar que hagamos ciertas cosas en la vida (por el bien mayor) y hasta qué punto (Ej: aceptar un no como respuesta, cuando somos tercos y queremos esquiar) en hielo delgado)?

La respuesta a su pregunta fue escrita hace mucho tiempo (1942) por el escritor de ciencia ficción Isaac Asimov …

  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
  2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.

Las tres leyes de la robótica – Isaac Asimov – 1942 – en el cuento Runaround

Isaac Asimov

Este famoso autor estadounidense es conocido por su ficción de robots, tanto cuentos como novelas.

Si esas 3 leyes se siguen de hecho, el escenario del fin del mundo previsto y tan comúnmente retratado hoy nunca sucederá.

Recomiendo Asimov y he estado leyendo sus obras (más de 500 libros solo) desde mi adolescencia. Disfruté especialmente su serie de la Fundación .

Solo pueden detenernos si configuramos sistemas que limitan nuestra capacidad de hacer cosas.

Esto, desafortunadamente, ya está sucediendo.

Por ejemplo, Facebook y Google tienen prejuicios liberales, y han incorporado esos prejuicios en la IA que presentan resultados de búsqueda al tiempo que ocultan sitios que no les gustan, comprueban los datos solo con fuentes liberales y censuran opiniones no liberales de todos los tipos porque entrenaron a las IA solo usando conjuntos de datos liberales (New York Times, Huffington Post).

Otra versión son los algoritmos de toma de decisiones de salud. Las personas que piensan que hay demasiadas personas, los conservadores están locos por defecto y es mejor si las personas mayores con ideas obsoletas mueren creando los algoritmos de asesoramiento médico.

Esto se ha utilizado para el asesoramiento de control de costos de Medicare, por lo que extendieron los intervalos para los exámenes de detección de cáncer si tienes más de 70 años y dijeron “oh, ve a hablar sobre el final de la vida para que estés más dispuesto a morir si te avisamos a”. Uno de los casos más atroces han sido los sistemas informáticos que envían cartas a las personas negando atención Y cartas sobre la eutanasia. Si delega cualquier toma de decisiones médicas en estos sistemas, terminará con personas que a los programadores no les gusta que estén en desventaja sistemática para recibir atención y atención excesivamente DENEGADA.

Otra versión es la recopilación y el análisis de datos, que a menudo es voluntaria en teoría pero opresiva en principio. Por ejemplo, “Le dejaremos hacer X, pero si hace Y, aumentaremos sus tarifas de seguro y le negaremos la atención para que el 95% no haga Y”. Y la IA se está utilizando para crear incentivos y desincentivos para que las personas hagan lo que los programadores piensan que es correcto.

También están utilizando inteligencia artificial para evaluar rápidamente las interfaces de usuario, sitios web y programas completos para que las personas tomen las decisiones que los programadores piensan que son las mejores, ya sean seguros de salud, productos financieros o servicios gubernamentales.

Si se supone que la IA salvará a los humanos al predecir sus acciones futuras, ¿pueden evitar que hagamos ciertas cosas en la vida (por el bien común) y hasta qué punto (Ej: aceptar un no por respuesta, cuando somos tercos y queremos esquiar) en hielo delgado)?

Sí.

Y si una IA decide matar humanos, pueden inducir a sus víctimas a hacer ciertas cosas en la vida. Vea “2001 una odisea en el espacio” para ver un ejemplo de IA que asesina personas, la serie “Terminator” muestra una IA cometiendo asesinatos en masa, y la serie Matrix muestra una IA que encarceló a casi todos dentro de una simulación comparativamente benigna, ciertamente la IA lo hizo “Por el bien común”, especialmente si comparamos la simulación con la dura realidad del mundo real.

El problema no está en la parte del “supuesto”, sino en la parte del “bien mayor”. ¿Quién define el “bien mayor”? Esta noción ha sido estudiada exhaustivamente en filosofía y se ha descubierto que el “bien mayor” es siempre un concepto problemático.

Por supuesto, si alguien es un violador o drogadicto, puede ser posible implantar un chip que produzca una sacudida eléctrica dolorosa si la IA detecta un comportamiento de búsqueda de víctimas o drogas, lo que hace más difícil cometer crímenes o recaer en la adicción. Los gobiernos ciertamente adaptarán cualquier tecnología para disciplinar a los disidentes políticos, “por el bien mayor” de la sociedad, por supuesto.

La IA no va a salvar el mundo ni a destruirlo tampoco. Esta es solo la última versión del antiguo sueño de que alguien u otra cosa puede salvarnos de nosotros mismos. Solía ​​ser Dios, o reyes divinos, o Jesucristo, o sacerdotes, etc. Hoy en día es una máquina de inteligencia artificial súper inteligente, o Einstein, o científicos, etc. ¡Olvídalo! Depende de los humanos salvarse de sí mismos. No hay y nunca habrá un súper padre que se encargará de todo, por lo que solo podemos usar drogas recreativas y buscar placer y rechazar la responsabilidad. ¡Así que deja de tontear y vuelve al trabajo! 🙂

NO, porque los humanos son estúpidos y tercos, por lo que incluso si la IA fue “NO patinar allí, el hielo es demasiado delgado”

La gente aún querrá ver por ellos mismos.

Terry Prachett lo expresó mejor “ “ Algunos humanos harían cualquier cosa para ver si fuera posible hacerlo. Si coloca un interruptor grande en alguna cueva en alguna parte, con un letrero que dice ‘Interruptor del fin del mundo’. POR FAVOR, NO TOQUE ‘, la pintura ni siquiera tendría tiempo para secarse “.

More Interesting

Teniendo en cuenta la cantidad de datos que genera un sitio Web2.0 todos los días y su valor en el escenario actual, ¿cree que el aprendizaje automático debería ser el núcleo de la tecnología de cualquier producto? Si es así, ¿qué arquitectura recomendaría en este tipo de casos?

Soy estudiante de Ingeniería de software (BS SE, Final Year). Estoy muy confundido acerca de seleccionar mi proyecto de último año i Inteligencia artificial, el proyecto debe ser factible y único. ¿Alguien puede guiarme?

¿Cuáles son los algoritmos clásicos de aprendizaje automático similares a los modelos de secuencia a secuencia?

¿Cuándo se convertirán los videojuegos en un "arte"?

¿Cómo puede un estudiante promedio llegar a Andrew Ng para ser un discípulo suyo?

¿Cómo se podrían aplicar las técnicas de aprendizaje automático a la arquitectura informática?

¿Por qué los robots son extremadamente superiores a los humanos?

¿Cuáles son los buenos tutoriales sobre cómo hacer chatbots con machine learning?

¿Cómo era Deep Blue tan bueno en el ajedrez?

¿Qué diferencia exactamente una red neuronal recurrente de una red de alimentación directa con una ventana de tiempo limitado?

Hemos visto a AI expresar creencias políticas, racismo y más. ¿Es posible que la IA sea tan parcial y obstinada como nosotros?

¿Cuáles son las principales comunidades y sitios web para aprender sobre robótica?

¿Cuál es la diferencia entre un agente inteligente y un agente racional?

¿Cuáles son las mejores plataformas y recursos para construir chatbots?

¿La codificación de IA simples de robots (como los utilizados en las competiciones de BattleBot) ayuda en absoluto con la capacidad de entender / codificar una IA profunda?