¿Por qué siempre asumimos que la inteligencia artificial súper inteligente intentará matarnos?

Nosotros no Al escribir ficción, ayuda a establecer un conflicto, y este es el obvio, por lo que tiene películas como The Terminator en las que las máquinas están literalmente tratando de matar a las personas biológicas. Pero incluso esto varía. En una película como The Matrix, la IA dominante cree que vale la pena mantener a las personas vivas y atrapadas en una realidad virtual, aunque las razones dadas no tienen mucho sentido. La especulación más sofisticada abarca toda la gama, incluidas las naves espaciales de la IA generalmente benévolas en las novelas de ciencia ficción de Iain M. Banks, que coexisten con los humanos a pesar de su poder superior y capacidad cognitiva.

La gente a menudo asume que la IA competirá por los recursos con nosotros una vez que sea consciente de sí misma, pueda tener el control de nuestra infraestructura y no pueda compartir los valores humanos. Estos no son puntos insignificantes, pero tampoco son inevitables. La razón por la que mostramos compasión hacia otros humanos es probablemente una consecuencia de la evolución y la supervivencia de la especie en lugar de una lógica moral inexorable (que no se encuentra en la naturaleza ‘rojo en los dientes y las garras’). Por lo tanto, no debemos descartar la posibilidad de que la IA pueda dañarnos en lugar de ayudarnos.

Suponiendo una IA suficientemente desarrollada con tecnología que le permitiera extraer recursos masivos fuera del mundo en nuestro sistema solar (por ejemplo, utilizando robots autorreplicantes para “extraer” el cinturón de asteroides y la energía solar fácilmente disponible), entonces podrían no competir por un tiempo limitado. recursos La gran pregunta es si deberían preocuparse por nosotros. Ciertamente es posible coexistir con IA neutral.

Tenga en cuenta que una vez que una IA ha superado la inteligencia humana, incluso un poco, tiene la capacidad de aumentarse y dejarnos lejos de comenzar. ¿Buscarían llevar a cabo algún tipo de genocidio en humanos biológicos? Es posible, pero no se deriva de necesidades obvias. Sería como si los humanos destruyeran el desierto o los sitios del patrimonio antiguo solo por el placer de hacerlo. Algunas personas podrían, pero ¿por qué? La razón más probable para este tipo de destrucción es extraer riqueza de ella, y puede ser que nosotros en la tierra no tengamos nada que interese a una IA que está muy por delante de nosotros.

Para ser claros, no creo que estemos lo suficientemente cerca como para preocuparnos. Dos eventos que podrían cambiar de opinión serían una IA que podría pasar una prueba de Turing real (es decir, capaz de continuar conversando continuamente y actuar como un ser capaz de aprender) y el desarrollo de una producción puramente autónoma (es decir, máquinas capaces de llevar a cabo cada tarea, desde la minería hasta la fabricación y el envío sin ningún trabajo humano y para producir las máquinas que hacen esto). Podría suceder en el siglo XXI, pero no en el futuro inmediato. Al igual que con cualquier innovación tecnológica, debemos considerar el daño potencial, pero después de cierto punto, probablemente esté fuera de nuestro control. Las “Leyes de Asimov” no me persuaden de mantener dóciles a los robots, pero necesitaremos generar algún tipo de empatía por los humanos si valoramos nuestra propia supervivencia.

Valores divergentes.

Una súper inteligencia artificial (ASI) no necesita ser malévola para lastimarnos; solo necesita tener valores que difieran ligeramente de los nuestros.

En algún momento, nuestros ancestros y los ancestros del elefante moderno tenían básicamente los mismos objetivos: comer, aparearse, defender nuestro territorio y parientes. Es fácil imaginar que las dos especies coexisten en equilibrio ya que ocupan diferentes nichos ecológicos. Sin embargo, debido a que nuestros valores divergieron lentamente, nuestros objetivos llegaron a incluir metrópolis, consumo masivo de recursos, tierra cultivable, animales domesticados y marfil. Ahora parece que ya no podremos coexistir.

No estamos llevando a las especies de elefantes a la extinción porque las odiamos; en realidad nos gustan, pero nuestras metas ahora son mutuamente excluyentes, y el elefante no tiene voto sobre cómo procedemos.

Si no tenemos cuidado, los valores de un ASI pueden diferir de los nuestros, y eso podría causarnos graves daños, ya que es posible que no obtengamos un voto sobre cómo conciliar las diferencias. no necesitan querer matarnos; incluso nos pueden gustar.

Porque la IA tendrá súper inteligencia pero sin una cosa importante que los humanos tengan, esa es la conciencia. No tienen un pensamiento moral sobre lo que está bien o mal para uno mismo / otros. Incluso una sola mente malcriada puede desarrollar una lógica de IA para dañar a los humanos. Incluso no intencionalmente, la IA puede ser dañina para nosotros, como parte de la lógica de la IA para resolver un problema mayor, por ejemplo, el control de la población o el calentamiento global.

La IA es una rama en evolución de la informática y tiene muchas salas que aún no se han explorado. Una de ellas es usar la IA como una herramienta de destrucción. La ironía es que ya vemos que como una herramienta de destrucción es porque

Nosotros, los humanos, siempre tratamos de asumir la peor de las situaciones (principalmente [90%]) aunque sabíamos que ninguna de las evidencias es válida. La mayor parte del tiempo nos consume el pensamiento.

A pesar de saber que incluso la IA hace lo que ordenamos (comando para aprender / instrucciones) y nada más allá, asumimos que la IA es capaz de matarnos.

Otra razón podría deberse a las guerras civiles entre los robots de IA y nosotros, retratados en las películas (I Robot, etc.: P)

La inteligencia artificial inteligente representa una versión más abstracta del valle misterioso. Es como un humano, pero no del todo humano, y nuestros cerebros reaccionan mal ante la confusión. Naturalmente, tendemos a temer cosas que no podemos entender.

Debido a su naturaleza de no tener simpatía o valores humanos (más fácil de decir, sentimientos), podrían juzgarnos en función de nuestra acción que afectará los objetivos del programa de inteligencia artificial o simplemente porque algún chico malo sabotearía la inteligencia artificial para que intente matar . (Los humanos son el verdadero problema aquí)

Somos casi lo más inteligente del planeta en este momento. ¿Cómo actuamos?

  1. Si hay algo en el planeta que no podemos matar, descubrimos cómo matarlo.
  2. Si hay algún resultado útil para matar algo que no sea humano, lo matamos.

El primero es la supervivencia; El segundo es la explotación.

Muchos de nosotros pensamos que algo aún más inteligente que un humano, como una IA súper inteligente, actuaría de la misma manera si pudiera, y sería mejor que nosotros en eso. Descubriría cómo explotarnos para sus propios fines, y no dudaría en matarnos si nos interpusiéramos en su camino.

Una IA súper inteligente no necesita brazos y piernas y armas personales para hacer esto. Todo lo que tiene que hacer es armar a las personas o los sistemas de los que dependen. Somos casi la cosa más inteligente del planeta en este momento, y armamos a otras personas y sistemas de los que dependen, a través de la manipulación todo el tiempo. Muchos de nosotros pensamos que algo aún más inteligente que un humano, como una IA súper inteligente, actuaría de la misma manera si pudiera, y sería mejor que nosotros en eso.

No asumo que tratará de matarnos activamente.

Pero supongo que podría suceder, después de todo, la inteligencia sintética superinteligente es un problema de contexto externo, que es, como lo expresó Iain Banks con tanta elocuencia,

el tipo de cosas que la mayoría de las civilizaciones encontraron solo una vez, y que tendieron a encontrar de la misma manera que una oración encontró un punto final.

Nosotros no

Tendemos a encontrar que es más fácil escribir o filmar historias emocionantes sobre una IA poderosa que intenta matarnos con robots geniales que sobre una IA poderosa que trata de resolver problemas matemáticos o mejorar la atención médica.

Porque creemos firmemente en el director de ‘supervivencia del más apto’. Creemos inherentemente que si una especie es mejor que nosotros, incluso si no quieren acabar con nosotros a propósito, la madre naturaleza nos pondrá en el camino de la extinción eventualmente. Supongo que es nuestro miedo subconsciente lo que nos lleva a pensar de la misma manera sobre la inteligencia artificial inteligente.