A pesar de saber que la inteligencia artificial es peligrosa, ¿por qué investigamos y hacemos robots con IA?

Cualquier tecnología tiene riesgos potenciales proporcionales a sus beneficios potenciales. Son los beneficios los que hacen que los responsables políticos, las instituciones de investigación y las empresas inviertan dinero y esfuerzo humano en el desarrollo de la IA. (Por cierto, felicitaciones por reconocer que los robots, por sí mismos, no son peligrosos a escala social).

Los intentos de obstaculizar tales avances son como bloquear un río. El río encontrará otra ruta; esta alrededor del bloqueo y posiblemente peor. (El esfuerzo estadounidense para limitar la investigación con células madre, no iniciado para prevenir el peligro sino por razones morales, tuvo el efecto de trasladar la investigación pionera a países menos restrictivos).

La IA es quizás la tecnología más poderosa que la humanidad desarrollará. Por lo tanto, es potencialmente el más beneficioso y el más peligroso. Sin embargo, a diferencia de todas las otras tecnologías, esta puede tener su propia bifurcación de “singularidad”. (Nota: esto es diferente al concepto común de Singularidad).

Ahora tenemos IA no consciente de sí misma y PUEDE seguir pronto a la IA consciente de sí mismo. El primer tipo no representa una amenaza directa para la humanidad; puede ser indirectamente peligroso, pero solo se basa en instrucciones dadas por maestros humanos. Es una extensión de las motivaciones humanas.

La IA consciente de sí misma tendrá sus propias motivaciones. Es el material de todo tipo de SF distópica; notablemente la serie Terminator y Matrix. He escrito por qué, de hecho, no representa una gran amenaza para la humanidad aquí: http: //www.acelebrationsociety.c…

En mi opinión, la IA no consciente de sí misma representa una amenaza mucho mayor para la humanidad que la IA consciente de sí misma, porque un grupo despiadado de humanos podría usarla para amenazarnos al resto de nosotros. A diferencia de la IA de hoy, que está programada para participar en los asuntos humanos, la IA consciente de sí misma probablemente tendrá poco interés en los asuntos de la humanidad.

Sin embargo, tendrá un gran interés en todas las actividades que puedan dañar o destruir la infraestructura básica de la que dependerá. El logro de una IA consciente de sí mismo puede, por lo tanto, tener un efecto protector sobre la humanidad.

Déjame hacer algunas declaraciones.

  1. La IA es peligrosa. Cualquier robot, animal y alienígena que sea más inteligente que nosotros es peligroso debido a su capacidad para destruirnos. No es que nos destruyan, pero el hecho de que puedan destruirnos es una preocupación seria y seria y diría que cualquier forma de vida que pueda destruirnos tendrá un 50% de posibilidades de hacerlo a largo plazo.
  2. La IA es alcanzable. La diferencia entre un cerebro humano y un cerebro animal es el grado de sofisticación. Digamos que los humanos tienen 100 veces más neuronas que los animales. Si a través de la cría selectiva o la ingeniería genética aumentamos las neuronas en los cerebros de los animales 100 veces, podemos producir animales inteligentes tan inteligentes como nosotros. Por lo tanto, no hay una diferencia fundamental entre un cerebro humano y un cerebro animal. Del mismo modo, no hay una diferencia fundamental entre una computadora moderna y una IA. Si podemos aumentar la velocidad de cálculo de la computadora y la memoria en mil millones de veces, tendremos IA. Aunque la IA puede adoptar otras formas de “computadoras”.
  3. Los humanos no prestarían suficiente atención al peligro hasta que ocurra. Para entonces, sería difícil decir que es demasiado tarde o no. Los humanos no están programados para evitar el peligro a toda costa. Por ejemplo, los montañeros subirían una montaña incluso si supieran que hay un 20% de posibilidades de que mueran. En la evolución animal, los animales necesitan arriesgarse a veces para explorar nuevas oportunidades, por ejemplo, muchos animales corren el riesgo de luchar hasta la muerte para tener la oportunidad de aparearse. Por lo tanto, los animales a menudo se arriesgan a explorar nuevas oportunidades y el desarrollo de IA no es una excepción. Sin embargo, las acciones de algunos individuos humanos para desarrollar IA eventualmente matarán a todos los humanos. Es solo un daño colateral.

“A pesar de saber que la inteligencia artificial es peligrosa …”

Su pregunta es defectuosa desde las primeras palabras. La idea de que la IA es peligrosa es una idea difundida por la ficción y la especulación, no por la investigación real.

El único peligro es un humano (o grupo de humanos) que usa una IA como arma. La idea de que una IA decidirá independientemente “atornillar a los humanos” y tratará de matarnos a todos es un miedo ficticio similar a una invasión zombie sin fundamento en la realidad.

Tratamos de vincular el razonamiento humano defectuoso y la ignorancia a algo que no es humano. ¿Cómo eso tiene sentido?

La única forma en que la IA consciente de sí mismo podría suceder es si el misterio / milagro de la vida misma está contenido en productos químicos u otras sustancias inanimadas. Hasta ahora no hay evidencia para apoyar esto, y una gran cantidad de evidencia para apoyar la idea de que solo la vida puede engendrar vida. Hay una mejor posibilidad de que las plantas de tomate en su jardín ganen sensibilidad que un robot, ya que la planta de tomate ya está viva. (Las plantas de tomate no se mueven muy rápido, por lo que incluso si crean una rebelión, probablemente estés a salvo).

No me malinterpreten, disfruto de una buena historia de “robot con alma” tanto como el próximo fanático de la ciencia ficción, pero no creo por un minuto que vaya a suceder.

Supongo que te refieres a AGI, porque los robots con IA estrecha no son más peligrosos que el martillo; puedes lastimarte solo si otro humano te ataca con él, nunca has clavado un clavo antes o eres descuidado.

¿Por qué peligroso? ¿ Eres peligroso?

¿Por qué la gente investiga? Curiosidad. Si estás investigando algo, matar al gato no es el objetivo. Podemos tener bombas nucleares, pero también tenemos plantas nucleares.

Tengo que preguntar por qué crees que la IA es peligrosa. Si te basas en la ficción popular, estás tristemente equivocado.

La IA no es más peligrosa que un rifle cargado. Todo depende de quién lo esté sosteniendo.