¿La inteligencia artificial causaría vulnerabilidad para la próxima generación?

Sí, porque ” No sabemos cómo controlar máquinas superinteligentes”.

Una vez que los programas de computación crezcan lo suficientemente avanzados como para enseñarse ciencias de la computación, podrían usar ese conocimiento para mejorar, causando una espiral de superinteligencia cada vez mayor.

En tan solo una década, la inteligencia artificial podría igualar y luego superar la inteligencia humana. Las corporaciones y las agencias gubernamentales de todo el mundo están invirtiendo miles de millones para lograr la inteligencia del Santo Grial de AI a nivel humano. Una vez que la IA lo haya logrado, los científicos argumentan que tendrá unidades de supervivencia muy parecidas a las nuestras. Es posible que nos veamos obligados a competir con un rival más astuto, más poderoso y más extraño de lo que podemos imaginar.

Podremos hacer mejores máquinas para la destrucción con la ayuda de AI

La IA es más controvertida cuando se trata de sus aplicaciones militares. Los robots de batalla y los drones son prioridades clave con otra tecnología de estilo de ciencia ficción como HAL, un traje que le da al usuario el poder de 10 hombres, y Petman de Boston Dynamics, un antropomórfico robot utilizado para probar ropa de protección química. Algunos creen que desarrollos como estos significan una carrera armamentista no reconocida entre las naciones que invierten fuertemente en IA.

Nos ayudará a crear un futuro aterrador

Si bien la inteligencia artificial está alcanzando rápidamente velocidades de computación formidables, uno de sus mayores desafíos es desarrollar el tipo de procesamiento complejo que parece tan fácil cuando los humanos lo hacen.

Para una computadora, multiplicar dos números de 10 dígitos al instante es fácil; sin embargo, mirar a un perro y decidir si es felino o canino es increíblemente difícil. La prueba de Turing fue desarrollada por el matemático Alan Turing para medir la capacidad de una máquina de exhibir un comportamiento inteligente equivalente al de un humano.

Entre las empresas tecnológicas que buscan superar la Prueba de Turing, Google se ha convertido en una importante fuerza de inteligencia artificial, invirtiendo cientos de millones de dólares en empresas de inteligencia artificial DeepMind y empresas de robótica como Boston Dynamics. Los inventos de Google incluyen autos sin conductor y robots humanoides que suben escaleras, completos con mascotas extrañas y robóticas.

¿La IA conducirá a un gran desastre o una toma de control del robot que destruirá a la humanidad?

Un conflicto nuclear entre Corea del Norte y Estados Unidos provocaría la muerte de millones. A corto plazo, la IA no va a conducir a algo peor que eso. Las tecnologías de IA de hoy simplemente no están lo suficientemente avanzadas o lo suficientemente integradas en nuestra sociedad para que eso suceda.

Pero a largo plazo, las perspectivas son menos claras. Las tecnologías de IA se están desarrollando rápidamente y también sus riesgos asociados. La IA aplicada a la guerra y la vigilancia es ciertamente una preocupación. Los robots armados autónomos, que pueden rastrear y atacar a las personas utilizando un software de reconocimiento facial, están a la vuelta de la esquina. Suelta, tales máquinas seguirían matando hasta que se quedaran sin objetivos o municiones. Esto nos recuerda que la IA no tiene conciencia social, conciencia, misericordia o remordimiento. Simplemente hace lo que ha sido entrenado para hacer.

Los sistemas basados ​​en IA están comenzando a reemplazar o mejorar muchos trabajos de cuello blanco que actualmente son realizados por expertos humanos. Esto se debe a que la IA puede interpretar situaciones y hacer mejores llamadas que los humanos en esos trabajos. Por ejemplo, las máquinas de IA son mejores para detectar los signos de cáncer en una exploración médica que los mejores radiólogos.

Mala gobernanza: la mayoría de los problemas enumerados anteriormente requerirían algún tipo de acción coordinada global para abordar. El cambio climático es el ejemplo más destacado, pero en el futuro cosas como la nanotecnología y la regulación de la IA necesitarían ser coordinadas internacionalmente.

El peligro es que las estructuras de gobernanza a menudo fallan y a veces terminan exacerbando los problemas que intentaban solucionar. Un fracaso de la política en el tratamiento de una amenaza que podría causar la extinción humana tendría, por lo tanto, un efecto muy negativo.

El quid del problema es que no sabemos cómo controlar las máquinas superinteligentes. Muchos asumen que serán inofensivos o incluso agradecidos. Pero una importante investigación realizada por el científico de IA Steve Omohundro indica que desarrollarán unidades básicas. Ya sea que su trabajo sea extraer asteroides, recoger existencias o administrar nuestra infraestructura crítica de energía y agua, se volverán autoprotectores y buscarán recursos para lograr mejor sus objetivos. Lucharán contra nosotros para sobrevivir, y no querrán ser apagados. La investigación de Omohundro concluye que las unidades de las máquinas superinteligentes estarán en curso de colisión con las nuestras, a menos que las diseñemos con mucho cuidado.

Sí lo hará Como cualquier tecnología. Comencemos con lápiz y papel. Inicialmente estaba destinado a transferir información de generación en generación. Pero con el tiempo se utilizó la tecnología del papel de pluma para transmitir el conocimiento sobre la creación de cualquier tipo de arma. ¿La pluma y el papel causan vulnerabilidad para la próxima generación? Sí. Considere otro ejemplo. Cuchillo. Inicialmente fue creado para cortar trozos de carne. Pero luego se transformó en espadas para matar gente. En comparación con los cuchillos y las espadas de palo, causaron muchas vulnerabilidades e incluso la muerte de personas. Otro ejemplo de avión. ¿Cuál fue su propósito original? Para llevar personas de una ciudad a otra más rápido. Creo que será redundante mencionar cómo se usaron los aviones en las guerras. Esa es la tendencia humana: abusar de la tecnología. Y la IA no es una excepción. Es solo la continuación de lápiz y papel, cuchillo, espada, avión.

Posiblemente. Lo más probable es que las personas hagan un mal uso de la inteligencia artificial de formas que causen vulnerabilidad para las próximas generaciones. Lo que “cuenta” como IA (a diferencia del análisis de big data, por ejemplo) es un objetivo en movimiento. Podría decirse que ya hemos visto un resultado horrible de la IA: cuentas falsas e historias falsas generadas y dirigidas a votantes en el Reino Unido y los EE. UU. Para votar Brexit en el caso del Reino Unido y para “elegir” un POTUS sin deseo o compromiso de hacer lo mejor para los Estados Unidos. Es probable que ambos estén patrocinados por una combinación de avaricia monetaria y Putin, a quienes les encantaría * reconstituir la URSS y gobernar eso. Debilitar al Reino Unido, la UE y los EE. UU. Lo haría posible. También hay muchos otros escenarios desagradables de #AI, de los cuales un par de docenas constituyen las Pesadillas de Turing.

http://tinyurl.com/hz6dg2d

El cambio tecnológico en sí mismo es solo un medio, una herramienta en manos de los humanos. Cualquier cambio tecnológico puede ser destructivo o productivo en función de cómo lo use o mal use el ser humano. Hemos visto ejemplos del uso y mal uso de la tecnología en el pasado y continuaremos viéndolos en el futuro.

La IA no es una excepción a eso. Los humanos deben ser más responsables para permitirle desarrollar la dirección correcta y evitar que vaya en direcciones incorrectas.

Cualquier tecnología nueva parece peligrosa para las personas que no están acostumbradas. Pero eventualmente, ayuda a la raza humana a avanzar más rápido al no perder tiempo en cosas que las máquinas pueden hacer.