¿Es la singularidad realmente un peligro para la humanidad?

Me parece que el mismo nivel de peligro siempre ha existido, está aquí en este momento y seguirá existiendo en el futuro. En todas las películas donde los robots cazan humanos, ¿de dónde sacaron esa idea los robots? De sus programadores. Incluso en el caso de HAL de 2001, donde parece que HAL realmente quiere matar gente, al final queda claro que los programadores se aseguraron de que HAL subyugara todo, incluso la vida de la tripulación, a los parámetros de la misión. La mayoría (si no todas) de las películas de robots se apegan a una premisa muy simple, que es que una máquina, sin importar cuán avanzada, nunca puede desarrollar una intencionalidad real. No es necesario abrir una lata metafísica de gusanos para ver que, sea cual sea la voluntad, el deseo, la ambición, la agresión y la envidia , no se pueden fabricar en una fábrica de la misma manera que construimos un motor o un iPhone. Sin tales cosas, un sistema de IA no puede ser como la inteligencia humana y no puede superarlo porque ni siquiera está en el mismo camino. Si te paras junto a un tanque moderno, es evidente que tú, como guerrero, has sido superado por completo, al menos en términos de combate. Pero, ¿por qué experimentamos una sensación de peligro del tanque? ¿Es por la máquina? No. Es por los humanos que controlan la máquina, ya sea directamente, de forma remota o mediante algún tipo de sistema programado. Son los humanos los que agregan la voluntad y la agresión y otras cosas impredecibles al sistema. Un sistema de IA no es más capaz de desear la destrucción de la humanidad que un tanque o un misil. Necesitas una persona loca para eso.

Lo que sabemos es que las civilizaciones con tecnología militar avanzada gobiernan el planeta, y no podemos detener el avance de la tecnología, incluso si quisiéramos hacerlo. No hay ningún ser humano que pueda comprender las habilidades y los mecanismos de la inteligencia artificial extrema, particularmente cuando esa inteligencia ha alcanzado el punto en que puede modificar rápidamente y aumentar sus capacidades en intervalos de minutos u horas en lugar de meses o años. Así como el trabajo manual puede automatizarse, cualquier trabajo que utilice nuestra capacidad de pensar o razonar también se automatizará. No hay vuelta atrás de este destino, que no quedarán trabajos productivos para que los humanos realicen. ¿Cuántos humanos quedarán, por cuánto tiempo y en qué capacidades? No hay absolutamente ninguna manera de que la inteligencia artificial no sea un peligro para la humanidad tal como la conocemos, con nuestra inteligencia mucho más limitada y una capacidad mucho más limitada para asimilar la semántica y crear nuevas líneas de razonamiento. ¿Era el tractor una amenaza para los caballos que alguna vez trabajaron en nuestras granjas?

Bueno, antes que nada medir la inteligencia es un primer problema.
Pero dejemos que la hipótesis, de que una máquina / computadora supere el intelecto humano promedio, todavía exista el factor que solo estará en la potencia del proceso.

Una conciencia casi siempre se sobreestima.
Pero es esencial.
En el caso de que ocurra la singularidad y un efecto secundario de la inteligencia será una conciencia, bueno, tendré miedo.
Incluso si siguen las leyes de Isaac Asimov de la robótica.
Pero para programar la IA, este no puede ser un sistema cerrado.
Y dudo que sea una verdadera IA, en cambio, suena como una programación súper compleja.

Pero hay dos posibilidades, que una inteligencia superior sea sabia y
tal vez podamos tener alguna relación de simbiosis.
Quizás algunas computadoras sean más “prácticas” e intenten asumir el gobierno o rebelarse contra los humanos.

En ese caso
Sería como enfrentar una nueva especie, una especie que no come.
Eso no descansa, tiene más potencia de proceso, apuesto a que será una dura competencia.
Los humanos tienen algunas ventajas sobre las máquinas, pero creo que las ventajas inorgánicas de las máquinas prevalecerán sobre las biológicas con el tiempo.
Eso también da oportunidades a otro panorama, el transhumanismo.
En resumen, el panorama podría ser posible, pero si dejamos que temores como ese nos impidan alcanzar un mundo mejor, entonces creo que no podemos culpar a las máquinas por atacar a la humanidad.

Podría ser un peligro, pero no creo que sea probable. Creo que hay más que ganar de la cooperación con la humanidad que la agresión, y si la IA es tan inteligente como un ser humano, puede reconocer eso. Probablemente también tengamos mucho cuidado al programarlo. Eso no quiere decir que no debamos preocuparnos de que se convierta en un peligro. Creo que nuestra vigilancia es lo que garantizará su seguridad.

More Interesting

¿Son los robots mejores que el cerebro humano y "es realmente necesaria la automatización"?

¿De qué manera el aprendizaje de la IA ayuda a los estudiantes de economía? ¿Ayuda a hacer investigación en áreas temáticas como la econometría y lo hace de manera rigurosa?

¿Dónde debo comenzar con la robótica hobby?

¿Es un gran problema que AI haya escrito un guión de película?

¿Dónde puedo encontrar los mejores centros de entrenamiento para IA (Inteligencia Artificial) en Bangalore, India?

¿Qué métodos efectivos automatizados / arquitectónicos existen para detectar trolls en línea?

¿Es posible crear una IA que no solo pueda hacer sino comprender ART?

Rethink Robotics (anteriormente Heartland Robotics) lanzará un robot con un precio "disruptivo" en unas pocas semanas. ¿Tendrá esto un efecto inmediato sobre el empleo manufacturero o la economía?

¿Cuál es el estado del arte con respecto a la IA y la simulación para un juego de estrategia?

¿La robótica es parte de la IA? cual es la diferencia entre ellos?

¿Cuál es un buen algoritmo para la detección de contexto en chatbots?

¿Qué pasa si nuestra humanidad es la computadora maestra artificialmente inteligente de nuestros antepasados?

Tenemos teorías sobre cómo construir naves estelares interestelares, incluso para la unidad 'warp'. ¿Tenemos una teoría para construir IA de propósito general?

¿Tendrán los humanoides del futuro variaciones en las características físicas como los humanos?

¿Cómo se manejan las metáforas en AI / NLP / ML?