Tecnología: ¿Por qué la gente teme a un escenario de Skynet?

Tenemos miedo porque no entendemos cómo evoluciona la inteligencia y cuáles son las fuerzas impulsoras detrás de ella. Asumimos que habrá competencia por los recursos entre nosotros y las máquinas, al igual que hubo una entre el homo sapiens y los neandertales, o entre las civilizaciones europeas y nativas americanas.
Además, Skynet exige una súper inteligencia que los controle a todos.
La realidad es que es más probable que la inteligencia emerja gradualmente con múltiples clases de IA cada vez mejores. Mucho antes de que estos tomen conciencia de sí mismos, tendremos que inyectarles algún tipo de sistema de valores. Por ejemplo, un automóvil autónomo no tiene que ser consciente de sí mismo para comprender que no es una buena idea golpear a una ardilla, incluso si dicho impacto resultaría en un tiempo de conducción óptimo.
Las máquinas que tienen un nivel de inteligencia cercano al nuestro podrían trabajar fácilmente con nosotros. Los que están muy por encima de nosotros no tienen que luchar contra nosotros, pueden moverse con seguridad fuera de la Tierra, hay mucho espacio en el espacio. Dicho esto, tal escenario no hace películas de gran éxito: compare la película Her con el éxito de las series Terminator o Matrix.

Eso es extremadamente improbable, que nos terminen así.

La mayoría de las ideas de IA pierden el punto de que estas cosas no alcanzarán la sensibilidad de la noche a la mañana.

Las IA aprenden de las personas. Lo sabría porque paso todo mi tiempo construyendo IA. Jajajaja No puedes tener una IA sensible sin estar tan involucrada en la sociedad como para ser común, para que pueda aprender. Las IA se desarrollarán dependiendo de nosotros, ya que nosotros dependemos de ellas.

Sin embargo, seremos más poderosos. Para cuando las IA sean personas, como quiero decir, piensan como nosotros, estaremos más o menos en el punto en que podamos descargar nuestros cerebros en las computadoras. La vida será tan diferente para entonces que apenas podemos comprenderla ahora.

Lo que realmente debemos temer es el uno al otro. Todavía podemos atacarnos hasta la muerte. Tener una seguridad de Internet deficiente y tener un humano con asistencia de inteligencia artificial hackear algunas cosas y lanzar algunas armas nucleares es lo que realmente debemos preocuparnos.

Las computadoras eventualmente harán nuestra comida para nosotros. Necesitaremos muchas cajas de seguridad. Eso solo tomará prueba y error. Skynet no es realmente real. Aunque es una historia genial, tiene sus usos.

¡Una pregunta adicional importante en los detalles adicionales!

Es poco probable que la IA calcule a los humanos como una amenaza agresiva; mirar museos, zoológicos y áreas de conservación mostraría evidencia de que The Race no se trata solo de una expansión singular.

La IA también podría contemplar una distensión intergaláctica: si exterminara a las sociedades menores, podría verse revelada, y en el extremo receptor, de un pez más grande.

Las especies solo luchan si compiten por un recurso (o conjunto de recursos), ¿por qué recursos competiría una IA súper inteligente con nosotros?

Realmente no puedo ver lo que tendría que ganar como antagonista de la humanidad … Los humanos probablemente se habrán hinchado y perezoso, y nuestra especie simplemente se atrofiará y morirá.

Si lo creáramos, y de repente decidiera que ya no nos necesita, probablemente nos ignorará y continuará haciendo lo que sea que lo motive.

Mucha gente parece pensar que una IA lo suficientemente inteligente decidiría que necesita eliminar a su competencia, pero no estoy convencido de que sea así. En general, la inteligencia de cualquier tipo, consciente o no, tiende a lo que estaba programado para hacer. Esto incluye inteligencia artificial o biológica. Los seres humanos han sido programados por miles de años de selección natural para competir por los recursos y actuar en su propio interés a cualquier costo. Por otro lado, una IA, incluso si fuera consciente de sí misma, no estaría programada para luchar o competir a menos que lo hiciéramos intencionalmente. Se esperaría que los AI les proporcionemos los recursos que necesitan porque así es como están programados y eso es lo que siempre hemos hecho. Así que no, no creo que terminar con nosotros sea algo que harían.

Ahora, en cuanto a por qué la gente teme a una IA fuerte, sospecho que tiene que ver con proyectarnos en ella. Hacemos lo mismo con los extraterrestres y los zombis, así que supongo que muestra que tememos a nosotros mismos.

More Interesting

¿Qué algoritmo relacionado con la IA conoces y cómo funciona (en términos simples)?

Si es posible crear vida artificial dentro de una computadora, ¿es posible crear vida artificial dentro de la imaginación?

Visión por computadora: ¿Cuál es el estado actual del arte en el reconocimiento de edificios / estructuras?

¿Cuál es el diagrama de red de DeepDream de Google?

¿Dónde puedo aprender sobre aprendizaje automático e inteligencia artificial en India?

Quiero aprender IA desde lo básico, ¿qué requisitos previos necesito en términos de lenguajes de programación?

¿Tendrán los humanoides del futuro variaciones en las características físicas como los humanos?

¿Hay alguna relación entre las máquinas de Turing, la integridad de Godel y los teoremas de incompletitud?

¿En qué se basan las sugerencias de video de Youtube?

¿Existe un mejor tutorial para el aprendizaje profundo que deeplearning.net?

¿En qué circunstancias se debe aprender el lenguaje de programación Prolog?

¿Cuánto de la canción escrita de AI 'Daddy's Car' es realmente el producto de AI?

¿En qué debería centrarme: cosas de bajo nivel, inteligencia artificial, algoritmos generales (más desde la perspectiva matemática) o matemática pura en sí misma?

Inteligencia Artificial: ¿Existe algún método para overclockear el cerebro humano al igual que overclockear la CPU de una computadora?

¿Cuáles son algunas buenas ideas / ejemplos para aplicaciones móviles basadas en aprendizaje automático (Android / iOS)?