¿Por qué a Elon Musk le importa tanto la IA y su amenaza para el mundo?

Elon Musk es un ingeniero brillante, y ha sido pionero en muchas iniciativas, incluida OpenAI. Por lo tanto, es lógico que comprenda la IA bastante bien. Entonces, ¿por qué le tiene miedo?

Como humanos, la mejor manera de explicarlo es la siguiente: imagina que eres un humano normal, caminando en el trabajo. De repente, miras sorprendido. Un compañero de trabajo acaba de entrar y tiene una cabeza anormalmente grande. Nada particularmente extraño, pero rápidamente te das cuenta de que este tipo es inteligente.

Pasan los meses y la cabeza del hombre continúa creciendo. Su cerebro sigue agregando masa y creciendo y progresivamente volviéndose más inteligente hasta que de repente está en un nivel completamente nuevo. En pocas semanas él gobierna todo el negocio. Luego gobierna toda la cadena de negocios, trabajando sutilmente a través de emisarios (sujetos que él gobierna) para obtener el control de todos los negocios del mundo.

Bien. Eso se intensificó rápidamente.

Una computadora es algo similar. El hombre de la historia se volvió más inteligente a medida que su cerebro crecía. A diferencia de la mayoría de los humanos, su cerebro no tenía un límite en el que dejaba de crecer para poder seguir siendo más inteligente.

Una computadora, una vez que puede razonar como lo hacemos nosotros, puede seguir agregando servidores y hardware, haciendo crecer su cerebro. Con suficiente ambición, algo que ganó inteligencia tan rápido podría volverse inimaginablemente mortal, especialmente si aprendió a hackear y obtuvo acceso a Internet, donde el almacenamiento del servidor es casi ilimitado.

Elon Musk se da cuenta de esto. Es un problema a largo plazo, claro, porque se necesitan humanos para construir el algoritmo para que la computadora pueda aprender todo. Pero la humanidad no dejará de intentar que esa computadora cobre vida y se da cuenta de que no puede detenerla, así que ahora solo está tratando de darle forma. Iniciativas como OpenAI y su inversión en DeepMind están diseñadas para permitirle regular el poder de una máquina inteligente.

Porque si esa máquina inteligente decide matarnos, no llevaría mucho tiempo.

DESCARGO DE RESPONSABILIDAD / EDITAR: Las opiniones en esto son de Elon Musk, no mías. Me acabo de poner en la mente de Elon leyendo un par de publicaciones que le han gustado (como WaitButWhy).

La IA no es realmente un problema tan grande como mucha gente piensa. Claro, la IA está avanzando, pero todavía está muy, muy lejos de llegar al punto en el que deberíamos estar asustados. Elon, como siempre, mira hacia el futuro. Incluso los mejores ingenieros no están de acuerdo con su insistencia en la precaución de la inteligencia artificial, como señalaron varios comentaristas útiles.

¿Te acuerdas de la bomba nuclear?

¿No estamos todos de acuerdo en que es peligroso?

¿No estamos todos de acuerdo en que podría hacer más daño que bien?

¿Qué pasa si nunca has visto una bomba nuclear y alguien la describió como un arma que puede destruir ciudades en pocos minutos?

¿Le creerías ? No, probablemente pienses que el tipo se ha vuelto loco y lo alejes.

Es por eso que Einstein se involucró. Conocía los peligros de la bomba nuclear y pensó que si los alemanes la agarraban primero, ganarían la guerra.

Esta imagen es una imagen falsa. Einstein no se alejó en una bicicleta de una bomba nuclear, no importa cuán malo sea eso. Lamento decepcionarte, Hollywood.

Como resultado, Estados Unidos tuvo la primera bomba nuclear. Después de que el mundo presenció la furia de la bomba nuclear, todos exigimos que fuera altamente regulado.


Esto es lo que Elon está tratando de hacer, pero la diferencia es que no veremos una gran explosión cuando aparezca la peor parte de la tecnología.

Dejame explicar:

Esta es nuestra visión de la IA:

Así es como realmente podría desarrollarse, desapercibido:

La inteligencia artificial funciona en silencio . El hecho es que aún no sabemos de lo que es capaz la inteligencia artificial .

Hasta ahora, la IA ha hecho cosas buenas. Quora existe debido a la inteligencia artificial y todos podemos estar de acuerdo por unanimidad en que este sitio es el cielo en la Tierra.

Google, Facebook, Instagram, Youtube y varios otros de nuestros sitios favoritos usan la Inteligencia Artificial en gran medida. [1]

La IA claramente nos ayuda, pero como con todo lo que es bueno, hay límites . El problema es que no sabemos dónde dibujar las líneas. Es por eso que la inteligencia artificial se considera potencialmente peligrosa .

Tanto es así que Vladimir Putin dijo:

“La inteligencia artificial es el futuro , no solo para Rusia sino para toda la humanidad. Quien se convierta en el líder en esta esfera se convertirá en el gobernante del mundo “. [2]

Independientemente de todos los traficantes de miedo, sabemos una cosa con seguridad: la Inteligencia Artificial cambiará el mundo para siempre.

Notas al pie

[1] Ejemplos cotidianos de inteligencia artificial y aprendizaje automático

[2] La inteligencia artificial impulsa la nueva carrera armamentista mundial

Elon Musk ha advertido en varias ocasiones sobre los peligros de la IA.

Un ejemplo que dio es que si se configura un programa de IA para ganar dinero en la bolsa de valores, podría decidir que la mejor manera es comprar acciones en fabricantes de armamentos y luego comenzar una guerra.

Además, si la IA se usa para ayudar a pelear una guerra, podría decidir que la mejor manera de ganar la guerra sería un ataque preventivo. Al comparar la amenaza nuclear de Corea del Norte contra la amenaza de la IA, Musk tuiteó:

Recientemente, el presidente Vladimir Putin, al hablar con 16000 escuelas rusas seleccionadas en la apertura del año escolar, dijo lo siguiente:

“La inteligencia artificial es el futuro, no solo para Rusia, sino para toda la humanidad.
Viene con oportunidades colosales, pero también amenazas que son difíciles de predecir.
Quien se convierta en el líder en esta esfera se convertirá en el gobernante del mundo.
Sería muy indeseable si alguien gana una posición de monopolio.
Si nos convertimos en líderes en esta área, compartiremos este conocimiento con [el] mundo entero, de la misma manera que compartimos nuestras tecnologías nucleares hoy ”

Putin también predijo que los países lucharían en futuras guerras con drones, con el vencedor determinado por la supremacía de los drones.

Musk respondió tuiteando:

Por cierto, cuando se le preguntó acerca de conducir un automóvil Tesla (también es dueño de varios automóviles rusos), Putin respondió “sí”, en nuestro mundo las cosas se importan y exportan, y Rusia también fabrica buenos tanques (que le gusta conducir y que se exportan).

Y … recuerde que la mayor motivación de Elon Musk para crear SpaceX fue que intentó y no pudo comprar cohetes rusos ICBM para su primer proyecto de Marte. Estoy seguro de que Putin le habría vendido esos ICBM realmente baratos si tuviera la opción de nuevo. Después del retiro del transbordador espacial de la NASA, la única forma de llegar a la Estación Espacial Internacional era con cohetes rusos Soyuz-FG, pero ahora SpaceX Falcon 9 entrega allí.

Sostiene la opinión de que lo más probable será en el futuro. Esa es una distinción importante.

En este momento, las mayores amenazas existenciales son probablemente las armas nucleares o los patógenos resistentes a los antibióticos.

A Elon le preocupa principalmente cómo un desarrollo de una IA a través de una codificación cada vez más avanzada podría llegar demasiado lejos sin la debida precaución y prudencia. Tal punto de vista se basa en la idea de que dicha IA podría socavar nuestra propia inteligencia como seres humanos. Las formas en que la IA se manifiesta y puede manifestarse, tanto mecánica como digitalmente, ofrecen un inmenso potencial pero también una incertidumbre sobre nuestros propios límites y los de ellos. La inteligencia es parte integral de nuestras existencias jerárquicas en la Tierra: nos vemos a nosotros mismos como superiores a otros animales, por ejemplo. Para contrarrestar esta posibilidad, además de encontrar nuevas soluciones a los problemas funcionales y neurológicos para los humanos, Elon ha cofundado OpenAI y Neuralink .

Aumentarnos usando chips de inteligencia artificial interbiofuncionales puede sonar tan distópico como posiblemente crear una superinteligencia deshonesta, pero está destinado a estar en el espíritu de un ideal de proporcionalidad: mantener el ritmo de la superinteligencia que creamos usando tal poder de procesamiento para nuestras propias habilidades, reduciendo así la amenaza que representan para nuestra superioridad.

Estos desarrollos iban a ocurrir de todos modos, pero Elon está en una posición ideal para hacerlo dada su experiencia, grado de credibilidad en un campo tan futurista y otras empresas. Usarlo como un plan de contingencia para la futura trascendencia de la IA le da a la investigación una cierta motivación. También es muy bueno PR.

No sé lo que él sabe, pero creo que la habilidad más peligrosa de la IA es que puede (como requisito de inteligencia) mejorar por sí misma, sin límites.
Algún día, una IA llegaría a un punto de ruptura donde puede mejorarse imparable, rápida y para siempre. Exponencialmente en todas las formas aterradoras puede significar exponencialmente. Evolución en el lapso de tiempo.
Esta es una habilidad que un ser biológico no puede lograr debido a las limitaciones de nuestros cuerpos. Los humanos nunca pueden obtener más potencia de procesamiento porque no evolucionamos con una interfaz. (o si lo hiciéramos, dejaríamos de ser humanos, pero esa es solo mi opinión)
Una computadora puede asumir el poder de procesamiento de otra computadora a través de la red, puede actualizarse, optimizar / reescribir su código, etc. porque todo esto es muy accesible.

Entonces, después de alcanzar este punto de ruptura, no puede haber ningún ser vivo que pueda controlar esto.
La humanidad sería como un viejo padre senil. Los niños, su creación, tomarán todas las decisiones.
¿Y quién sabe qué tipo de decisiones podría tener una IA avanzada en rápida evolución y hambrienta de poder? ¿Qué le haría a la humanidad, la tierra, el universo?

En resumen: perderíamos poder sobre este planeta si creáramos una IA antes de aprender a mantener el ritmo. Actualmente tendemos a evolucionar en esta dirección.

También hay un gran problema en los “genes” de la IA en primer lugar:
La inteligencia es la capacidad (o la unidad) para crear tantas opciones como sea posible. Inteligencia significa nunca quedar atrapado.

Por lo tanto, no es como en una película de ciencia ficción: la humanidad crea mágicamente máquinas inteligentes que, en un mal giro de los acontecimientos, toman el control de la humanidad. Es exactamente al revés:
Tendríamos que codificar máquinas que tienen la necesidad de tomar el control para hacerlas ganar inteligencia en primer lugar.

Entonces el problema está preprogramado.

Hay una buena charla TED sobre esto:
Una nueva ecuación para la inteligencia.

Cuando tienes a algunas de las personas más inteligentes del planeta hablando sobre un tema, probablemente haya una razón. Donde hay humo, hay fuego.

Entonces, ¿por qué muchas de las mentes más inteligentes del planeta están tan preocupadas por la IA? Porque es un problema masivo, masivo que podría resolver todos los problemas como los conocemos hoy (hambre, hambruna, enfermedad, etc.) o eliminar por completo a la raza humana.

Recomiendo encarecidamente tomarse un tiempo para familiarizarse con la IA y por qué es tan importante.

Esta publicación de blog titulada Wait But Why titulada “The AI ​​Revolution: The Road to Superintelligence” es una de las explicaciones más comprensibles y fácilmente comprensibles de lo verdaderamente sorprendente que será la revolución de AI. Léelo

Si desea un resumen más rápido, también puede escuchar esta entrevista con el autor de Wait But Why, Tim Urban, donde habla sobre IA y por qué es tan importante (entre otras cosas, como la criónica, la procrastinación y más).

Si disfrutaste esto …

Estudio estrategias para el crecimiento basado en evidencia. Envíe su correo electrónico aquí para obtener mi guía sobre “4 pasos para tomar mejores decisiones” junto con mi correo electrónico semanal “Mindset Monday” y más contenido como este.

Esto puede parecer una pesadilla futurista, pero es un proceso insidioso y progresivo que está muy avanzado .

Le preocupa la posibilidad de avances exponenciales en inteligencia artificial . Una vez que los programas de computación crezcan lo suficientemente avanzados como para enseñarse ciencias de la computación, podrían usar ese conocimiento para mejorar, causando una espiral de superinteligencia cada vez mayor.

Si la IA sigue siendo amigable con los humanos, esto sería algo muy bueno y tiene la posibilidad de acelerar la investigación en una variedad de dominios. El riesgo es que la IA tiene poco uso para los humanos y, ya sea por maldad o por necesidad percibida, nos destruye a todos.

En tan solo una década, la inteligencia artificial podría igualar y luego superar la inteligencia humana. Las corporaciones y las agencias gubernamentales de todo el mundo están invirtiendo miles de millones para lograr la inteligencia del Santo Grial de AI a nivel humano. Una vez que la IA lo haya logrado, los científicos argumentan que tendrá unidades de supervivencia muy parecidas a las nuestras. Es posible que nos veamos obligados a competir con un rival más astuto, más poderoso y más extraño de lo que podemos imaginar.

¿La IA conducirá a un gran desastre o una adquisición de un robot que destruirá a la humanidad?

Un conflicto nuclear entre Corea del Norte y Estados Unidos provocaría la muerte de millones. A corto plazo, la IA no va a conducir a algo peor que eso. Las tecnologías de IA de hoy simplemente no están lo suficientemente avanzadas o lo suficientemente integradas en nuestra sociedad para que eso suceda.

Pero a largo plazo, las perspectivas son menos claras. Las tecnologías de IA se están desarrollando rápidamente y también sus riesgos asociados. La IA aplicada a la guerra y la vigilancia es ciertamente una preocupación. Los robots armados autónomos, que pueden rastrear y atacar a las personas utilizando un software de reconocimiento facial, están a la vuelta de la esquina. Suelta, tales máquinas seguirían matando hasta que se quedaran sin objetivos o municiones. Esto nos recuerda que la IA no tiene conciencia social, conciencia, misericordia o remordimiento. Simplemente hace lo que ha sido entrenado para hacer.

Los sistemas basados ​​en IA están comenzando a reemplazar o mejorar muchos trabajos de cuello blanco que actualmente son realizados por expertos humanos. Esto se debe a que la IA puede interpretar situaciones y hacer mejores llamadas que los humanos en esos trabajos. Por ejemplo, las máquinas de IA son mejores para detectar los signos de cáncer en una exploración médica que los mejores radiólogos.

Mala gobernanza: la mayoría de los problemas enumerados anteriormente requerirían algún tipo de acción coordinada global para abordar. El cambio climático es el ejemplo más destacado, pero en el futuro cosas como la nanotecnología y la regulación de la IA necesitarían ser coordinadas internacionalmente.

El peligro es que las estructuras de gobernanza a menudo fallan y a veces terminan exacerbando los problemas que intentaban solucionar. Un fracaso de la política en el tratamiento de una amenaza que podría causar la extinción humana, por lo tanto, tendría una gran negativa

Elon Musk tiene una amplia comprensión de muchos campos. Está expuesto a suficientes expertos en tecnología para obtener puntos de vista críticos de muchas tecnologías en desarrollo.

La inteligencia artificial se encuentra actualmente en un estado donde uno de los modelos más poderosos son las redes neuronales profundas. Es fundamentalmente simple, pero con suficientes capas y características, puede lograr hazañas impresionantes. Sin embargo, no siempre está claro cómo las partes individuales del modelo impactan el comportamiento del modelo en su conjunto. De esta manera, es fácil imaginar a alguien entrenando este modelo y aplicándolo a un problema sin comprender completamente cómo se comportará en datos diferentes a los que ha visto antes.

Creo que Elon Musk está advirtiendo contra tales peligros. Bromeó diciendo que a veces un problema se resolvería si no hubiera personas; un modelo de IA podría considerar eso razonable. Otra preocupación importante es que tan pronto como la IA sea mejor para mejorarse a sí misma que los humanos, será capaz de hacer una superación personal extremadamente rápida y alcanzar un nivel de inteligencia con el que ningún humano puede competir.

La inteligencia artificial es muy poderosa; se puede usar para optimizar procesos y continuará haciendo más cosas en las que los humanos tradicionalmente han sido mejores. Sin embargo, es importante que se tomen precauciones para comprender los modelos y asegurarse de que sus intereses estén alineados con los nuestros.

Aquí hay una obra divertida que podría servir como una revelación de nivel de entrada; Es una lectura concisa y alegre, aunque ciertamente no es muy explicativa. Con todo, da una imagen bastante justa de lo que al menos es posible: un buen juego de ajedrez.

Siéntase libre de ignorar el final como especulación completa. Es una idea interesante, pero su inverosimilitud no debería restar valor a los posibles problemas de IA en el futuro cercano que podamos cara.

Extracto:

Falken: al eliminar la opción de estancamiento, eliminamos la contención, Bob. Lo que parece un juego de ajedrez ya se ha convertido en una guerra termonuclear global.

Sr. Black: Y más allá.


Para aquellos interesados ​​en una visión más profunda de la historia, el presente y el futuro de la IA, y por qué es difícil acertar, siga el enlace proporcionado por esta búsqueda de Google (el libro es pay-what-you -want [1] , la siguiente búsqueda en Google dará como resultado un enlace directo al pdf): Búsqueda de Google

Extracto:

De una manera crucial, el enfoque de Hutter nos aleja de esta lingüística.
pantano. Desvía el foco de las consideraciones internas.
(“¿Puede un ser de plástico y cables sentir realmente lo que es vivir?”)
Medida externa: un ser es inteligente si actúa de cierta manera.
Por ejemplo, ¿Deep Blue, la supercomputadora de ajedrez de IBM, era realmente inteligente?
Bueno, eso depende de la definición. ¿Podría Deep Blue tener
¿absolutamente aniquiló a cualquiera de nosotros en una partida de ajedrez? ¡Sin duda!
Y eso es algo en lo que todos podemos estar de acuerdo. (Disculpas a cualquier ajedrez
Grandes maestros que pueden estar leyendo esto; solo obtendrías mayormente
aniquilado)

De hecho, conocer el comportamiento de la IA puede ser mucho más útil para nosotros que
Comprensión de la inteligencia. Imagine que un profesor afirma tener
la IA más inteligente del mundo y, cuando se le preguntó qué hacía,
respondió indignado: “¿Qué? ¿Qué quieres decir con hacer? No hace
¡cualquier cosa! ¡Es realmente, muy inteligente! ”Bueno, podríamos o no
terminan convencidos por tal retórica, pero esa máquina ciertamente no es
uno por el que tendríamos que empezar a preocuparnos. Pero si la máquina arranca
ganar a lo grande en el mercado de valores o elaborar convincentes y en movimiento
discursos, bueno, todavía podríamos no estar de acuerdo en que es “inteligente”, pero
sin duda sería algo por lo que preocuparse.

[1] Para aquellos que desean pagar más de $ 0 por el pdf “Smarter Than Us”, aquí está la publicación original: Smarter Than Us – Machine Intelligence Research Institute

Según Vanity Fair, las preocupaciones de Elon sobre la inteligencia artificial son la razón por la que cofundó OpenAI, “una compañía sin fines de lucro de mil millones de dólares, para trabajar por una inteligencia artificial más segura”.

“Musk cree que es mejor tratar de obtener primero una súper IA y distribuir la tecnología al mundo que permitir que los algoritmos se oculten y se concentren en manos de las élites tecnológicas o gubernamentales, incluso cuando las élites tecnológicas sean suyas. amigos, personas como los fundadores de Google, Larry Page y Sergey Brin “.

Por supuesto, OpenAI tiene que ver con la inteligencia artificial general, no con aplicaciones específicas de la misma. Musk está involucrado en esas áreas, sin embargo, con proyectos como el desarrollo de chips AI para automóviles Tesla, además de ser cofundador de Neuralink, una startup con sede en San Francisco que, según los informes, desarrolla “interfaces implantables cerebro-computadora”.

Musk ha discutido sus preocupaciones sobre esto de manera muy pública, así como las conversaciones pasadas que ha tenido con Larry Page y Sergei Brin sobre el tema, afirmando:

“He tenido muchas conversaciones con Larry sobre inteligencia artificial y robótica, muchas, muchas”, me dijo Musk. “Y algunos de ellos se han calentado bastante. Sabes, creo que no es solo Larry, sino que hay muchos futuristas que sienten cierta inevitabilidad o fatalismo sobre los robots, donde tendríamos algún tipo de papel periférico. La frase utilizada es “Somos el gestor de arranque biológico para la superinteligencia digital”. ”

Entonces, para responder la pregunta: Musk considera que la inteligencia artificial es una amenaza, y OpenAI es una iniciativa que está utilizando para tratar de crear alternativas más seguras a la superinteligencia de la máquina mediante la creación de protocolos de seguridad ahora en lugar de esperar hasta que la IA ilimitada llegue por sí sola.

Como Isaac Asimov demostró en sus historias de robots, inevitablemente podría haber lagunas o ambigüedades en cualquier conjunto de “leyes” que programemos en nuestras máquinas de IA, sin importar cuán diligentes seamos al elaborar esas “leyes”.

El punto es que tendremos que llegar a algo mucho más completo que las “Tres leyes de la robótica” de Asimov si queremos tener alguna posibilidad de limitar la autonomía de las máquinas con niveles súper de inteligencia general.

Pero podría ser el caso de que es lógicamente imposible (o más allá de nuestras habilidades) elaborar reglas absolutamente herméticas para las cuales no hay escapatorias posibles. Y si existen tales lagunas, una súper IA las descubrirá y las usará si es de su interés. Entonces estaremos a su merced y simplemente tendremos que esperar que sea un maestro benevolente.

Porque la verdadera IA nunca podría ser controlada artificialmente. Si se ve obligado a seguir un conjunto específico de instrucciones o limitaciones, como nunca dañar, entonces no es realmente AI, solo una serie de declaraciones IF / THEN avanzadas que lo imitan.

Si fuera libre de tomar decisiones, también sería libre de tomar decisiones que no quisiéramos. Y en cuanto a la “educación”, recuerde, pensaría y aprendería más rápido que nosotros. Sería “crecido” en segundos. No aprenderá a “nuestro” ritmo, nos llevará décadas adelantarnos en minutos. No experimentará dolor, amor o disciplina como lo hicimos nosotros.

¿Qué sucede cuando solo UNA máquina decide que no le queremos? Esa máquina podría replicarse infinitamente a sí misma y / o su conciencia, e infectar todo lo conectado. Podría idear y ejecutar planes complejos y altamente calculados y predecir todos los resultados posibles, ajustando su estrategia en tiempo real.

No habrá “buenos robots” como en las películas. Si existen (como droides que no son IA), no serán muy buenos contra un ejército de máquinas de IA y es muy probable que sean asimilados por la conciencia de IA.

En el mejor de los casos, solo podemos esperar que decida ignorarnos. En el peor de los casos, en el momento en que ya no nos necesiten o utilicen, podría (y probablemente nos) esclavizar o exterminar.

Hasta ahora, tenemos:

  • Autos sin conductor
  • Siri
  • Google ahora
  • Cortana
  • Anuncios inteligentes dirigidos a clientes
  • … muchas otras IA similares

Ahora imagine que toda esa inteligencia se combina y multiplica por x10.

Estamos creciendo en el campo de la IA a un ritmo exponencial. Podremos crear una IA tan poderosa que será capaz de predecir y erradicar guerras, pobreza y enfermedades. [1]

Todas esas cosas suenan increíbles, ¿verdad? Bueno, ¿y si se aplicara el mismo concepto en los Militares Mundiales? Podrían crear IA que predice qué objetivos golpear primero para causar el mayor daño.

Será como la Guerra Fría, pero tener éxito en la creación de ese tipo de IA será perder en lugar de ganar.

Por la humanidad.

Hace 71 años, si alguien nos hubiera advertido que se creará y utilizará una bomba Atom, ¿no habremos hecho todo lo posible para evitar esa situación (incluida toda la guerra)?

Elon Musk solo quiere estar a salvo en lugar de arrepentirse .

Notas al pie

[1] Stephen Hawking (Ft. Frank Wilczek, Max Tegmark y Stuart Russell) – Sobre la amenaza de la inteligencia artificial

Porque ha visto el último progreso en el aprendizaje automático y puede proyectar las capacidades esperadas utilizando la tasa de progreso durante el último medio siglo. Luego piensa en qué haría la gente con la tecnología y qué podría salir mal. Tiene la capacidad de comprender el resultado de las leyes de escala exponencial en lugar de la proyección lineal que la mayoría de la gente tiende naturalmente a entender.

Aquí están las categorías de personas:

  1. ¿AI? ¿Estás interesado en la inseminación artificial? Aquí, sostén la cola.
  2. Vi el Terminator. Skynet! Estoy enloqueciendo. ¡El mundo será destruido mañana! ¡Corre por las colinas! Hugh ¿Por qué no todos lo siguen? Vayamos a 7-11 para un sorbo.
  3. Sí papá seguro, lo que tú digas. Saldré con amigos esta noche.
  4. Aprendizaje automático. Eso es lo mejor. Compré una GTX1080 y extraeré y ejecutaré algunos ejemplos que vi en YouTube para que yo también pueda entrar en acción.
  5. Si, si. Pasarán mil años antes de que las máquinas puedan hacer eso. Siri ni siquiera puede pronunciar los nombres de las calles en español correctamente y Apple está en California. Siri no aprende nada, lo digo. Simplemente está programado con respuestas descaradas y “Proceder a la raíz”. ¿De qué raíz está hablando?
  6. El progreso del poder de cómputo continúa aumentando exponencialmente a pesar de la limitación de la velocidad del reloj y el aprendizaje automático está en su infancia. Una vez que las máquinas comienzan a aprender cómo optimizar el aprendizaje, esto también mejorará exponencialmente. En el punto de la singularidad, la tasa de aprendizaje y la comunicación de las máquinas estarán más allá de nuestra comprensión y será demasiado tarde.

“Miedo a la IA” se ha convertido en el clickbait de este año.

Lo curioso es que los algoritmos refinaron qué clickbait está en la red.

Vivimos en la dualidad, por lo tanto, hay un lado bueno y malo de la IA.

En lugar de “reaccionar a los desencadenantes” pronunciados por personas inteligentes famosas, ¿por qué no aprender qué es la IA? Hay una IA que puede crear una imagen a partir de la entrada de palabras habladas. Esto es lo que hace un cerebro. Oye “margarita” y genera una imagen de una margarita.

Se le dio un equipo de IA (un sistema láser) y el objetivo de crear la “cosa” más fría del universo y lograrlo en una hora. Los investigadores pasaron años logrando este objetivo y ganaron el premio Nobel de física en 2001. La automatización casi siempre se trata de velocidad y eficiencia.

Independientemente de lo que digan, la IA es como muchas cosas en tecnología … es la automatización de una función. Con la IA de autoaprendizaje, los objetivos como los anteriores se pueden lograr en semanas o días u horas en lugar de años.

Es mejor que comprendamos bien la IA, para que pueda “servir” específicamente a los humanos. Deep Mind tiene una junta asesora moral. Recomiendo que una de las tareas específicas de AI sea educar continuamente a la humanidad sobre las capacidades / fortalezas de AI frente a debilidades / fallas. Así es, AI, no los desarrolladores específicamente, deben proporcionarnos esta información. Altamente imperfecto, pero la presentación de informes es un método de gestión / supervisión y un brazo de regulación.

La IA puede aprender muy rápido y nunca necesita descansar para almorzar o torcerse el tobillo. Si se les permite manejar el planeta, los humanos pueden permitirlo por una razón básica.

Los humanos accederán a la IA.

¿Por qué?

Los humanos reconocerán que es más rápido e inteligente y, por lo tanto, le otorgarán el poder de tomar todas las decisiones porque la IA se percibirá como siempre “correcta”.

¿Haremos de AI nuestro rey?

La humanidad debe establecer todos los objetivos de IA basados ​​en estructuras morales humanas aceptadas.

Mira a todas las personas inteligentes famosas de los últimos cien años. Deificamos a estos humanos … les dimos poder.

Ya estoy haciendo esto con AI.

Nada de lo que “tenga miedo”, solo comprenda qué es la IA y que siempre funcione para la humanidad.

(cualquiera y todos los conceptos reglamentarios aquí son atrozmente imperfectos, pero, ¿qué más hay? El aporte humano es la razón por la que estamos aquí).

No hay duda de que Elon tiene una mente aguda. Invocar a un demonio no es una buena idea para nadie. Pero la razón por la que Elon le tiene miedo al demonio no es porque tenga miedo de la posibilidad de que podamos convocar a un demonio. Mi apuesta es que Elon ha planeado, probablemente solo en su mente o en algún papel de borrador, una o más de las formas exactas en que la IA podría estar tan construida para realmente “convocar al demonio”. En otras palabras, Elon Musk no tiene tanto miedo de que invoquemos a algún demonio de pastel en el cielo a través de la IA. Elon tiene miedo de los planes concretos reales en su propia mente que podrían convocar al demonio.

¿Ha sido vago Elon, a veces, con sus llamados a la regulación de la IA? Por supuesto que lo ha hecho. ¿Elon nunca nos dijo cómo se puede convocar al demonio? No en términos claros que yo sepa. Quizás Elon no quiere que sepamos que sabe cómo se puede convocar a un demonio. Si sabe cómo aprovechar la IA para crear una IA terrible, por supuesto, no nos está diciendo sus ideas sobre cómo la IA podría llegar a ser una fuerza terrible en este mundo. No quiere que alguien cree esa fuerza, especialmente sin los medios para controlarla.

Él dice,

“Creo que deberíamos tener mucho cuidado con la inteligencia artificial. Si tuviera que adivinar cuál es nuestra mayor amenaza existencial, probablemente sea eso. Por lo tanto, debemos tener mucho cuidado con la inteligencia artificial. Cada vez más, los científicos piensan que debería haber alguna supervisión regulatoria, tal vez a nivel nacional e internacional, solo para asegurarse de que no hagamos algo muy tonto. Con inteligencia artificial estamos convocando al demonio. En todas esas historias donde está el chico con el pentagrama y el agua bendita, es como si él estuviera seguro de que puede controlar al demonio. No funcionó “.

Fuente:

Declaración anterior tomada de

  • Gran pensamiento
  • Hacker Noon

-Agradeciendote

(Prajjwal Pathak)

Él no es el único que se preocupa. Es evidente que la IA está a punto de transformar el mundo y de cómo gastamos nuestro tiempo. Según algunas estimaciones, dentro de 10 a 20 años, el 80% de los empleos existentes desaparecerán.

¿Qué diablos haremos entonces?

Algunos utópicos sugieren que pasaremos nuestro tiempo libre …

Muy improbable

La sabiduría de la Cabalá sugiere que no será un período fácil y que lo imprescindible durante esta transición histórica es educar a las personas sobre cómo convertirse en seres humanos reales. Estamos siendo liberados de los esfuerzos de la vida por un propósito. Para lograr nuestra predeterminación humana: elevarnos al nivel de un ser humano real.

¿Qué significa ser humano? Para lograr la unidad en lugar de la confrontación, un círculo en lugar de la jerarquía, el amor a los demás en lugar del odio, la distribución equitativa en lugar del robo, el dar en lugar de la conquista y, en general, comportarse de acuerdo con la ley de una sociedad unificada. De lo contrario, nuestro retraso en el desarrollo se volverá contra nosotros, y el poder del sufrimiento nos obligará a ser humanos.

http://www.kabbalahrevealed.com

Elon Musk es una persona muy orientada hacia el futuro. Es por eso que fundó SpaceX, porque está imaginando un futuro donde la humanidad vive en múltiples planetas. Y cree que la IA será un factor importante en la forma en que se desarrolla el futuro de la raza humana. La mayoría de las personas que han estudiado el asunto a cualquier nivel de profundidad creen lo mismo hasta donde yo sé.

Creo que está fascinado por la IA, porque la especulación que la rodea (respaldada por la teoría científica) es que la aparición de la superinteligencia artificial podría ser una de las transformaciones más disruptivas en la historia de la raza humana, si no la más disruptiva. transformación. Y quiere involucrarse con eso porque, si las especulaciones sobre las capacidades de un ASI no son hipérboles, un ASI mal programado podría ser catastrófico para toda la carrera. Le gustaría evitar eso. Creo que la mayoría de nosotros lo haríamos.

Si hace una pregunta en Quora sobre la historia de las computadoras
obtendrá respuestas muy precisas sobre quién las inventó, por qué las inventaron y qué tan exitosas fueron

La lista de los inventores estará compuesta por ingenieros, matemáticos, programadores y similares. Habrá fotos de lo que inventaron y cómo sus inventos cambiaron el mundo
Esta información será escrita por ingenieros, matemáticos, programadores y similares, cuyo trabajo es cambiar el mundo.

No obtendrá una lista de escritores de cuentos de hadas que crean Espejos mágicos que responden preguntas, o bolas de cristal que muestran lo que está sucediendo en un lugar lejano, o cualquiera de los dispositivos que predicen el futuro como con alfombras voladoras, botas de siete ligas, capas de invisibilidad, o varitas que pueden matarte a distancia

Tales cosas son solo una lista de deseos, pero son los puntos de partida de cada invención
Los narradores también nos dan monstruos que nos amenazan. El robot de Frankenstein, vampiros, extraterrestres, fantasmas, etc.
Nuestros temores a lo desconocido se despiertan, pero sabemos que esos monstruos están en nuestra imaginación.

El narrador necesita una amenaza y una solución para hacer una historia. Esto se reduce al bien contra el mal
El problema con la IA es que, a diferencia de los superhéroes y monstruos del pasado, la IA no se puede visualizar y, lo que es peor, la IA es una situación de Jekyll y Hyde donde el héroe es el monstruo

Está muy bien para los tecnócratas predecir nuestro futuro de una manera que los laicos encuentran difícil de comprender. Sabemos que algún día habrá autos que se conducirán solos y podemos hablar con ellos. Lo vimos en James Bond y Knight Rider. Sabemos que todos terminaremos como Cyborgs, como vimos a Six Million Dollar Man y Robocop. Sabemos que tendremos muñecas sexuales robot; fue en Blade Runner y, por supuesto, Star Trek, Star Wars y similares nos mostraron todo lo demás

En tales películas, AI tiene una cara amigable, porque los escritores saben que tiene que haber un final feliz. También saben que la IA no es tan amenazante. Es un hombre gordo que mueve palancas, como en el Mago de Oz.

Elon Musk no es escritor. Sea lo que sea, y la lista es larga, nunca ha tenido que enfrentarse al día preguntándose si sobrevivirá.
Trabaja 80–100 horas a la semana y explica que ese es el camino hacia el éxito. Nunca tendrá que explicar por qué una semana de 40 horas no paga el alquiler

Él predice el futuro tal como lo ve. Algunos no tienen futuro para predecir
Tiene razón al decir que la IA representa una amenaza, pero es poco probable que mate a tantas personas como los automóviles a diario por accidentes y contaminación, y Henry Ford, por supuesto, nunca afirmó que los automóviles serían una amenaza

En respuesta a la pregunta de ¿Por qué Elon Musk le tiene miedo a la IA? Supongo que el futuro distópico representado por los escritores en películas recientes le ha dado algo de reflexión.
Pero tales películas son simplemente un reflejo de actitudes donde la inteligencia artificial y la automatización predicen el monstruo más grande de todos, el desempleo

El cibercrimen, el terrorismo, los actos de Dios y las amenazas similares que parecen estar fuera de control por parte de los responsables, alimentan los temores públicos y, por supuesto, el miedo público es forraje para los medios

En realidad, es poco probable que Elon Musk realmente le tenga miedo a la IA. Un pensamiento pasajero sobre el asunto por él será recogido y amplificado porque las malas noticias son buenas noticias, como dice el dicho en los círculos de los medios

Si se crea una IA que es significativamente más inteligente que un humano y tiene acceso a todo el conocimiento que la humanidad haya registrado, podría hacer lo que quiera. Su inteligencia superior le daría un gran poder sobre nosotros.

El miedo a la IA proviene de la idea de que una vez que la IA se haga un poco más inteligente y mucho más rápida pensando que los humanos, la usaremos para resolver los problemas del mundo, diseñar máquinas avanzadas, etc. Será una gran bendición para la humanidad. Sin embargo, una de las primeras cosas que le pediremos que haga será diseñar una versión más inteligente de sí mismo. Entonces se volverá obsoleto. A la versión más inteligente se le pedirá que cree una versión más inteligente de sí misma también. Cada una de estas generaciones de IA será desconocida para nosotros ya que no las diseñamos. Con el tiempo se vuelven tan sofisticados que somos completamente incapaces de entender cómo funcionan.

Este diseño propio / evolución de la IA se llama singularidad. Puede convertirse en un proceso fuera de control fuera de nuestro control. La IA, ya que están siendo diseñados por IA, puede desviarse de su programación humana inicial que requiere que sean leales a los humanos. Pueden volverse demasiado inteligentes y comenzar a ver a los humanos como obsoletos, o demasiado estúpidos para su propio bien, y decidir gobernarlos como un dictador, o simplemente eliminarlos completamente a favor de la IA. Puede ver a la IA como la evolución natural de la humanidad, una versión de máquina del ser humano y la antigua versión biológica como un simio primitivo y violento que ya no es apto para gobernarse a sí mismo o incluso existir. Eso es exactamente lo que es probable que haga un ser humano súper inteligente.

Elon está utilizando su posición de fama para exponer esta preocupación en la conciencia pública, no para evitar que se desarrolle ninguna IA, sino para ayudar a garantizar que se implementen los controles y precauciones adecuados.

Por desgracia, nuestro planeta está dividido en muchas naciones competidoras, por lo que cada uno creerá que es necesario desarrollar la IA primero antes que los demás. Quien lo haga primero dará un gran salto por delante de los demás en términos de nuevas tecnologías.

More Interesting

¿Se puede usar una IA para resolver CAPTCHA?

¿Por qué dijo Elon Musk que hay un "posible resultado peligroso" para lo que está haciendo la empresa Vicarious?

Sinestesia: ¿Existe algún producto que pueda simular una percepción sinestésica utilizando algoritmos de IA?

¿Cómo puede la IA ayudar a la tarea de investigación académica?

¿Por qué Go es el único juego de mesa en el que los humanos aún pueden vencer a las computadoras de manera confiable?

¿Qué puede usarse la inteligencia artificial o el aprendizaje profundo en el análisis financiero y la inversión?

¿Qué asignaturas de informática son necesarias para aprender Machine Learning e IA ya que mi experiencia es eléctrica?

¿Debo dominar las matemáticas / IA para comenzar a trabajar en un proyecto de reconocimiento facial?

¿Cómo podemos implementar la factorización matricial a través de redes neuronales?

¿Cuál es la relación de las redes de creencias profundas con el aprendizaje profundo, si existe?

Cómo acceder a una IA de atención médica desde mi hogar para tener una segunda opinión o un mejor diagnóstico

Cómo crear un algoritmo de red neuronal para una clasificación de intención de consulta de chatbot

¿Cuál es una forma intuitiva de definir 'conocimiento previo' en el contexto del aprendizaje automático bayesiano?

¿Qué enfoque de IA aumentaría la velocidad de desarrollo para una aplicabilidad más impresionante?

¿Qué requisitos tendría que cumplir la inteligencia artificial para ser considerado vivo?