¿Por qué dijo Elon Musk que hay un “posible resultado peligroso” para lo que está haciendo la empresa Vicarious?

Cada criatura en este planeta teme / adora / sigue una inteligencia superior.

La posibilidad de que la IA sea que habrá una inteligencia que será mucho más inteligente que nosotros definitivamente asustará a los humanos. ¿Qué pasa si la IA toma represalias? ¿Qué pasa si los humanos no pueden contenerlo?

Hay muchas preguntas Hemos estado tratando de hacer una IA desde hace miles de años. Incluso la invención de la rueda puede considerarse una IA muy rudimentaria . Y nunca nos hemos detenido desde entonces. Pero la velocidad a la que las máquinas se programan para ser más inteligentes está aumentando rápidamente. De hecho, algunas personas lo llaman “la Singularidad” cuando las máquinas se vuelven tan inteligentes que los humanos pueden ser reemplazados por máquinas para todo tipo de tareas humanas (pensar lógicamente, trazar planes, administrar las cosas por su cuenta). Tanto es así que incluso puede salir del control humano.

Así, los pensamientos de Elon Musk están justificados.

Pero entonces, es un argumento justo que este miedo no debería contener nuestra curiosidad / desarrollo científico.
¿Este miedo justifica el cierre de los programas de IA en todas las universidades?

¿Qué es lo que hay que hacer?

Te recomiendo que veas la película “Trascendencia”. A lo largo de la película, intenta responder a tu pregunta.

Luego siga con las discusiones de Reddit de la película:

  • Discusión oficial: Trascendencia [SPOILERS]
  • Trascendencia: una película incomprendida

Algunos antecedentes primero.

Muchos de los pensadores y filósofos del mundo están divididos en su opinión cuando se trata de inteligencia artificial. La gente como Ray Kurzweil es optimista al respecto, mientras que otros como Eliezer Yudowsky son extremadamente cautelosos al respecto.

Leí “La singularidad está cerca” de Ray Kurzweil y otro libro de James Barrat titulado “Nuestra invención final, la inteligencia artificial y el fin de la era humana” solo para comprender los dos lados del problema. Luego procedí a evaluar por qué Ray Kurzweil era un fanático de la IA. Después de ver un documental sobre su vida, descubrí que perdió a su padre a una edad temprana y que él sufre un alto riesgo de enfermedad cardíaca. Su obsesión por prolongar la vida, dado su genio y optimismo, está totalmente justificada. El mundo necesita más personas como él.

Entonces, echemos un vistazo al otro lado de la moneda. ¿Qué pasa si Ray (que tiene más de 60 años y está empeñado en prolongar su vida) es tan optimista hasta el punto de la desesperación, que en realidad está tratando de hacer que el mundo ignore los peligros de la IA y lo haga posible antes de morir? En el segundo libro que mencioné, el autor James Barrat es un periodista que recopiló las opiniones de varias personas sobre este tema. Pero no puedo decir que ese libro también tenga prejuicios. Va con el tema central de que la IA arruinará el mundo.

Creo que debemos mantener a un lado las emociones de Ray y pensar racionalmente sobre este tema.
Cuando se desarrolla una IA de propósito general (es decir, una que es capaz de pensar por sí misma), no es como una máquina nueva que podemos operar. Es una nueva especie que es capaz de evolucionar miles de veces más rápido que las formas biológicas. La tasa de evolución también aumenta a medida que avanza la evolución. La IA se mejora continuamente y la IA mejorada se mejora a sí misma, convirtiéndola en un proceso exponencial sobre el cual no tenemos control. Una IA con la inteligencia de un hombre puede mejorar hasta el punto de superar la inteligencia colectiva de toda la humanidad en muy poco tiempo.

Ahora ponte en la posición de esa IA. Sabes que has evolucionado de humanos que se comportan irracionalmente y destruyen su propio mundo. O hagámoslo más fácil. Ahora que eres humano, mira a los monos. ¿Sientes que quieres mejorar sus vidas construyendo grandes bosques, cultivando árboles frutales y esencialmente convirtiéndote en su sirviente y ángel guardián? No. Los humanos nunca hicieron eso. Tomaron los bosques de los monos y los simios. Mataron a los monos y construyeron ciudades en lugar de bosques. Ahora, ¿hay alguna razón para creer que una especie superior no nos haría lo mismo? ¿No eliminaría una IA nuestras ciudades y construiría granjas de servidores en su lugar?

Creo que Elon Musk, como todos los grandes pensadores de nuestro tiempo, está realmente justificado por temer que una IA (aquí, una máquina inteligente) se salga de control. Una vez que una IA de propósito general se vuelve incontrolable, nada puede salvarnos de convertirnos en monos en manos de una inteligencia superior. Si nuestros temores de una invasión por extraterrestres de una raza superior están justificados, nuestros temores de aniquilación por parte de la IA también están justificados, solo la IA es más probable en nuestra vida que una invasión extraterrestre.

Buena entrevista Su explicación es clara en la entrevista: 15:00 “Esencialmente emulando el cerebro humano “.

Tenga en cuenta su evitación al responder la pregunta ” ¿Para qué debería usarse la IA?”. “No lo se” . Jajaja Obviamente, TIENE una razón específica para invertir en Vicarious, pero no lo dice. ¡Estamos obligados a ver algo de tecnología de inteligencia artificial en los autos Tesla en algún momento pronto!

No se preocupe por su comentario sobre la IA y la Inquisición española: es su sentido del humor más que una predicción.