¿Es correcto Elon Musk en su opinión de que los humanos no son lo suficientemente cautelosos en su desarrollo de inteligencia artificial?

A2A

No soy consciente de cuán (in) cautelosos como la humanidad somos en nuestro desarrollo de IA, y dudo que alguien realmente esté al tanto de todos los desarrollos que ocurren en los EE. UU., China y varias instalaciones gubernamentales (secretas). A medida que pase el tiempo, solo habrá más entidades trabajando en IA avanzadas, y será aún más difícil hacer un seguimiento de todas ellas.

Recientemente, un panel de expertos líderes en el campo de la IA, incluido Elon, formaron parte de un panel de discusión en una importante conferencia de IA. En un momento, hablan sobre exactamente este problema de no saber exactamente qué está sucediendo en todas partes, y se preguntan cómo podríamos vigilar mejor los desarrollos de IA en todo el mundo. Aquí está el panel de discusión completo si está interesado:

Aunque no puedo decir si estamos siendo cautelosos o incautos, puedo asegurarle que debemos ser extremadamente cautelosos en nuestro desarrollo de IA. En lugar de explicarte las razones de esto, te redirigiré a este artículo alucinante de Tim Urban en su blog WaitButWhy:

La revolución de la inteligencia artificial: Parte 1 – Espera pero por qué

Esta serie de 2 partes sobre IA le explicará exactamente qué es y qué no es la IA, qué puede hacer por nosotros y qué podría hacernos si no somos lo suficientemente cuidadosos. Es una lectura larga, pero extremadamente bien escrita y divertida de leer.

Sí, pero no por algo como Skynet de las películas de Terminator. Skynet es solo un peligro una vez que las personas han sido eliminadas de la parte de fabricación y aprovisionamiento de la cadena de suministro. Hasta entonces, los AI nos necesitan y podemos desconectarnos.

Un peligro mucho más inmediato proviene de emplear IA en combates de guerra y aplicación de la ley. Cuando a una IA se le da la autonomía para matar y herir humanos, tomará esas decisiones en función de lo que se le ha enseñado y de lo que ha aprendido. Si aquellos divergen de los principios que los humanos sostienen, se convierte en una divergencia de facto de la base moral para tomar decisiones. Esa es una forma muy elegante de decir que una IA puede decidir matar a alguien que un humano no haría, lo cual es algo realmente malo. Ya no es una herramienta, sino un competidor. Vale la pena preocuparse por eso.

Estoy tan lejos como se puede ser un experto en el estado de la IA, pero ¿cómo puede alguien no estar de acuerdo con que estamos creando Frankensteins potenciales?

Excepto que estos Frankenstein podrán reproducirse e influir y controlar otras entidades de IA a través de sus propias redes.

Y con cientos, y miles de personas trabajando en estos sistemas, que pronto serán decenas y cientos de miles de personas en todo el mundo, pronto será fácil … tomar prestado … el trabajo de las mejores mentes … y crear máquinas con mismo nivel de inteligencia

Y es por eso que inundar los cielos con drones antes de que supiéramos lo que podría crear, podría ser el mayor error cometido en este siglo. O al menos el mayor error hasta el momento en que creamos máquinas inteligentes que podrían usar su inteligencia para crear un mundo que les sirva, y no a nosotros.

Ahora esa última parte todavía es un poco descabellada. Pero el peligro de que los hombres usen IA para controlar drones en todo el mundo ya es muy real.

Sin embargo, el mayor daño colateral probablemente serán los autos sin conductor.

El peligro de que la navegación central de cada vehículo en los EE. UU. Pueda ser pirateado por piratas informáticos humanos (que claramente ya es posible), mucho menos IA controlada por humanos, o IA controlada por IA, es muy probable que sea una amenaza demasiado grande para eso. sistema que alguna vez se construirá.

More Interesting

¿Cómo se desarrolla la inteligencia artificial?

¿Cuáles son las diferencias de hacer investigación en una empresa e investigar en un instituto en el área de aprendizaje automático / inteligencia artificial?

Cómo usar la inteligencia artificial para mi proyecto universitario.

¿Qué tan grave es la amenaza existencial para la economía de mercado capitalista presentada por la automatización generalizada?

¿Cuál es la inteligencia artificial más avanzada que tenemos?

¿Cuáles son algunas de las aplicaciones de la teoría de modelos en informática, especialmente en inteligencia artificial?

Si el libre albedrío no está implícito en la Inteligencia Artificial Equivalente Humana, ¿son imposibles los escenarios de Singularidad y / o Doomsday AI?

¿Cuáles son los buenos lugares para aprender IA en Bangalore? Necesito más detalles sobre A2Itech.com, y estoy planeando cambiar mi dominio a AI.

¿Cómo sería este mundo si la política fuera hecha por AI?

¿La idea de inteligencia artificial está desactualizada u obsoleta?

¿Qué se puede hacer para evitar un escenario similar a Terminator, si alguna vez fue posible?

¿Existen principios generales de inteligencia aumentada?

¿Cómo puede la inteligencia artificial ayudar a los países en desarrollo?

¿Qué es lo más probable que suceda si la IA desarrolla instintos de supervivencia: cada máquina piensa por sí misma o la IA considera todas las máquinas como parte de ella?

Cómo comenzar el aprendizaje automático y la inteligencia artificial desde cero