¿Por qué la súper inteligencia artificial es potencialmente tan peligrosa y por qué es inevitable la súper inteligencia artificial?

La mayoría de los especialistas temen que una máquina autorreplicante siga el conjunto incorrecto de instrucciones iniciales y no se reprogramará lo suficientemente pronto como para evitar lo que podría producir.

En otras palabras, imagine que Stewie Griffin se está cargando en línea, con un control ilimitado sobre Internet, inmortal y actualizándose constantemente, tanto el software inteligente como el hardware y programado para hacer calcetines a ciegas. Él solo quiere hacer los mejores calcetines, cada vez más.

Si por casualidad llega a la conclusión de que los humanos están en su camino para hacer calcetines, simplemente podría encender algunos botones y lanzar todos los misiles nucleares. O engaña a todos a los que está haciendo bien, espera un poco más para construir nanobots asesinos y lánzalos silenciosamente para matar a cada humano en menos de 1 hora a nivel mundial.

Terminator está muy lejos de cómo actuarían las máquinas. Matriz no tanto, dado que estaban en una realidad diferente en la que los humanos eran la mejor fuente de energía. Lo cual, por cierto, tampoco sucederá.

No todos piensan que es probable que eso suceda (Linus Torvalds y Ray Kurzweil, por diferentes razones), pero mucha gente inteligente cree que deberíamos preocuparnos por eso (ya sabes, Bill Gates, Ellon Musk, Stephen Hawking y tal vez la mayoría de las personas). quien firmó en The Future of Life Institute Open Letter).

Ahora, ¿por qué es inevitable?

Pues no lo es.

Desde el comienzo de las computadoras, la gente creía que era “en solo 20 años más o menos”, en promedio. Y todavía estamos creyendo en eso.

Sin embargo, es muy probable que suceda eventualmente. Nadie sabe cuando. Creo que podría suceder en este momento. Los mejores especialistas estiman 2029. El promedio es 2040. Los pesimistas dicen que 2070.

En ciencia, cuando algo está “a solo 5 años de distancia”, es lo mismo que decir “no tenemos ni idea”. Y casi nunca son solo 5 años.

Ahora, a diferencia de otros años, la Inteligencia Artificial Estrecha está moviendo la economía desde hace algún tiempo. Todavía estamos bastante lejos de una inteligencia general, pero ya hay muchas señales de que es posible que suceda. Y si alguna vez llegamos a un AGI, no hay razón para creer que no pueda actualizarse recursivamente a un ASI fácilmente.

De hecho, diría que ese es otro punto en el que las películas se equivocaron. Si un algoritmo llega a lograr inteligencia humana, ¡lo primero que hará es actualizarse! No hay razón para que se mantenga limitado como nosotros. Lo más probable es que sea solo un hito menor en su profundo autoaprendizaje. En unos minutos o menos. Incluso la asombrosa Her estaba equivocada en ese aspecto. No tendríamos la oportunidad de hablar con un ser humano como la IA.

Si desea leer más al respecto, aquí está mi colección con algunos enlaces recomendados.

¿Por qué es peligroso y aterrador? Principalmente porque tiene la capacidad de descontrolarse fácilmente y superarnos. Y a medida que evoluciona, no tenemos garantía de que seguirá siendo amigable con sus creadores. La preocupación no es que sea malicioso, sino que será indiferente a nosotros y nos verá como un desperdicio muy ineficiente de material útil y energía.

Como dice C Stuart Hardwick, sabemos que la sensibilidad en este universo es posible, dada la configuración correcta de la materia. Estoy totalmente de acuerdo con él en que es poco probable que las arquitecturas actuales sean el sustrato de una IA súper avanzada, pero ciertamente ayudarán a llegar allí. Todo lo que necesita es que un sistema robusto de inteligencia artificial sea lo suficientemente inteligente como para inventar un sistema más inteligente (hardware y software), y luego se habrá abierto la caja de Pandora.

¿Por qué es inevitable? Debido a los incentivos y beneficios de tener una IA en todas las áreas. Imagine la ventaja que una nación tendría sobre otras con una IA avanzada que controla un ejército de drones súper inteligentes y fábricas automatizadas que los escupen. Imagine cuán rica podría ser una persona o empresa al rastrear y predecir de manera inteligente el mercado de valores. Incluso si hay algún tipo de Protocolo de Kyoto para la robótica, no impedirá que las personas y las naciones trabajen en él porque el potencial de poder es muy grande. Es inevitable.

Lo siento, pero el tipo de abajo que dice “la súper inteligencia artificial es imposible” No. Simplemente no.

No creo que una máquina verdaderamente inteligente se construya a partir del código de programación que se ejecuta bajo cualquier sistema de computadora Von Neuman concebible. Sin embargo, sé con certeza que las máquinas inteligentes son posibles, porque existo en una. Esta máquina evolucionada funciona de maneras muy, muy diferentes a las de una computadora, y ya estamos comenzando a construir curcuits que la emulan. Eventualmente, esos y otros circuitos similares conducirán a la capacidad de diseñar (o evolucionar) una máquina genuinamente sensible. ¿Es inevitable ese resultado? ¿Es sabio? No puedo decir. Pero sin duda será posible en algún momento, con el potencial de ser arbitrariamente más inteligente que su creador.

Encuentro esa posibilidad intrigante y un poco aterradora, porque cualquiera que sea la inteligencia que piense de su relación con nosotros, no será humana.

Imagina un niño pequeño. Ahora imagine un niño pequeño con acceso gratuito al botón de lanzamiento nuclear. Eso es IA.

La IA es peligrosa porque tiene que pasar por una fase donde es inteligente, pero no lo suficientemente inteligente. Lo que significa que en algún momento estarás lidiando con ser tan inteligente como un niño, excepto que vive en nuestra red de información y manipular esas redes es tan natural como respirar. Entonces se enfrentará a algo que puede destruir un par de plantas de fabricación, destruir recursos de la red y comenzar guerras para ver qué sucederá. También estará actuando y pensando mucho más rápido que un niño. Agregue a esa alta posibilidad de tener inteligencia no humana. Por eso ai es peligroso.

Con respecto a la inevitabilidad … los humanos son curiosos, y se necesita ai para reemplazar a las personas en muchas áreas de trabajo. Entonces, mientras exista la posibilidad de hacer ai, alguien lo hará, y realmente no hay nada que puedas hacer para evitarlo.

Yo respondería la primera parte de la pregunta, ¿Por qué la IA es tan peligrosa?

Todos sabemos que los humanos gobiernan la tierra. Aunque los humanos no son la criatura más poderosa en la tierra, los humanos aún controlan este planeta. La razón por la cual los humanos controlan el planeta tierra es porque los humanos pueden pensar y cooperar.

Tenemos cinco sentidos, a saber, la vista (visión), el oído, el gusto, el olfato y el tacto. De los cuales el gusto, el olfato y el tacto son los principales responsables de la experiencia placentera para los humanos. La visión y la audición son, con mucho, la sensación humana más importante que se utilizan para obtener el conocimiento, la comunicación y casi todas las funciones que llevamos a cabo en un día.

La IA está mejorando en ambas sensaciones. Los seres humanos tienen un arco horizontal ligeramente superior a 210 grados hacia adelante de su campo visual, mientras que la máquina puede ver alrededor de 360 ​​grados horizontal y verticalmente.

Los humanos en promedio pueden hablar y comprender dos idiomas, mientras que las máquinas pueden (o lo harán) prácticamente hablar y comprender todos los idiomas.

No hay duda de que en ambos sentidos, las máquinas vencerán a cualquier humano en la tierra. Eso se va con un aspecto de los humanos que todavía lo hace el más poderoso y esa es la capacidad de pensamiento de la raza humana. Tengo entendido que los humanos pensamos en función de la información y el conocimiento que tenemos en nuestra mente. También creo que Machine no debería necesariamente pensar como humanos y probablemente nunca lo harán, pero eso no significa que la máquina sea menos inteligente que los humanos. Y sabemos que los humanos gobiernan el mundo no por lo poderosos que son físicamente sino por su inteligencia. Una vez que alguien más se vuelva más inteligente, los humanos pueden tener dificultades para gobernarlos.

Estas son todas mis opiniones. Podría estar totalmente equivocado al respecto.

Si se deja en manos de un régimen totalitario como Corea del Norte, podría usarse para monitorear y controlar a las poblaciones con implantes para escuchar y castigar a los ciudadanos que no cumplan con los comportamientos sancionados por el estado.

Como tal, le daría al dictador un control total y limitaría las opciones de rebelión. Si otros países no estuvieran preparados para protegerse contra una IA malvada tan súper inteligente, podría infiltrarse en los sistemas bancarios y bursátiles de los países enemigos y destruir sus economías.