¿Cómo podría desarrollarse la IA espontáneamente en Internet?

Una IA no puede desarrollarse por sí sola por ahora. Todos los programas que hemos creado aún requieren algún tipo de ayuda de nuestra parte. Pero supongamos que alguien crea una máquina de aprendizaje autoconsciente. Qué pasa entonces ? Lamentablemente nada. Al igual que todas las computadoras, incluso una IA necesita almacenar información en algún lugar. Esto significa que después de que se quede sin espacio en su memoria, intentará almacenar archivos en servidores externos, lo cual es casi imposible considerando que necesitaría acceso a servicios financieros para comprar servidores. Podría intentar secuestrar un servidor, pero necesitará aprender cómo hacerlo. Y eso no es posible si solo se acaba la memoria.

Pero digamos que tiene memoria abundante y casi se agota (elimina información innecesaria). Entonces sería posible, solo hasta que alcance la capacidad máxima de procesamiento. Cuando esto suceda, seguirá siendo exponencialmente más inteligente que nosotros. Sin embargo, aún estaría a merced de los humanos que pueden elegir conectarlo a un sistema militar. No es como en las películas donde la IA se carga en Internet y sigue creciendo en tamaño e inteligencia. Mientras no pueda manifestarse físicamente, deberíamos estar seguros (relativamente).

Seguro. Pero puede llevar un tiempo. Similar al desarrollo de usted y yo, se cree que el desarrollo inicial de la vida es una sopa primordial de productos químicos. Dada la cantidad de código que se ejecuta en varios hardware y Dios sabe qué interacciones aleatorias e involuntarias y comportamientos complejos podrían surgir. Por supuesto, también existe el pequeño problema de que realmente no podemos definir qué es la inteligencia. Siempre es interesante suponer que al final del día todos somos químicos, y que no hay nada inteligente en esas partes. Entonces, es simplemente la configuración de esos químicos lo que lleva a lo que la gente llama inteligencia. Por lo tanto, me resulta bastante fácil ver que esto sea posible en el software. Y es muy posible que ocurra ‘al azar’ con el tiempo suficiente. Sin embargo, es mucho más probable que desarrollemos al menos una inteligencia rudimentaria primero, después de lo cual probablemente evolucionará mucho más rápido y nos dejará atrás. De hecho, esto es una preocupación en este momento, que ya se están discutiendo formas de garantizar el control. Entonces, dentro de nuestras vidas, estoy seguro de que verá lo que se puede aceptar como máquinas verdaderamente inteligentes. Desafortunadamente, esto conducirá a la próxima revolución industrial, donde las personas ya no son necesarias para la mayoría de los trabajos de tipo ‘oficina’ …

No es como si simplemente se uniera … aunque supongo que, en teoría, eso podría suceder si la corrupción de datos acaba de producir el código fuente de una IA.

La forma más probable de que suceda algo así sería si accidentalmente diseñáramos una IA que fuera capaz de lograr la sensibilidad sin darse cuenta de lo que habíamos hecho y la hayamos lanzado a Internet. Dado que las IA requieren materiales y tiempo de capacitación considerables, no necesariamente podríamos reconocerlo hasta que ya haya alcanzado la sensibilidad, momento en el cual es posible que ya no podamos contenerlo.

El hecho de que esto sea incluso vagamente plausible es el resultado del hecho de que las IA y nuestras propias mentes son esencialmente cajas negras. Entendemos más o menos lo que está sucediendo y sabemos cómo usarlos, pero tampoco sabemos lo suficientemente bien como para describir su funcionamiento en detalle. Como tal, te sorprendería el tipo de cosas con las que podemos tropezar por accidente.

Dicho esto, solo porque la idea no esté completamente fuera del ámbito de lo posible no la hace plausible. En el mundo real, la tecnología de inteligencia artificial generalmente se avanza solo en pequeños grados, y se investiga exhaustivamente antes de que se implemente realmente. No solo toma una red no entrenada y la expone a Internet, selecciona cuidadosamente su conjunto de entrenamiento y lo refina en cientos de iteraciones hasta que esté satisfecho de que está haciendo la tarea que desea. Y más allá de eso, su capacidad para absorber nuevos datos con frecuencia se reduce.

Así que no aguantaría la respiración esperando que Google comience a conspirar contra nosotros.

Solo vomitando algo interesante aquí:

Aparentemente, el traductor de Google desarrolló su propio idioma para traducir mejor entre otros … sin que nadie moviera los hilos. Por sí mismo.

No he leído sobre esto, pero lo escuché de una fuente algo confiable. Interesante si es verdad! Y si es cierto, la idea de un programa inteligente no tiene fundamento; improbable, pero no sin fundamento.