¿Qué sucede en las horas, días y meses posteriores al anuncio de una empresa pública (por ejemplo, Google) de que han logrado la Inteligencia Artificial General?

Trataré de esbozar una respuesta. Primero, definamos qué significa Inteligencia Artificial General . También llamada AI “fuerte” o “completa”, AGI se define como una forma de inteligencia artificial que es capaz de realizar cualquier tarea intelectual de la que un ser humano promedio es capaz. Según Wikipedia, algunos de los requisitos de dicho sistema son:

  • razonar, usar estrategias, resolver acertijos y hacer juicios bajo incertidumbre;
  • representar el conocimiento, incluido el conocimiento del sentido común;
  • plan;
  • aprender;
  • comunicarse en lenguaje natural;
  • e integrar todas estas habilidades hacia objetivos comunes.

En otras palabras, un AGI es un sistema que puede reemplazar a un ser humano en cualquier tarea o trabajo intelectual. Es importante tener en cuenta que no estamos hablando aquí de “superinteligencia [1]”, la posibilidad de construir una máquina con una inteligencia que supere ampliamente a la de cualquier ser humano. Estamos hablando de inteligencia humana normal, tal vez mejorada en algunos dominios por un enlace directo con herramientas de software estándar o módulos altamente especializados (pensemos, por ejemplo, en un ser humano con inteligencia perfectamente normal, pero capaz de “ver” intuitivamente las posibles consecuencias de una posición de ajedrez hasta el enésimo movimiento, una tarea que no requiere inteligencia per se sino solo poder de cálculo en bruto).

Verificación

Otra respuesta apunta a la necesidad de un proceso de confirmación “intenso”. Sin embargo, creo que la verificación de un AGI es bastante sencilla de realizar. Simplemente asigne a la AGI un conjunto de tareas intelectuales comunes y compare los resultados con los de un ser humano. Los humanos son muy buenos para estimar las habilidades cognitivas de las personas o sistemas con los que interactúan. Si no hay fallas obvias en la ejecución de las tareas (como la incapacidad para aprender, aplicar razonamientos o explicar por qué se tomaron ciertas acciones), es seguro asumir que la máquina es realmente inteligente para todos los propósitos prácticos. . Todo el proceso de verificación podría llevar solo unas pocas semanas, y ya se habría realizado para cuando se haga el anuncio. El anuncio probablemente incluiría detalles sobre las tareas que el sistema ha podido realizar, permitiendo al público estimar el grado de inteligencia de la máquina.

Consecuencias de una IA general a nivel humano

Dado que un AGI es capaz de realizar cualquier tarea intelectual que esperamos de un ser humano, algunas de las consecuencias de tal invención no son demasiado difíciles de predecir. Tal sistema puede reemplazar a cualquier ser humano en trabajos que no requieren interacción con el entorno físico, como todos los trabajos o aspectos de trabajos que se pueden realizar de forma remota. Siendo muy probablemente un sistema de software que se ejecuta en un hardware (inicialmente) costoso pero en última instancia estándar, puede duplicarse sin cesar a un costo que disminuirá rápidamente en el tiempo. Los trabajos de oficina son, por supuesto, los más amenazados, pero otros trabajos que implican una combinación de habilidades intelectuales y prácticas (como médicos o abogados que tendrán que interactuar personalmente con muchas personas y presentarse físicamente en los tribunales) se pueden dividir en un función con salarios más bajos (enfermera, por ejemplo) y una función intelectual (médico que hace preguntas, proporciona diagnósticos y propone terapias).

El costo del sistema es, por supuesto, un límite para su adopción. Digamos que un empleado de oficina cuesta en promedio entre $ 20k y $ 80k por año en países desarrollados, entonces tiene sentido económico para una empresa invertir n veces esa cantidad para un sistema inteligente que se espera que dure al menos n años, siempre que que los costos de funcionamiento son insignificantes. Además, sea cual sea el costo inicial de un sistema de este tipo, creo que podemos suponer con seguridad que se reducirá aproximadamente a la mitad cada dos años, de forma similar a lo que sucede con todos los productos de TI. Esto podría llevar a una adopción generalizada en el espacio de unos pocos años.

Ventaja inmediata para el descubridor

Dado el impacto que el descubrimiento podría tener en la sociedad, el costo inicial de la solución y la ventaja estratégica, el descubridor podría elegir no publicar los detalles de implementación del sistema. Por lo tanto, la compañía que lo posee puede disfrutar solo, durante algún tiempo, de cualquier ventaja que le brinde. Una escala horizontal grande de la solución (ejecutando cientos o miles de instancias de la misma) podría no ser factible inicialmente por razones económicas o de secreto. Lo que la compañía podría intentar hacer es dar a sus habilidades especiales de inteligencia artificial en ciertos dominios de alto rendimiento, de modo que un número muy limitado de instancias pueda lidiar con problemas muy complejos. Estas habilidades especiales podrían verse como herramientas que no aumentan en gran medida la inteligencia real del sistema, pero solo le dan lo que para un humano sería un acceso súper rápido e intuitivo a un software especializado. Piense en las herramientas de software estándar para las matemáticas o para la planificación de recursos o el análisis de big data. Uno de los dominios a los que se podría aplicar la IA es, por supuesto, la investigación sobre cómo mejorarse. Otros usos podrían consistir en ayudar en otros campos de investigación, o en tomar decisiones estratégicas de la compañía, e incluso en la inversión en el mercado de valores.

Reproducción de la IA por otros

En unos pocos meses, tal vez uno o dos años, el resultado seguramente sería replicado por otras compañías tecnológicas que trabajan en el mismo campo. Ahora estarían en la misma situación que la primera compañía, usando la IA para su ventaja. Mientras tanto, los trabajos de investigación se habrían publicado con algunos de los detalles de implementación, y la tecnología comenzaría a filtrarse y ser reproducida por más y más equipos de investigación de alto nivel, hasta que finalmente se empiece a implementar en clientes de pago.

Horas, días, meses

Dado este escenario hipotético y las consideraciones anteriores, es muy difícil decir qué sucederá en el momento inmediatamente posterior al anuncio. Mucho antes de que la superinteligencia se convierta en esa amenaza existencial [2] a los filósofos, científicos y emprendedores tecnológicos les preocupa, el AGI a nivel humano puede tener un enorme impacto en nuestras economías y sociedades a través de la ventaja tecnológica y la pérdida de empleos. La perspectiva de un final rápido de casi todos los trabajos de oficina podría ser un terremoto de enormes proporciones. ¿Cómo reaccionarían los mercados, los gobiernos y las sociedades?

Las acciones de la compañía que hace el anuncio se dispararían, posiblemente seguidas por las de las compañías tecnológicas que están esperando reemplazar el trabajo humano con IA (Facebook y Uber son los primeros ejemplos que se me ocurren). Pero también habría perdedores. ¿Quién se vería más afectado por la perspectiva del fin de los trabajos? ¿Proveedores de mano de obra? Empresas de consultoría? Empresas constructoras? (Piense en el impacto en las oficinas físicas y la vivienda). ¿Fondos de la pensión? ¿Y cuáles podrían ser las consecuencias incluso para las compañías que inicialmente se beneficiarían más, dado que venden productos a personas que finalmente ganan su dinero de trabajos que están en peligro? ¿Cuál sería el impacto en las empresas que producen el hardware necesario para ejecutar las IA?

¿Qué harían los gobiernos? Podrían considerar las consecuencias de tal invención demasiado arriesgadas para ser absorbidas por la sociedad, y tratar de detener la investigación privada en el campo, o clasificarla como un asunto de seguridad nacional y absorberla en la investigación militar. También podrían intentar aprobar leyes para prohibir el uso de software inteligente en los lugares de trabajo, pero la adopción de tales medidas se hace mucho menos probable por el hecho de que de todos modos solo podrían tener un efecto temporal, ya que sería prácticamente imposible aplicarlas. en un entorno de competencia global.

Eso es lo que puedo pensar en este momento. Cualquier otra consideración o comentario es bienvenido!

Notas al pie

[1] Superinteligencia

[2] Riesgo existencial de inteligencia artificial avanzada

Honestamente, no demasiado, considerando la confirmación sería intensa. Pero, ¿por qué no intentarlo? Aquí está mi respuesta en orden cronológico:

• Se lanza

• Se retratará en la portada de la revista Time , y se anunciará en todo el mundo.

• La prueba de Turing comenzaría sobre el tema, y ​​Richard Muller la probaría. 😉

La prueba de Turing es un evento en el que un ser humano prueba dos sujetos, otro humano y una IA. Se involucrarán en una conversación en lenguaje natural y si la IA puede expresar respuestas que sean lo suficientemente similares para un humano, puede convencer al evaluador de que es, de hecho, un humano. En este caso, la IA sería un éxito.

|| Una buena representación de esto estaría en la película Ex Machina , y llegarás a una mejor comprensión de la posible IA por completo.

• Después, alguien recibiría un Premio Nobel.

• Y finalmente, se vería si recreamos la IA o no, y si representa una amenaza.

• ¿Producción en masa?

——>

• ¿La IA se apodera del mundo?

Escenarios hipotéticos, ¿qué inferirías que puede suceder? Sígueme para más 🙂


Más tarde me di cuenta de que esto sigue un aspecto más avanzado de la Inteligencia Artificial, pero lo considero como un desarrollo de IA general a IA avanzada.

Desde la perspectiva de Quora:

  • Una pregunta como “¿Acabará el mundo con el nuevo algoritmo de Google AI?” emerge, reúne muchos seguidores, causa descontento ligero
  • A alguien se le ocurre la pregunta “¿Cómo puedo implementar la inteligencia general artificial en QBasic?”

En general, es poco probable que eso suceda porque el equipo de relaciones públicas de Google (o cualquier compañía que cree cosas que funcionan) no está lleno de imbéciles al estilo FoxNews.

No estamos cerca de un AGI, y nada de eso saltaría de la nada y definitivamente no se crea por “accidente” como se puede ver en las películas.

A pesar de los métodos avanzados que se utilizan para hacer una “IA” hoy, la IA no es tan inteligente después de todo. El nombre suena realmente futurista, por lo que puede ser muy engañoso para el público generel cuando se lanza tal nombre.


Si se creó un AGI de la nada, podemos diseñarlo para buscar respuestas a preguntas muy complejas, pero lo más importante; podríamos hacer que haga las preguntas realmente importantes, preguntas en las que quizás nunca hayamos pensado.


Si el AGI tuviera una inteligencia extremadamente alta y Google pudiera mantenerlo en secreto, podría convertirse en una gran amenaza para el resto del mundo. Sin embargo, si la tecnología se compartiera con el resto del mundo, probablemente causaría un caos, quitando toneladas de empleos. Además, puede inventar tecnologías que destruyan totalmente toda competencia, lo que puede conducir a la caída del mercado de valores, etc., etc.


Sin embargo, esto es solo pura imaginación. Cómo se verá un AGI real y cuáles son sus limitaciones, nadie puede decirlo; tal vez esté hecho de alguna tecnología de base biológica.

Habrá una importante cobertura de noticias el 2 de abril (el día siguiente al anuncio). CNN publicará noticias de última hora sobre el inminente fin de la civilización tal como la conocemos.

El 3 de abril, Google anunciará que realmente nunca pensaron que la gente se lo tomaría en serio, pero que REALMENTE lo lamentan.

El 4 de abril, CNN despedirá a un productor senior.

El 5 de abril, Fox News publicará noticias de última hora sobre el inminente fin de la civilización tal como la conocemos.

En primer lugar, francamente, la Inteligencia General Artificial realmente no se ha implementado o desarrollado completamente en el mundo.
Para desarrollarlo, necesitamos programas (y máquinas igualmente compatibles) que sean capaces de mapear (identificar, clasificar y analizar bits aleatorios de datos) y su pregunta no tiene mucho sentido considerando el escenario actual.

De todos modos, espero estar cerca cuando eso suceda

Como nadie ha demostrado nada que yo llamaría comprensión o inteligencia, ese día está muy lejos. Solo recolectar una gran cantidad de datos y repetir el patrón más común no significa que sea inteligencia. Muchas de las supuestas cosas de inteligencia artificial son así.

More Interesting

¿Es posible evitar que una IA se vuelva más 'inteligente' que nosotros? ¿No existe siempre la posibilidad de un problema técnico?

¿Qué se debe aprender en inteligencia artificial?

¿Podrían las máquinas de inteligencia artificial ser una buena opción para reemplazar a los funcionarios corruptos del gobierno en India para hacer el trabajo honestamente?

¿Podría la inteligencia artificial crear vida sintética en el futuro?

¿Cuáles son algunos campos (o trabajos) que no se pueden reemplazar con IA?

¿La programación basada en IA será algo en el futuro?

¿Cuál es la relación entre el sistema operativo y la inteligencia artificial?

¿Por qué necesitamos inteligencia artificial si hará que casi todos los trabajos queden obsoletos? ¿Cómo sobreviviremos sin trabajos?

¿Cómo va a influir la inteligencia artificial en nuestra vida personal y profesional en las próximas dos décadas?

¿Cuáles son las ventajas y desventajas de entrenar redes neuronales artificiales a través de la propagación hacia atrás, un algoritmo probabilístico de escalada, una combinación de los dos y otros métodos si existen?

Si quisiera contribuir al desarrollo de la inteligencia artificial general, ¿en qué campo de investigación debería estudiar (PNL, representación del conocimiento, etc.)?

¿Por qué estamos desarrollando inteligencia artificial?

¿Qué deberíamos llamar un agente en inteligencia artificial?

¿Cómo afectaría una IA fuerte al futuro del desarrollo del juego?

¿Cuáles son algunos de los aspectos aterradores de la IA?