Trataré de esbozar una respuesta. Primero, definamos qué significa Inteligencia Artificial General . También llamada AI “fuerte” o “completa”, AGI se define como una forma de inteligencia artificial que es capaz de realizar cualquier tarea intelectual de la que un ser humano promedio es capaz. Según Wikipedia, algunos de los requisitos de dicho sistema son:
- razonar, usar estrategias, resolver acertijos y hacer juicios bajo incertidumbre;
- representar el conocimiento, incluido el conocimiento del sentido común;
- plan;
- aprender;
- comunicarse en lenguaje natural;
- e integrar todas estas habilidades hacia objetivos comunes.
En otras palabras, un AGI es un sistema que puede reemplazar a un ser humano en cualquier tarea o trabajo intelectual. Es importante tener en cuenta que no estamos hablando aquí de “superinteligencia [1]”, la posibilidad de construir una máquina con una inteligencia que supere ampliamente a la de cualquier ser humano. Estamos hablando de inteligencia humana normal, tal vez mejorada en algunos dominios por un enlace directo con herramientas de software estándar o módulos altamente especializados (pensemos, por ejemplo, en un ser humano con inteligencia perfectamente normal, pero capaz de “ver” intuitivamente las posibles consecuencias de una posición de ajedrez hasta el enésimo movimiento, una tarea que no requiere inteligencia per se sino solo poder de cálculo en bruto).
Verificación
- Para desarrollar un asistente digital con IA, ¿cuáles son las cosas que debo saber?
- ¿Cómo afectarán la automatización y la IA al automovilismo?
- ¿Cuál es el futuro de la robótica y la inteligencia artificial en la India?
- Si alguien desarrolla inteligencia artificial, ¿cómo nos afectará?
- ¿Cuáles serían los pros y los contras de la verdadera IA una vez que logremos la singularidad?
Otra respuesta apunta a la necesidad de un proceso de confirmación “intenso”. Sin embargo, creo que la verificación de un AGI es bastante sencilla de realizar. Simplemente asigne a la AGI un conjunto de tareas intelectuales comunes y compare los resultados con los de un ser humano. Los humanos son muy buenos para estimar las habilidades cognitivas de las personas o sistemas con los que interactúan. Si no hay fallas obvias en la ejecución de las tareas (como la incapacidad para aprender, aplicar razonamientos o explicar por qué se tomaron ciertas acciones), es seguro asumir que la máquina es realmente inteligente para todos los propósitos prácticos. . Todo el proceso de verificación podría llevar solo unas pocas semanas, y ya se habría realizado para cuando se haga el anuncio. El anuncio probablemente incluiría detalles sobre las tareas que el sistema ha podido realizar, permitiendo al público estimar el grado de inteligencia de la máquina.
Consecuencias de una IA general a nivel humano
Dado que un AGI es capaz de realizar cualquier tarea intelectual que esperamos de un ser humano, algunas de las consecuencias de tal invención no son demasiado difíciles de predecir. Tal sistema puede reemplazar a cualquier ser humano en trabajos que no requieren interacción con el entorno físico, como todos los trabajos o aspectos de trabajos que se pueden realizar de forma remota. Siendo muy probablemente un sistema de software que se ejecuta en un hardware (inicialmente) costoso pero en última instancia estándar, puede duplicarse sin cesar a un costo que disminuirá rápidamente en el tiempo. Los trabajos de oficina son, por supuesto, los más amenazados, pero otros trabajos que implican una combinación de habilidades intelectuales y prácticas (como médicos o abogados que tendrán que interactuar personalmente con muchas personas y presentarse físicamente en los tribunales) se pueden dividir en un función con salarios más bajos (enfermera, por ejemplo) y una función intelectual (médico que hace preguntas, proporciona diagnósticos y propone terapias).
El costo del sistema es, por supuesto, un límite para su adopción. Digamos que un empleado de oficina cuesta en promedio entre $ 20k y $ 80k por año en países desarrollados, entonces tiene sentido económico para una empresa invertir n veces esa cantidad para un sistema inteligente que se espera que dure al menos n años, siempre que que los costos de funcionamiento son insignificantes. Además, sea cual sea el costo inicial de un sistema de este tipo, creo que podemos suponer con seguridad que se reducirá aproximadamente a la mitad cada dos años, de forma similar a lo que sucede con todos los productos de TI. Esto podría llevar a una adopción generalizada en el espacio de unos pocos años.
Ventaja inmediata para el descubridor
Dado el impacto que el descubrimiento podría tener en la sociedad, el costo inicial de la solución y la ventaja estratégica, el descubridor podría elegir no publicar los detalles de implementación del sistema. Por lo tanto, la compañía que lo posee puede disfrutar solo, durante algún tiempo, de cualquier ventaja que le brinde. Una escala horizontal grande de la solución (ejecutando cientos o miles de instancias de la misma) podría no ser factible inicialmente por razones económicas o de secreto. Lo que la compañía podría intentar hacer es dar a sus habilidades especiales de inteligencia artificial en ciertos dominios de alto rendimiento, de modo que un número muy limitado de instancias pueda lidiar con problemas muy complejos. Estas habilidades especiales podrían verse como herramientas que no aumentan en gran medida la inteligencia real del sistema, pero solo le dan lo que para un humano sería un acceso súper rápido e intuitivo a un software especializado. Piense en las herramientas de software estándar para las matemáticas o para la planificación de recursos o el análisis de big data. Uno de los dominios a los que se podría aplicar la IA es, por supuesto, la investigación sobre cómo mejorarse. Otros usos podrían consistir en ayudar en otros campos de investigación, o en tomar decisiones estratégicas de la compañía, e incluso en la inversión en el mercado de valores.
Reproducción de la IA por otros
En unos pocos meses, tal vez uno o dos años, el resultado seguramente sería replicado por otras compañías tecnológicas que trabajan en el mismo campo. Ahora estarían en la misma situación que la primera compañía, usando la IA para su ventaja. Mientras tanto, los trabajos de investigación se habrían publicado con algunos de los detalles de implementación, y la tecnología comenzaría a filtrarse y ser reproducida por más y más equipos de investigación de alto nivel, hasta que finalmente se empiece a implementar en clientes de pago.
Horas, días, meses
Dado este escenario hipotético y las consideraciones anteriores, es muy difícil decir qué sucederá en el momento inmediatamente posterior al anuncio. Mucho antes de que la superinteligencia se convierta en esa amenaza existencial [2] a los filósofos, científicos y emprendedores tecnológicos les preocupa, el AGI a nivel humano puede tener un enorme impacto en nuestras economías y sociedades a través de la ventaja tecnológica y la pérdida de empleos. La perspectiva de un final rápido de casi todos los trabajos de oficina podría ser un terremoto de enormes proporciones. ¿Cómo reaccionarían los mercados, los gobiernos y las sociedades?
Las acciones de la compañía que hace el anuncio se dispararían, posiblemente seguidas por las de las compañías tecnológicas que están esperando reemplazar el trabajo humano con IA (Facebook y Uber son los primeros ejemplos que se me ocurren). Pero también habría perdedores. ¿Quién se vería más afectado por la perspectiva del fin de los trabajos? ¿Proveedores de mano de obra? Empresas de consultoría? Empresas constructoras? (Piense en el impacto en las oficinas físicas y la vivienda). ¿Fondos de la pensión? ¿Y cuáles podrían ser las consecuencias incluso para las compañías que inicialmente se beneficiarían más, dado que venden productos a personas que finalmente ganan su dinero de trabajos que están en peligro? ¿Cuál sería el impacto en las empresas que producen el hardware necesario para ejecutar las IA?
¿Qué harían los gobiernos? Podrían considerar las consecuencias de tal invención demasiado arriesgadas para ser absorbidas por la sociedad, y tratar de detener la investigación privada en el campo, o clasificarla como un asunto de seguridad nacional y absorberla en la investigación militar. También podrían intentar aprobar leyes para prohibir el uso de software inteligente en los lugares de trabajo, pero la adopción de tales medidas se hace mucho menos probable por el hecho de que de todos modos solo podrían tener un efecto temporal, ya que sería prácticamente imposible aplicarlas. en un entorno de competencia global.
Eso es lo que puedo pensar en este momento. Cualquier otra consideración o comentario es bienvenido!
Notas al pie
[1] Superinteligencia
[2] Riesgo existencial de inteligencia artificial avanzada