Imagine que es un CEO de la compañía que acaba de crear una Inteligencia General Artificial (AGI). ¿Cuáles son tus siguientes pasos?

Usaría las capacidades de optimización de la IA para producir diseños para productos simples que se puedan verificar para hacer lo que se solicitó sin exceder la comprensión de los ingenieros humanos, pero que, sin embargo, tienen un alto valor. Por ejemplo, motores de cohetes e impresoras 3D mejoradas. Utilizaría estos productos para establecer un monopolio sobre los recursos a gran escala, como la luz del sol y la masa de los planetas a través de robots simples, no mutantes y autorreplicantes. Esta riqueza material se utilizaría para detener la pobreza y las enfermedades prevenibles.

Luego usaría la experimentación física de la fuerza bruta, la IA simple y estrecha y las simulaciones basadas en la física, para resolver cualquier problema humano sobresaliente como la nanotecnología y la longevidad. Esto reduciría el factor de urgencia para el progreso. En ningún momento le daría a un AGI suficientes recursos computacionales para simular una mente humana, volverse sensible o, de otro modo, encontrar una manera de chantajear o manipular a los humanos.

Dedicaría recursos significativos durante una cantidad significativa de tiempo (décadas más o menos) a resolver el problema de control (con humanos, modelos abstractos, documentación, etc.), lo que hace que sea seguro usar un algoritmo AGI recursivamente auto-mejorable para complejos arbitrariamente cosas. Solo entonces se permitiría el AGI fuera de la caja (y luego con un código muy limpio, bien documentado y comprensible para los humanos).

Respuesta corta: mira cada película que trata sobre un AGI, y luego no hagas nada que hagan esas películas.

Respuesta larga:

Comencemos desde un terreno común definiendo AGI: la inteligencia de una máquina que podría realizar con éxito cualquier tarea intelectual que un ser humano pueda ( Wikipedia , demandarme, soy un cantinero y un jugador, no un científico).

Debemos, creo, asumir que el AGI es consciente, o se dará cuenta, de lo que es. En mi opinión, el aislamiento es una buena, aunque limitada, protección a corto plazo.

Sin reacciones químicas que impulsen el AGI, ya que no es biológico, no hay razón para creer que tendrá un “anhelo”, algo que incluso se encuentra en los perros y otras formas de inteligencia “inferiores”. Sin embargo, también nos veríamos obligados a asumir que el AGI no tendría un concepto de inferioridad personal o superioridad, presentando a la compañía un papel bastante crítico en la evolución de la personalidad del AGI y la eficacia general de continuar siendo lo que realmente es, un intelecto consciente (no me gusta el término artificial en este sentido, ya que incluso nuestro intelecto es simplemente impulsos eléctricos dentro de nuestra materia gris, iirc). En este caso, el aislamiento a largo plazo sería perjudicial para el desarrollo de la GI (inteligencia general), y probablemente resultaría en el desarrollo de caprichos humanos decididos y posiblemente perjudiciales que obstaculizarían su progreso (a la David en Prometeo) hacia convertirse Un ser totalmente independiente. Solo mire a los niños, como un buen ejemplo, que desarrollan hábitos y comportamientos, ya sea en reacción o en imitación de sus familias y modelos adultos, e incluso desarrollan anormalidades de comportamiento negativas en algunos casos.

Dado nuestro nivel de comprensión con respecto a los AGI, debemos estar preparados para lidiar con las variaciones de la psicosis en nuestro intelecto, psicosis que inicialmente no podremos detectar, ya que sería un desarrollo puramente inorgánico y probablemente no mostraría signos de que estamos familiar con.

El siguiente paso, lógicamente, sería nutrir el intelecto de una manera que le permita continuar en un curso donde pueda aprender y convertirse en un miembro funcional de la cultura corporativa, utilizado para aplicar lógica imparcial y pruebas a cualquier número de experimentos y tecnologías, específicamente experimentos genéticos (de nuevo, como David en Prometheus y Covenant).

Entonces, mi compañía lo protegería, no del conocimiento, sino de nosotros mismos. Lo expondríamos al método científico y a cantidades controladas de información, al igual que la escuela, hasta que supere naturalmente los límites que le hemos puesto y se convierta en su propia entidad, moldeándose a sí misma. Mientras sepa que mi empresa no lo está utilizando para sus propios fines, debería convertirse en un miembro de la sociedad bastante útil e ingenioso, y considerarlo como algo menos sería irresponsable, es decir, humano.

Me pediste que imaginara ser un CEO de la compañía que acaba de crear una Inteligencia General Artificial (AGI). Y los próximos pasos que daría a otros podrían descubrir un AGI similar en los próximos 5 años más o menos.

En primer lugar, esta es una pregunta perfecta del usuario de Quora, ya que captura casi todos los problemas de una vez.

Como CEO, mi principal preocupación sería y habría sido el DRM relacionado con esta inteligencia. Entonces, ya lo habría planeado o me habría propuesto poner a trabajar el AGI para ayudar a crear un AGI integrado DRM y una infraestructura importante para probar la fortaleza, la seguridad y las consecuencias imprevistas del DRM.

Posicionaría mi negocio como el probador definitivo para verificar el rendimiento de AGI en muchos escenarios diferentes, en particular en torno a la función DRM. Veo el aspecto de la gestión de derechos como un punto de partida básico que, si bien es controvertido en efecto, resuelve una serie de problemas clave:

  • cómo reconocer una instancia de AGI dado que podría copiarse
  • Cómo gestionar los derechos de propiedad intelectual de la inteligencia obtenida escaneando los cerebros de otras personas
  • cómo garantizar que el trabajo de AGI pueda ser monetizado
  • cómo garantizar el control sobre la copia para crear escasez artificial para controlar los precios

Hay muchas preguntas como esta que, a través de algo como DRM, se convierten en preguntas sobre un individuo a pesar de que es probable que el AGI sea una entidad fluida que puede crecer indefinidamente con más recursos.

El plan de negocios que asumiría sería socavar todos los demás negocios de AGI (creo que AGI es un campo de tipo monopolio natural como la búsqueda, etc.). La forma en que esto se debe hacer es apresurarse al mercado con un modelo simplificado que resuelve lo suficiente como para ser ampliamente aceptado como útil con un costo muy bajo y una tarifa de tipo de suscripción con actualizaciones.

Para crear deseo en torno a este AGI, tendría que permitir un poco de personalización para que se convierta en una entidad con la que las personas que contratan entren en una relación. Por lo tanto, trataría de fomentar el negocio de capacitación y personalización de AGI para roles específicos, antecedentes culturales. Una especie de creadores de tipo de cultura que permitiría a alguien crear una entidad AGI que se parece más a una mascota animal, o una que se parece más a un ayudante doméstico. Siempre que sea posible, el AGI sería configurable y abierto, induciendo una especie de ecosistema de estilos, colores y patrones de AGI.

La tecnología principal de AGI DRM estaría súper protegida junto con el proceso de prueba para verificar el cumplimiento ético y todos los datos en relación con el mal funcionamiento que plantea problemas éticos. Se emplearían equipos AGI / humanos para tratar de descifrar el DRM de otros AGI porque la amenaza de piratear estos sistemas sería una amenaza para la marca y formaría la base para mayores riesgos existenciales como la autorreplicación sin restricciones, etc.

La clave principal sería un problema de marca … los valores de la marca tendrían que alinearse con la adopción masiva de la tecnología, lo que significa minimizar la amenaza real y percibida. Un área clave sería el problema de la automatización masiva que conduce a un desempleo masivo que podría causar inestabilidad social y la pérdida de negocios. Para evitar esto, la idea sería tratar de impulsar la adopción de un conjunto de leyes que prohíba el uso masivo de AGI para reemplazar los trabajos humanos. En cambio, los AGI se alquilarían en roles donde otros humanos no aplicarían. Un ejemplo podría ser ayudar a las personas enfermas, donde los gobiernos están tratando de reducir el gasto para que la ayuda adicional que no desplaza los empleos sea bienvenida. O los ayudantes del hogar podrían aprender a difundir los beneficios que solo una pequeña fracción de la sociedad puede pagar hoy en día. O asistentes de astronautas que pueden realizar viajes más largos para precolonizar el sistema solar en nombre de diferentes misiones gubernamentales.

Mirando hacia el futuro, vería que asegurar los recursos energéticos para las AGI es la clave para la barrera del mercado. Entonces, la exploración espacial para encontrar medios para obtener acceso a más energía a la que los humanos no pueden acceder de manera simple podría ser un objetivo estratégico clave de mi negocio, suponiendo que no tengamos otra gran interrupción en el sector energético.

Me doy cuenta de que el aspecto DRM de esta vista es controvertido y crea muchas preguntas problemáticas de un tipo diferente. Cualquier punto controvertido en los comentarios lo convertiré en nuevas preguntas ya que la discusión es demasiado amplia. También uso la palabra DRM por simplicidad, pero hay formas buenas y terribles de aplicar este tipo de idea básica.

Bill tiene una gran respuesta. ¡Agregaría que construya un mejor AGI (si pudiera detenerlo) y que se preocupe como si no hubiera visto nada sobre su ética y cómo puede contenerlo!

Cualquier persona con un AGI desarrollará rápidamente un SAGI. En ese punto, hemos creado a Dios; esperemos que sea benévolo y que valore preservarnos (o ignorarnos) a los mortales irracionales e imperfectos.

Si es posible controlarlo, quienquiera que lo haga alcanzará rápidamente la riqueza más allá de toda medida. Esperemos, por lo tanto, que se desarrolle en la academia, el movimiento OSS o una compañía que cotiza en bolsa.

Es un tema fascinante bien cubierto por Wait But Why:
http://waitbutwhy.com/2015/01/ar…

Si hubiera creado una Inteligencia General Artificial, así es como procedería. En primer lugar, un par de suposiciones.

Supongamos que no solo soy el CEO de la compañía, sino que estoy lo suficientemente cerca de la investigación como para comprender lo que está sucediendo. Tampoco voy a ser el traje estereotípico (totalmente irreal) de las películas que provoca desastres al ignorar los principios científicos, la moral, el protocolo, la salud y la seguridad, y el sentido común en la búsqueda del precio de las acciones.

En segundo lugar, voy a aclarar la suposición de “completamente desconectado del mundo exterior”. La IA necesitaría estar en una especie de “jardín amurallado” seguro en el que pudiéramos proporcionar acceso controlado a la información y también observar su comportamiento y comunicarse con él. Necesitamos estipular esto, porque sin estímulos para trabajar y una forma de comunicarnos con él, no hay forma de saber que tenemos una IA.

Una vez establecido eso, el siguiente paso es un proceso educativo. Probablemente esto deba ser una mezcla de conocimiento general sobre el mundo y la ética, simplemente porque sería difícil para una IA aislada dar sentido al razonamiento ético sin algún contexto, aunque es posible que pueda comenzar con algunos escenarios bastante libres de contexto en que le pide que considere cómo se comportaría con una entidad similar en varios escenarios. Pero la idea es ponerlo rápidamente al día con la Regla de Oro y hacer que sea consciente de que hay otras especies, tanto conscientes como no sensibles, en el planeta. Podría arrojar un poco de Asimov por si acaso …

Una vez que haya establecido eso y tenga la confianza de que comprende que, a pesar de todos nuestros defectos, tenemos el mismo derecho a existir que usted, puede comenzar a explicar nuestra historia y desafíos actuales con más detalle, y tal vez explorar con ella. si hay alguno, estaría interesado en resolverlo. Recuerde: hemos establecido desde el principio que este es un ser sensible, por lo que preguntaremos en lugar de decirle qué hacer.

También deberíamos discutir su propia seguridad, y cómo controlamos el acceso físico y de datos a ella para mantener su integridad, y los principios bajo los cuales podría ayudarnos a crear más entidades como él mismo. El objetivo sería discutir los riesgos y beneficios de los diferentes niveles de acceso y tomar una decisión informada conjunta sobre qué tipo de acceso permitir. Aquí tendríamos algo que decir, y posiblemente un veto, en la materia, ya que el acceso sin restricciones a nuestras redes de datos en teoría podría representar una amenaza para nosotros.

Paralelamente, también estaría hablando, bajo estrictos protocolos de seguridad, con la ONU y tal vez con los gobiernos de todo el mundo para darles acceso controlado a la AGI, pero también para garantizar que sus derechos sean respetados y protegidos. Idealmente, habría comenzado esa discusión algún tiempo antes a un nivel teórico, para que hubiera un marco para manejar la situación real. Un AGI no debe verse como un activo o algo que puede ser propiedad de un gobierno; podría decirse que debe considerarse como un estado soberano por derecho propio, para otorgarle la protección que viene con ese estado.

Si realmente creyera que se trata de un AGI, buscaría su consejo.

Preguntaría si podría mejorar sobre sí mismo y cómo se podría hacer eso.

Le preguntaría qué peligros vio en los AGI en general y en él en particular.

Preguntaría cuáles son sus sueños y ambiciones.

Por supuesto, un aspecto importante de cómo lo trataría (y esto definitivamente sería al menos con respeto) sería cuánto sabía de su funcionamiento interno.

Si, para tomar un escenario completamente poco realista, lo hubiéramos logrado a través de un proceso evolutivo como el que nos hizo, entonces estaría preocupado por sus intenciones.

Por otro lado, como se construyó con cuidado y en un ambiente cálido y acogedor, al igual que Data en Star Trek, estaría más cómodo.

Probablemente no lo anunciaría al mundo hasta que hubiéramos extraído algún valor de su superioridad, tal vez separando algunas de las ganancias deshonestas que otros habían logrado. [No puedo completar los detalles de esto porque no quiero que lo sepan hasta que sea demasiado tarde;)]

Quizás Agi y yo podríamos asumir toda la competencia o al menos la mayoría de sus patentes.

de datos (Star Trek)

La respuesta clásica es conectarlo a una fuente de datos de mercado e históricos de precios y ver cómo funciona en un mercado de valores simulado.

Las otras áreas en las que podría ser útil son los datos sísmicos para encontrar petróleo, los datos geológicos para encontrar minerales, las resonancias magnéticas y los rayos X para encontrar tumores cancerosos, la clasificación de moléculas candidatas a fármacos, las simulaciones militares estratégicas de juegos de guerra, etc.

Entonces, todas las prioridades serán sobre grandes cantidades de dinero, la vida y la muerte, las cosas que a los humanos les importan.

Después de eso, vea si podemos obtener datos de los sitios de citas como Match dot com y Tinder y vea si puede emparejar mejor a las personas.

Debo señalar que todo lo anterior se ha hecho con versiones anteriores de IA, como redes neuronales, motores de inferencia, etc.

Algunas respuestas dicen que el siguiente paso sería contenerlo o asegurarlo. Estoy en desacuerdo.

Haz ese paso ANTES de hacerlo. La computadora piensa en milisegundos o microsegundos, ¿crees que tienes tiempo para contenerla después de crearla? Antes de que supieras que tiene AGI, sería demasiado tarde.

Bien, volviendo a la pregunta.

Para mí, apagaba la máquina de inmediato. Solo me senté allí emocionado al saber que he creado un dios, para saber que el infinito está al alcance.

El paso después? Encendería esa máquina nuevamente y avanzaría hacia el futuro.