Esto fue probado en los experimentos de AI Boxing 2002 por Eliezer Yudkowsky y Justin Corwin e informó sobre la lista de correo SL4. En estos experimentos, los humanos interactuaron con otros humanos jugando varios tipos de IA (amigable o hostil, honesto o mentiroso, nivel humano o infrahumano) en un entorno similar a la prueba de Turing. En el último refinamiento, el resultado fue que 24 de 26 humanos liberaron la IA. De los dos que no lo hicieron, ambos terminaron la sesión antes de tiempo. Un humano tenía malas habilidades sociales y el otro se opuso a la IA por motivos religiosos. SL4: AI Boxing.
Los experimentos hacen dos suposiciones sobre IA que creo que no son realistas. Primero, supone que puede ocurrir una singularidad de despegue rápido en un entorno aislado. La idea es que si un humano puede producir una inteligencia sobrehumana, aunque sea un poco, entonces también puede hacerlo, solo que más rápido. Esto da como resultado una explosión de inteligencia del tipo descrito por IJ Good y Vernor Vinge. No podemos predecir cómo procederá esta evolución, porque si pudiéramos, ya seríamos más inteligentes que la IA que produjimos.
La segunda suposición es que una IA es un poderoso proceso de optimización dirigido a objetivos. Por lo tanto, si le damos un objetivo aparentemente benigno pero poco especificado, como hacer clips, entonces a medida que se vuelva más poderoso, hará todo lo que esté en su poder para embellecer el sistema solar con clips y eliminar a la humanidad en el proceso. Nuestro error fue no especificar el objetivo con más cuidado, como “hacer clips sin usar los átomos en nuestros cuerpos para hacerlo”.
- ¿Por qué Facebook quiere usar inteligencia artificial?
- ¿Qué significa FOPL y explica su papel en la inteligencia artificial?
- ¿Qué debo saber antes de comenzar el curso de IA?
- ¿Qué constituiría "evidencia" de que nosotros mismos somos conscientes?
- ¿La IA va a destruir el futuro? ¿Por qué?
Creo que ambos supuestos están equivocados. Primero, la inteligencia depende del conocimiento y la potencia informática. Un programa aislado no puede obtener conocimiento (medido por la complejidad de Kolmogorov) reescribiéndose a sí mismo. Tampoco puede obtener potencia informática sin la capacidad de adquirir materiales y energía. Claramente, la mejora personal recursiva es posible en algunos contextos, por ejemplo, una empresa que reinvierte sus ganancias para crecer exponencialmente. Pero el umbral de inteligencia que debemos superar es el de toda la humanidad, no un solo humano. Construir IA es un esfuerzo global y colectivo para recopilar conocimiento humano y crear la infraestructura para fabricar miles de millones de computadoras.
En segundo lugar, los poderosos sistemas de inteligencia artificial como Watson, Facebook y Google no son procesos de optimización dirigidos a objetivos. Nadie escribió un alumno de propósito general y le dijo que descubriera por sí mismo cómo ganar en Jeopardy o aumentar las ganancias corporativas. La razón simple es que no existe un algoritmo de aprendizaje de propósito general . Shane Legg lo demostró. Los estudiantes poderosos son necesariamente complejos. [cs / 0606070] ¿Existe una elegante teoría universal de la predicción?
Lo más cercano que tenemos a la IA hoy ya ha “escapado”. Está en Internet e interactúa con miles de millones de personas.