¿Cómo pueden los informáticos monitorear una inteligencia artificial que posee mayor inteligencia que ellos?

Hay dos problemas con su premisa, el primero es comprender la inteligencia y el segundo es la implicación del engaño. Echemos un vistazo a ambos para ver si podemos llegar a una respuesta a su pregunta:

Medir la inteligencia y el aprendizaje no es una tarea lineal. Una computadora puede “aprender” una tarea o una serie de tareas mediante la instalación de una aplicación. Para que una computadora realmente aprenda algo, tiene que ser programada para resolverla por sí misma basándose en un conjunto de suposiciones. Esos supuestos se le deben dar, generalmente a través de la codificación integrada en la aplicación principal de IA. Usemos la prueba del café como base para esta discusión. La prueba de café es una de las muchas pruebas de inteligencia utilizadas para demostrar la fuerza y ​​la capacidad de una IA, no muy diferente de la prueba de Turing. La tarea es que una IA que controla una plataforma móvil comience fuera de un hogar humano, navegue hacia la cocina y prepare una taza de café. Debe hacerlo sin conocimiento previo del hogar, todo esto es un primer paso. Para empezar, debe tener una comprensión bastante completa de la física junto con la conciencia espacial y la propiocepción, que es la conciencia del propio cuerpo. Entonces también debe tener un catálogo de formas básicas y formas de todos los dispositivos que podrían usarse para preparar café, verter agua, sostener café, servir como filtro, etc. Esto se suma a una amplia capacidad para descifrar la escritura de una amplia variedad de fuentes, orientaciones, colores y demás. Todo esto sería programado de antemano.

Por supuesto, hay algunos investigadores que están comenzando a un nivel aún más basal y “enseñando” una IA de aprendizaje desde cero. ¿En qué punto creen los investigadores que la máquina ha superado su capacidad de enseñar? Esa es una medida difícil de entender porque la noción de inteligencia es decididamente antropomórfica; Es una convención humana. La IA no es humana, ni animal, no es nada para lo que el criterio utilizado para medir nuestras habilidades sería útil. La idea de una IA singular o superinteligente es algo que ni siquiera se puede detectar si se realiza porque no estamos realmente seguros de cómo se vería.

La idea de que una computadora desplegaría un engaño para expulsar a los pequeños humanos es otra convención antropomórfica. Una máquina puede ser consciente de sí misma sin ser sensible. El engaño implica emoción, la emoción implica sensibilidad, la sensibilidad no es algo que tenga un propósito en una máquina que no tiene la capacidad externa de sentir. He respondido a preguntas como esta antes y simplemente no existe una aplicación práctica para que una IA sienta o experimente emociones. Además, no hay una sucesión lógica que tenga demasiado sentido para que una máquina aprenda sensibilidad.

La idea de la superinteligencia informática es un escenario muy posible que probablemente enfrentaremos en un futuro no muy lejano. Las primeras señales para que ocurra es cuando una IA es capaz de escribir código más eficiente que con el que se programó originalmente. Lo siguiente sería ir más allá del código y crear un nuevo lenguaje de programación que sea más eficiente que el código que se usó originalmente. El paso más allá sería diseñar procesadores físicos u otros componentes que rivalicen o superen los creados por los humanos. En ese punto, la superinteligencia está aquí y la curva de la Ley de Moore se vuelve hiperbólica.