¿Se puede diseñar la IA para imitar comportamientos humanos específicos, como tomar decisiones irracionales, ser subóptimos y cometer errores como las personas?

No solo puede cometer errores, sino que si estamos hablando de una IA fuerte en general en un mundo amplio y complejo, no se puede diseñar de otra manera.

TLDR: si expones cualquier IA a un mundo lo suficientemente complejo, cometerá errores, como cualquier cerebro biológico. La IA no es mágica.

Vivimos en un mundo infinitamente complejo .

Imaginemos por un minuto que queremos construir un cerebro imaginario que siempre tome decisiones óptimas. Requeriría al menos 3 cosas:

  1. Somos capaces de reunir un conocimiento infinito y exhaustivo de la palabra.
  2. Tenemos una memoria infinita para almacenar ese conocimiento.
  3. Tenemos un poder de procesamiento infinito para procesar todo ese flujo de datos.

Solo entonces podríamos esperar obtener una solución óptima.

El problema aquí es que ninguna de esas 3 hipótesis es cierta en el mundo real.

En el mundo real:

  1. Solo tenemos acceso a un conocimiento muy parcial del mundo. Es imposible medir cada pieza de datos en el mundo en todo momento.
  2. Incluso si tuviéramos la capacidad de medir esa cantidad infinita de conocimiento, no podríamos almacenarlo, porque tenemos una cantidad limitada de memoria.
  3. Incluso si tuviéramos una cantidad ilimitada de memoria, no tenemos una potencia de procesamiento ilimitada para procesar el flujo de datos.

Tanto las IA como los cerebros humanos tienen una percepción , memoria y poder de procesamiento limitados. Nos vemos obligados a lidiar con nuestras limitaciones. Por lo tanto, la única forma de lograr algo es usar aproximaciones y heurísticas, para ajustar tantos datos significativos como sea posible en nuestra memoria limitada, y procesar tareas que sean razonablemente posibles con nuestra capacidad de procesamiento limitada.

Este truco de magia se llama estadística . Los procedimientos estadísticos nos permiten transformar los datos de entrada en un tamaño más pequeño con una pérdida limitada de semántica.

Los cerebros biológicos están naturalmente conectados para ejecutar esos procedimientos estadísticos. Era necesario para la supervivencia porque un individuo (humano o animal) solo percibe una fracción muy pequeña del mundo, y todavía tiene que tomar decisiones basadas en ese conocimiento parcial.

En las IA, los investigadores generalmente crean esos procedimientos manualmente desde cero, o construyen una estructura de la cual emergen dichos procedimientos.

Los cerebros aprenden constantemente, y la única forma de aprender es, para un objetivo determinado, probar varias configuraciones y conservar la que dio el mejor resultado. Nuestro cerebro hace eso cada segundo de cada día. Nuestros errores y nuestros prejuicios provienen de la limitación de nuestro cerebro en la percepción, la memoria y el poder de procesamiento.

Las IA tienen exactamente las mismas limitaciones, por lo tanto, también están sujetas a sesgos y errores. Incluso la mejor de las mejores IA puede fallar: las 10 principales fallas de IA de 2016. Cometen esos errores cuando su dominio de trabajo es muy amplio y complejo, y su capacidad de memoria y procesamiento es limitada.

Me imagino que los AI cometerán más y más errores “grandes” en el futuro, ya que tendrán responsabilidades cada vez mayores en nuestras vidas.

Hay una razón por la cual muchas personas creen que las IA no cometen muchos errores:

No hemos (todavía) dado a las IA muchas oportunidades de cometer errores .

Cada vez que estamos expuestos a una IA en la vida diaria de nuestros consumidores:

  • Está diseñado para funcionar en un contexto muy estrecho (detección de obstáculos, detección de rostros, juegos, etc.). El área de exploración es muy reducida, y esto limita enormemente las oportunidades de cometer errores.
  • Dado que está diseñado solo para una tarea, siempre se centra en ella el 100% del tiempo. Compare esto con los humanos, que deben conducir, hablar y cambiar a la siguiente pista en su iPhone al mismo tiempo.
  • Las IA en productos diseñados para consumidores reciben capacitación una y otra vez antes de venderse al público. Por lo tanto, solo usamos lo mejor de lo mejor que pudimos lograr en los laboratorios. Si hacemos una analogía con los humanos que aprenden tenis, sería como si todos los jugadores aficionados estuvieran ocultos para ti, y todo lo que ves son los jugadores de nivel olímpico. Crecería la creencia de que todos los tenistas son increíblemente buenos.

Aquí, un ejemplo clásico de un robot que ejecuta una tarea demasiado compleja para su capacidad interna:

Ahora, para responder a su pregunta, si una IA es demasiado perfecta en su trabajo, es muy fácil cometer errores. Simplemente agregue algo de ruido aleatorio en su proceso de decisión, o reduzca su memoria o potencia de procesamiento. ¡Y listo, tienes una IA que se adapta perfectamente a su tarea original, pero que aún comete errores artificiales!

¿Se puede diseñar la IA para imitar comportamientos humanos específicos, como tomar decisiones irracionales, ser subóptimos y cometer errores como las personas?

¡Sí, por supuesto!

Un ejemplo común es el software de juego de ajedrez.

Todas las versiones comerciales tienen una función de ajuste de fuerza. Para disfrutar de la experiencia competitiva más interesante, un jugador puede seleccionar cualquiera de varios niveles de habilidad de software para que coincida más estrechamente con la suya.

Por lo general, las configuraciones inferiores al máximo del software debilitan el juego del sistema al acortar progresivamente el tiempo de búsqueda o la profundidad del árbol de decisiones.

La falta de tiempo aumenta la posibilidad de que el sistema pierda ciertos movimientos. Un árbol de decisión truncado puede evitar que el sistema note la siguiente capa de respuestas, una o más de las cuales resulta degradar el “mejor movimiento” del sistema hasta entonces.

Una forma alternativa de lograr el debilitamiento sería simplemente programar el sistema para descartar mejores movimientos con mayor frecuencia o de manera más drástica.

Un tercer enfoque sería, ya sea en algunos turnos o en cada turno, hacer que el sistema asigne a cada movimiento legal un número de identificación, genere un número aleatorio y seleccione el movimiento que genere, sensible o no, emulando así a un novato emocionalmente impulsivo o despistado. jugar.