¿Puede la inteligencia artificial perfecta cometer errores?

¡Si!

No nombro ningún sistema como sistema de IA perfecto. Uno no puede construir un sistema de IA perfecto y sin defectos que pueda reemplazar al ser humano. El sistema de IA puede ayudar al ser humano o, en el caso más raro, puede reemplazar al ser humano por una tarea común (monótona). El uso del sistema de inteligencia artificial para realizar una tarea, que nunca cambiará, puede ser acuñado como el sistema de inteligencia artificial perfecto.

Pero, desafortunadamente, el cambio es el elemento obligatorio en el mundo digital. Un sistema que ha sido entrenado para un escenario particular no puede funcionar perfectamente para el escenario actualizado. Permítanme compartir algunos ejemplos para este escenario.

  1. La automatización robótica de procesos desarrollada utilizando un tipo particular de monitor fallará / puede fallar para otro tipo de monitor. Como las características del monitor se actualizan regularmente, la automatización perfecta no será posible en este caso.
  2. En el correo de Google (Gmail), Google ha invocado el sistema AI para detectar y filtrar el correo no deseado. Desafortunadamente, pocos buenos, reales e importantes, no el correo no deseado había llegado a la carpeta de spam. Este será el mejor ejemplo de que no podemos construir un sistema de IA perfecto.

Para ser corto,

Sistema de IA o IA, solo puede ayudar al ser humano. No puede reemplazar la inteligencia real.

¡Aclamaciones!

En mi humilde opinión, creo que para que un agente inteligente artificial sea perfecto, debería cometer errores. Nosotros los humanos (también resulta que somos seres inteligentes) cometemos errores. Los errores y las elecciones incorrectas generalmente provienen de la aproximación estadística en agentes que aprenden de datos o experiencias. Otras fuentes de errores son el ruido y la deformación en cualquier parte del proceso de decisión. Entonces, los errores deberían suceder, la única diferencia es que los agentes de IA pueden usar sus poderes computacionales masivos y sus habilidades cooperativas para reducir los errores y tratar con ellos.

Depende de tu teoría de la inteligencia artificial. La teoría del desarrollo humano de Piaget se basa en un concepto llamado equliibration, que es el reequilibrio que ocurre después de que uno ha cometido un error (donde las expectativas no coinciden con los resultados de una acción tomada o un plan ejecutado). En la teoría de Piaget, los errores impulsan el desarrollo. Entonces, si una IA se desarrollara de acuerdo con los principios de Piaget, sería necesario que la IA cometiera errores para aprender y desarrollarse.

Sí, si intenta responder una pregunta real, entonces en el mundo real es muy probable que sus modelos sean solo aproximadamente verdaderos. Además, y especialmente en sus tratos con los humanos, la irracionalidad de los materiales con los que debe interactuar significa que se equivocará.

Si se les pregunta a los números ganadores de la lotería antes de que sean elegidos, es probable que no sea más correcto que la siguiente persona.

Si. Fácilmente. Hay un dicho en la programación. “Basura adentro Basura afuera”. Significa que el resultado de cualquier cálculo es tan bueno como los datos de origen y el algoritmo que opera en él.

La inteligencia artificial está tratando de encontrar señales en el ruido o buscar algo dentro de un espacio de conocimiento limitado. Pero puedes mentirle a una computadora como puedes mentirle a una persona. Puede darle datos que omitan algo importante. El algoritmo a veces puede detectar algo en los datos que no es realmente significativo.

En cada uno de estos casos, la IA cometerá errores.

Un agente inteligente perfectamente versado en el arte de hacer deducciones probabilísticas aún puede apostar por el resultado incorrecto, porque lo improbable no es lo mismo que lo imposible. Aunque para todos los fines prácticos, se debe elegir una respuesta.

No existe tal cosa llamada “IA perfecta”.

Incluso si encontramos un camino en el futuro, la mayor parte de la investigación de IA (real) fuerte actualmente se trata de hacerlos “parecidos a los humanos” en lugar de perfectos, lo que todavía es un sueño muy descabellado hasta ahora.