¿Es posible que AI (Inteligencia Artificial) encuentre una solución al cometer errores (errores humanos)?

Cometer errores a sabiendas no es “aprender”. Solo cuando se desconoce, “cometer errores” arroja más luz sobre “cómo” o “por qué” el error ocurre produciría nuevos conocimientos, por lo tanto, ayudaría a la inteligencia: si es nuestro o artificial.

Entonces, la IA sí “reproduce” los errores y sí los usa para obtener un mejor conocimiento. Hay dos formas de utilizar dicha información: el enfoque de aprendizaje automático más moderno básicamente ignora las reglas “predeterminadas” para lo correcto o incorrecto, en cambio, permitirá que los algoritmos “encuentren” la “correlación” óptima que prediga mejor el resultado en función de la entrada dada. Este enfoque es una gran cantidad de prueba y error (o más correctamente, intente encontrar mejores parámetros, por lo tanto, hace que el parámetro anterior y peor sea “incorrecto”). Por lo tanto, en realidad trata de buscar parámetros “mejores”, pero su proceso es básicamente probar, calcular y determinar “menos que optinal”, y luego eliminarlos. Entonces, en este sentido, la IA comete más errores que las respuestas correctas, pero debido a su velocidad, en realidad es mucho más eficiente para la IA adoptar ese enfoque en muchas áreas.

Algunos casos de uso de IA más específicos, como el análisis de errores para algunos programas de computadora, en realidad no están “cometiendo errores” por sí mismos, sino que responden secuencias que resultan en errores y ayudan a facilitar el análisis de los errores. Esto es más un uso de la IA, en lugar de que la IA se mejore a sí misma.

De Construyendo mentes con patrones (DRAFT):

1.4 EQUILIBRACIÓN

Jean Piaget es más reconocido por sus etapas de desarrollo infantil. Los teóricos neo piagetianos han actualizado las conclusiones de Piaget sobre las etapas de desarrollo a la luz de las teorías más actuales del procesamiento de la información (Demitriou 2006). Piaget es menos conocido por su teoría de cómo una mente calibra su equilibrio. Piaget, en The Development of Thought (1977), afirma que el proceso central en el desarrollo humano es la construcción de un modelo mental preciso del mundo, construido mediante la detección continua y la compensación de las diferencias entre las expectativas y los resultados reales. Piaget llamó a este proceso central “equilibrio”. El equilibrio se puede imaginar como una espiral de retroalimentación entre la mente y el cuerpo. Es una espiral porque las estructuras cognitivas de la mente no permanecen estáticas, sino que se compensan en cada ciclo. Entonces, en lugar de volver a la homeostasis, las estructuras cognitivas experimentan mejoras homeoréticas que mejoran gradualmente la comprensión general de la mente del mundo.

11. COMPENSACIÓN

La compensación es la modificación del comportamiento basada en la retroalimentación ambiental. La compensación generalmente ocurre a través de soluciones de regulación (corrección o refuerzo) o de inversión. Este patrón es útil cuando las soluciones deben priorizarse, descartarse o adaptarse mediante la retroalimentación ambiental

Piaget (1977) vio el proceso de equilibrio (es decir, compensar las perturbaciones) como el proceso central del desarrollo. Las perturbaciones pueden ser positivas o negativas. Las perturbaciones positivas se llaman confirmaciones. Una confirmación es una expectativa validada (por ejemplo, un intento de acción exitoso o un ensayo de solución exitoso). Las perturbaciones negativas se llaman sorpresas. Una sorpresa es una falla en la expectativa (por ejemplo, un intento de acción fallido o una prueba de solución fallida).

Las compensaciones específicas son importantes. Entre ellos, la regulación (corrección y refuerzo), rechazo, deformación, reciprocidad e inversión son primordiales. Las compensaciones por confirmaciones implican principalmente refuerzo. Hay varias formas de compensar las sorpresas. Las sorpresas pueden ser: corregidas por modificación de prioridad o modificación genética (regulación); total o parcialmente ignorado (rechazo); reenmarcado para ajustarse a otra categoría (deformación); aceptado como una excepción para ser recordado y actuar (reciprocación); o transformado de alguna manera, por ejemplo, al cancelarlo (inversión). Además de las confirmaciones y las sorpresas, también hay choques (consecuencias negativas no deseadas), casualidades (consecuencias positivas no intencionadas) y problemas (impedimentos).

Reimpreso con permiso.

Bueno, esencialmente, de eso se trata Machine Learning.

La mayoría de los algoritmos de ML (incluidas las redes neuronales) son una búsqueda a través de un espacio de modelos alternativos, buscando el modelo que mejor se adapte a los datos. La fuerza impulsora que hace que el sistema ML pase de un modelo a otro es aprender de los errores que cometió el modelo subóptimo. Por ejemplo, en redes neuronales, esta es la esencia de la retropropagación.

La mayoría de los algoritmos AI / ML aprenden de esta manera sobre su ajuste iterativo. Para el aprendizaje profundo, inyectar pequeñas cantidades de ruido a veces ayuda a la precisión (la introducción de errores parece ayudarlo a aprender mejor).

De acuerdo, podemos definir aprender algo como “eres capaz de hacer cosas que no podías hacer antes”. Es decir, algo entre ahora y antes ha cambiado. Con los animales, no sabemos exactamente qué es ese algo, pero podemos verlo desde afuera. ¿Cuál es la forma más natural de aprender? ¿Cómo aprendiste a conducir una bicicleta? Es posible que haya usado ruedas de entrenamiento que solo le dan pequeñas pistas de que su equilibrio no era del todo correcto (creo que sin las ruedas de entrenamiento el aprendizaje es mucho más rápido). Y cuando las ruedas de entrenamiento finalmente se quitan, su equilibrio parece ser perfecto. Esto se debe a que sus músculos y nervios han reunido suficiente información sobre lo que debe hacerse para equilibrarse con una bicicleta y, lo que es más importante, lo que no debe hacerse.

Este tipo de razonamiento está detrás de la teoría del aprendizaje computacional. Su principio subyacente es que cualquier cosa que haga algo gravemente malo se descubrirá después de un pequeño número de intentos porque cometerá un error. Por lo tanto, cualquier cosa que sea consistente con un gran conjunto de intentos sin cometer un error, es poco probable que sea gravemente incorrecto. Podemos concluir que probablemente sea aproximadamente correcto . Esto nos dice que si chocas con una bicicleta, no significará que no sabes cómo equilibra la bicicleta. Acabas de chocar y eso es todo.

Esta pregunta es in situ porque se remonta a la teoría que se ha meditado durante varios siglos. Creo que por eso creemos que el aprendizaje automático funciona debido a nuestras propias experiencias de aprendizaje: es exactamente cometer errores y encontrar cosas que están seriamente mal.

No solo es posible, es esencial. Al igual que los humanos, las IA deben aprender mediante prueba y error, con énfasis en el error. Para cualquier problema hay soluciones potencialmente múltiples. Encontrar la mejor solución requiere probar muchas soluciones que pueden o no funcionar. Una solución óptima hoy puede no funcionar mañana. A veces es imposible conocer la mejor solución a menos que pruebe muchas soluciones y encuentre errores. El aprendizaje está en los errores.