Si usa la propagación hacia atrás, entonces, por definición, está utilizando el aprendizaje supervisado. El aprendizaje supervisado se basa en modelos y, por lo tanto, nunca conducirá a una inteligencia artificial GENERAL.
Permítanme explicarlo: si muestra los videos de IA de gatos y perros y lo recompensa por detectar correctamente si el video muestra un gato o un perro, entonces el sistema se ha convertido en un discriminador de perros y gatos … ya que eso es lo que solicitó. Al mismo tiempo, no puede aprender a discriminar a los animales de pelaje blanco de animales de pelaje marrón o animales felices de animales infelices. Has restringido la IA a un dominio muy estrecho.
Por el contrario, las inteligencias reales como los niños humanos aprenden todo tipo de cosas sobre todo todo el tiempo, no una pequeña dimensión a la vez. Usar solo una dimensión NO es una simplificación del problema, está restringiendo su IA a un problema de juguete y, en esas situaciones, los métodos reduccionistas (basados en modelos) funcionarán … y lo desviarán de los métodos y dominios donde verdadero AGI se encontrará (eventualmente).
- ¿Es la inteligencia humana un tipo de inteligencia artificial?
- ¿Cuán plausible es la teoría de que la inteligencia humana proviene de un solo algoritmo?
- ¿Cómo aprenderán los niños en el mundo de la inteligencia artificial avanzada?
- ¿Cuáles son las contribuciones más notables de Andrew Ng en el campo de la inteligencia artificial?
- ¿Por qué la gente suele confundir la IA actual en el mercado con AGI?
Discuto esto en mi video Dual Process Theory.
La cuestión de cómo conectar “neuronas” usando “sinapsis” y qué “fortalezas” deberían tener es una pregunta discutida en el campo naciente de “Algoritmos de Connectome”. No ingrese al campo sin comprender suficiente Epistemología y Filosofía de la Ciencia para poder sacudirse el sesgo reduccionista que ha adquirido en su educación científica hasta ahora.