Muy improbable : principalmente en un área compleja como la inteligencia artificial (IA) o el aprendizaje automático (ML) partimos de evidencia empírica y avanzamos hacia pruebas teóricas, sucede como:
- Un investigador se inspira en alguna fuente extraña.
- Obtiene un momento aha e implementa el algoritmo X.
- El algoritmo X está empíricamente demostrado que funciona muy bien, de modo que otros investigadores se unen.
- Más investigadores comienzan a preguntar, ¿por qué? ¿Y cómo? Comienzan a presentar pruebas teóricas y razones sobre cómo y por qué X funciona mejor.
Por supuesto, el algoritmo X puede desarrollarse desde una perspectiva puramente teórica, pero es difícil y casi imposible sin inspiración. Los investigadores normalmente necesitan inspiración y esa inspiración normalmente proviene de “¿por qué y cómo funciona X tan bien?” . El cerebro contiene algoritmos de aprendizaje excepcionales, por lo que es natural tener un punto de entrada de investigación a partir de ahí. Es muy probable que imitar los algoritmos o neuronas del cerebro sea un esfuerzo de investigación fructífero porque el cerebro ha demostrado que funciona. Por lo tanto, al tratar de imitar o emular la arquitectura del cerebro, podríamos encontrar soluciones a la inteligencia. Es muy poco probable que la inteligencia se resuelva con inspiraciones de otros lugares, el cerebro humano guarda muchos secretos para la inteligencia artificial general (AGI).
Es por eso que grupos de investigación de primer nivel como DeepMind buscan inspiración en la naturaleza. El aprendizaje por refuerzo (RL), que se utilizó en el sistema AlphaGo, está inspirado en agentes biológicos en entornos del mundo real. A los matemáticos o investigadores les habría llevado mucho tiempo descubrir otros impresionantes algoritmos de ML como las redes neuronales convolucionales de vanguardia (convNet) sin la inspiración de la corteza visual primaria.
- ¿Por qué hay tantos investigadores de IA tan interesados en la psicología del desarrollo?
- ¿Cuándo lograremos AGI?
- ¿Cómo puede ayudar la inteligencia artificial en el sector energético?
- ¿Cuáles son algunas formas teóricas en que la inteligencia artificial podría generar una cantidad ilimitada o inimaginable de riqueza para los inmortales en el futuro?
- Si la IA pudiera usarse para gobernar el país y hacer cumplir la ley dentro de un conjunto de estatutos y limitaciones y sin sesgos, ¿sería probable que se desarrolle de manera similar a SkyNet en las películas de Terminator?
Por lo tanto, la evidencia empírica es un buen punto de entrada para encontrar con éxito otros algoritmos impresionantes. La búsqueda de comprender nuestro algoritmo hipotético X conduciría al descubrimiento de pruebas matemáticas que resultarían en el desarrollo de más algoritmos. Con el tiempo, otros modelos de trabajo que no se parecen en nada a las redes neuronales del cerebro pueden comenzar a aparecer. Los modelos ML como las redes neuronales recurrentes (RNN), como las redes de memoria a largo plazo (LSTM) o de unidad recurrente cerrada (GRU) tienen muy poca semejanza con las neuronas cerebrales, pero aún se ramifican indirectamente desde la misma raíz.
Más abajo en los caminos de investigación, los algoritmos evolucionan para parecerse cada vez menos a lo que los inspiró en primer lugar. Como puede ver, las redes neuronales artificiales (ANN) comenzaron con los perceptrones con funciones escalonadas pesadas pero eran muy difíciles de entrenar debido a la naturaleza discontinua de las funciones escalonadas.
Algunos investigadores se dieron por vencidos y siguieron buscando direcciones de investigación más prometedoras en ese momento. Mientras que otros investigadores cuestionaron, con la inspiración de la neurociencia, ¿cómo entrenamos a estos ANN? Luego, se volvió a descubrir el algoritmo de backprop y se eliminó la función de paso en favor de las funciones de activación diferenciables continuas. Así, tales funciones de activación continua no lineal se adoptaron en aras de la optimización del gradiente (aprendizaje). Desde entonces, la diferenciabilidad y la no linealidad se han convertido en propiedades muy importantes de las funciones de activación en algoritmos ML.
Presentados con esa evidencia empírica, los investigadores comenzaron a encontrar pruebas como el teorema de aproximación universal para tratar de explicar el por qué / cómo parte. Incluso hoy, los algoritmos de aprendizaje profundo (DL) no tienen formulaciones matemáticas y teóricas adecuadas. Todavía confiamos en observaciones empíricas al adoptar qué algoritmos de ML usar.
Finalmente, ML se ha convertido en otra teoría glorificada de optimización avanzada que requiere funciones objetivas diferenciables. El objetivo aún no se ha alcanzado, muchos problemas interesantes en inteligencia artificial no son diferenciables.
Tenemos mucho que aprender de los cerebros de los mamíferos y de los insectos. Pero no es necesario emular las neuronas cerebrales reales, pero tal vez solo necesitemos imitar los algoritmos que se ejecutan en esos cerebros para resolver la inteligencia.
Espero que esto ayude.