El aprendizaje automático (ML) como un campo generalmente abarca el proceso general de aprendizaje por máquinas. El aprendizaje es la principal fuente de inteligencia, por lo que resolver el aprendizaje en máquinas es lo mismo que resolver la inteligencia en máquinas. Esto hace de ML una frontera algo final para resolver la inteligencia de una vez por todas.
ML puede tomar varias formas, hoy puede ser una teoría de optimización matemática glorificada y mañana podría ser otra cosa. Los algoritmos de optimización basados en gradientes han dominado la forma en que se actualizan los parámetros del modelo ML para adaptar el sistema a la tarea en cuestión. Pero tal vez no sea así, de hecho, en el cerebro humano no hay evidencia de tal propagación de errores durante el aprendizaje. Por lo tanto, ML puede involucrar cualquier algoritmo de aprendizaje que mejore un modelo dado un objetivo o algunos datos para modelar. Por lo tanto, en el futuro, ML podría tomar una forma totalmente diferente de lo que tenemos hoy. Lo más probable es que los modelos no diferenciables comiencen a ser más atractivos y los métodos para optimizar dichos modelos comenzarán a escalar a sistemas no diferenciables más grandes.
Pero múltiples niveles de representaciones, la base del aprendizaje profundo (DL), es más probable que sobreviva a través de la evolución de ML como un campo. Esto se debe a que las representaciones más profundas también están presentes en los cerebros de los mamíferos, lo que nos dice que emitir problemas en términos de constituyentes más simples y construir a partir de allí es una forma muy poderosa de resolver problemas. Lo hacemos incluso cuando desarrollamos sistemas de software con diferentes capas de representaciones. Por lo tanto, se espera que DL como un campo también evolucione a lo largo del tiempo extra pero que lleve consigo la base de la naturaleza compositiva de la representación.
- ¿Qué es el autómata pushdown?
- ¿Cómo se separan los procesos en hilos?
- ¿Qué tareas siguen siendo demasiado difíciles de resolver para una computadora, a pesar de un esfuerzo significativo?
- En la era del comercio algorítmico y la inteligencia artificial, ¿cómo se entrena un aspirante inversor?
- Cómo mejorar mis habilidades de escritura técnica
Por lo tanto, como un campo ML probablemente se mantendrá, pero los algoritmos cambiarán las horas extra y a medida que el campo se vuelva más amplio, al igual que la inteligencia artificial (IA), se dividirá en más subcampos para permitir la especialización. Piense en ello como un árbol, el primero fue la IA y las horas extra de IA se volvieron demasiado amplias, por lo que tenemos ML como un niño. Entonces, a medida que ML crezca, simplemente tendrá hijos.
Por lo tanto, ML podría tener campos secundarios que implican el estudio de la conciencia en máquinas como el libre albedrío, el pensamiento independiente y las emociones. Esto hace que las cosas sean interesantes porque después de resolver la inteligencia, el siguiente problema es, por supuesto, la conciencia, probablemente nos preguntaremos si nuestros algoritmos son conscientes y cómo podemos estudiar su capacidad de poseer pensamiento independiente, razonamiento y libre albedrío, será más como la vida de la máquina. También será más como la psicología de la máquina.
Pero estamos lejos de eso, como un campo muy joven, ML está lejos de pensar en tener una familia propia. Hay muchas preguntas sin respuesta en ML como:
- ¿Qué comprende la inteligencia?
- ¿Cómo se adaptan tan fácilmente las redes neuronales biológicas a los estímulos complejos? En realidad, esto es neurociencia, pero las respuestas a una pregunta tan agradable pueden dar soluciones interesantes.
- ¿Cómo funcionan realmente las redes neuronales artificiales? Necesitamos una prueba matemática rigurosa que explique el éxito de los algoritmos DL.
- ¿Cómo automatizamos la selección de hiperparámetros para el problema en cuestión? Todavía hay un problema para que los algoritmos de ML funcionen en realidad, te enfrentarás a muchas situaciones desafiantes y estarás jugando un juego de compensación entre sobreajuste y falta de ajuste.
- ¿Cómo hacemos que los modelos se vuelvan inmunes a los ejemplos adversos? Los ejemplos adversarios pueden engañar a los modelos de ML incluso con perturbaciones muy sutiles. Este es un testimonio de cuán diferentes son nuestros modelos ML actuales de sus contrapartes biológicas.
Espero que esto ayude.