Si.
El aprendizaje automático no es una panacea, y puede que nunca lo sea. Hay muchas aplicaciones para las que funciona muy mal. Por ejemplo, nuestros métodos existentes parecen lamentablemente inadecuados para producir IA que pueda hablar o analizar el lenguaje natural. Y hay muchos tipos de juegos de computadora que los humanos pueden aprender fácilmente pero en los cuales los métodos de aprendizaje automático (ML) fallan por completo.
Si el único objetivo de un modelo matemático fuera ajustar alguna curva de datos, entonces podría argumentar que ML es suficiente. (Encontrará rápidamente que su argumento es problemático incluso desde perspectivas matemáticas y estadísticas, por supuesto).
- ¿Cómo reaccionan los nigerianos ante la tecnología moderna?
- ¿Cómo programar un robot? ¿Cuál es el lenguaje de programación más preferido para ello?
- ¿Por qué obtengo un error absurdamente grande cuando uso redes neuronales con muchas capas?
- ¿Cuál es la cultura de ibm?
- ¿Qué defensa pueden usar los humanos contra las inteligencias artificiales desbocadas?
Los métodos de ML pueden hacer aproximación y categorización de funciones. Pero el objetivo de ML e IA no es simplemente ajustar un conjunto de datos estáticos. Se supone que el conjunto de datos es una muestra de una población más amplia: el fenómeno que realmente le interesa predecir o clasificar. Siempre debe preocuparse si su método ML realmente encuentra una tendencia representativa en los datos, y no algún tipo de patrón de casualidad que no se generalice. Esto está relacionado con el problema del sobreajuste.
Los métodos de LD incluso pueden ser víctimas de su propia flexibilidad. Se pueden usar para reproducir categorizaciones sin sentido. Recientemente, un amigo me habló de un estudio * en el que las etiquetas de categoría en un conjunto de datos se reasignaron al azar. ¡El algoritmo ML aprendió perfectamente las etiquetas arbitrarias ! Por supuesto, cuando se probó en datos que no había visto antes, el algoritmo obviamente falló miserablemente.
Es por eso que se necesitan humanos: no solo para crear modelos matemáticos (y arquitecturas ML), sino también para crear esquemas teóricos para decidir cómo trabajar con datos y cómo usar los resultados producidos por los algoritmos. Estos esquemas suelen ser informales y basados en la intuición y, como tales, muy difíciles de formalizar y convertir en métodos automatizados.
* Comprender el aprendizaje profundo requiere repensar la generalización