No es una respuesta definitiva, sino un puntero de dónde viene este problema.
Los modelos de aprendizaje automático funcionan como aproximaciones si se realizan asignaciones lineales con umbrales. Una forma de pensarlo es: Dada una matriz M1 y una función de reducción que produce la respuesta correcta, ¿hay una matriz más pequeña que pueda dar una respuesta aproximada?
¿Qué tan grande es el mapeo matricial de esta función y cómo se ve? Hay dos enfoques que podemos usar:
- ¿Cómo nos beneficia exactamente el entrenamiento previo en los métodos de aprendizaje profundo?
- ¿Qué llamarías técnicas de aprendizaje no automático?
- ¿Son útiles los procesos jerárquicos de Dirichlet en la práctica?
- ¿Qué es mejor, el algoritmo de vecinos más cercanos a k (k-NN) o el clasificador de máquina de vectores de soporte (SVM)? ¿Qué algoritmo se usa principalmente en la práctica? ¿Qué algoritmo garantiza una detección confiable en situaciones impredecibles?
- ¿Puede explicar la optimización convexa sin matrices de arpillera y solo la segunda derivada?
a) Construya una matriz que agregue los 100 dígitos. La suma estará entre 0 y 900. Ahora necesitamos una función de reducción que pueda distinguir con precisión entre estos valores de 900 para números pares e impares. Aunque ambas operaciones son matrices bastante pequeñas, tienen que operar con mucha precisión (1 en 1000). Eso es muy difícil para el aprendizaje automático.
b) Una matriz mucho más grande que filtra cada uno de los dígitos y los asigna a 0 o 1. Luego los resume. Además, la función de reducción final ahora es manejable, la matriz de filtro original tiene una estructura y un tamaño desagradables y tampoco se puede aproximar fácilmente.
Entonces, diría que la respuesta es NO: esto no se puede lograr fácilmente con el aprendizaje automático tradicional.