¿Para qué tipo de problemas es poco adecuado el aprendizaje automático?

Algunas que se me ocurren …

1: Problemas donde las variables aleatorias están orgánicamente ad absurdum interrelacionadas a través de gráficos cíclicos dirigidos.

2: n = 1 escenarios de tipo (No es lo mismo que la prueba de hipótesis de muestra única).

3: Problemas que emanan de ciertas subáreas de las Humanidades, como la espiritualidad, la teología, el estudio de la conciencia, etc.

4: Problemas que buscan específicamente apartarse del constructo de ‘tendencia’.

En un nivel inferior, se puede ver que ML como tal está limitado y dirigido por esta noción de Tendencia, que puede ser muy restrictiva en términos de agitación de revelaciones innovadoras.
Déjame aclarar.
La teoría de probabilidad estándar no es inherentemente lo suficientemente discriminatoria cuando se trata de manejar eventos de cero de medida frente a eventos imposibles (a los cuales se les asigna una probabilidad de cero bastante convenientemente). ML también hereda esto. Algunos han rastromizado esto argumento como la teoría del cisne negro, etc., pero la idea sigue siendo la misma.

El aprendizaje automático es poco adecuado para hacer inferencia causal. Depende casi por completo de la correlación, para consternación de los científicos interesados ​​en descubrir el conocimiento en forma de afirmaciones causales más fuertes.

Esto es fácil de responder: problemas con poca o ninguna información disponible.