No hay ninguna razón por la que fallaría: las aplicaciones típicas que ve tienen entradas dimensionales más altas, pero no deberíamos estar limitados por convención. Es decir, si por dimensión se refiere a dimensión continua, las entradas son valores reales, por ejemplo, si estamos hablando de entradas discretas de baja dimensión … tal vez no.
(Comienza una lluvia de ideas …)
¿Por qué sería / podría ser útil esto? Si tenemos pares de entrada y salida (x, y) que se derivan de una función altamente no lineal, por supuesto podríamos formar vectores de entrada más grandes (x, x ^ 2, x ^ 3, etc.) y realizar una regresión, que está prácticamente garantizado que fallará para valores de entrada mayores. La ‘regresión’ para el aprendizaje profundo es típicamente más de la forma de una composición de funciones no lineales (en oposición a la composición lineal), por lo que existe la esperanza de capturar más del comportamiento global. Del mismo modo, si los datos se describen mediante una función altamente discontinua, es posible que tengamos una mejor esperanza de extraerlos mediante el aprendizaje profundo.
- ¿Qué es la regresión no lineal vs regresión lineal?
- ¿En qué medida se puede utilizar el aprendizaje automático y la IA en la detección y el tratamiento del cáncer?
- ¿Alguien puede presentar un tutorial o un documento sobre cómo elegir el valor de 'C' en la función de regresión logística scikit-learn?
- ¿Cuál es más importante de los tres, es decir, informática ubicua, informática distribuida y procesamiento de lenguaje natural, en el mundo de hoy?
- ¿Qué es el mecanizado en caliente?
Suena como un experimento divertido: ¡prepara un ejemplo y pruébalo!