No hay una regla de oro para este tipo de cosas. El proceso es
paso 1. Mira los datos.
Aquí en Wolfram Alpha
- ¿Cuál es la diferencia entre los diferentes tipos de funciones de activación para redes neuronales y por qué es importante elegir una sobre otra?
- El límite de decisión de los árboles de decisión es el eje paralelo. Random Forests es un conjunto de árboles. ¿Cuál es el límite de decisión de los bosques aleatorios?
- ¿Qué piensa Vijay Balasubramaniyan del aprendizaje automático Adversarial?
- ¿Cuáles son las diferencias entre los algoritmos CHAID y CART para el crecimiento de los árboles de decisión?
- ¿Es posible combinar dos algoritmos no supervisados en serie para maximizar la precisión?
http://www.wolframalpha.com/inpu…
paso 2. Piensa en los datos.
No tengo forma de ayudarte, ya que no mencionaste qué datos son. Digamos, por ejemplo, que se trata de mediciones de velocidad de un avión. Es posible que conozca la velocidad mínima y máxima de la máquina. Si lo fuera, valdría la pena a priori prohibir a nuestro modelo que prediga esas velocidades.
Más específicamente, podría, por ejemplo, para este conjunto de datos saber qué tan finos son los datos. Es decir. debería uno asumir que la relación es lineal y muy ruidosa. O debería suponerse que las mediciones son muy precisas. Para el primero, una regresión lineal simple servirá, y para el segundo quizás algo de orden superior o una spline cúbica natural.
paso 3. prueba tu hipótesis
para estos pequeños datos puede usar “dejar uno afuera”, es decir, usar cualquier método que haya elegido para predecir sus puntos de datos conocidos después de haber dejado uno fuera del conjunto. El método que produce el error al cuadrado más pequeño es probablemente la opción más sólida.
Sin saber nada sobre los datos, probablemente usaría una extrapolación lineal o una extrapolación lineal por partes.