Los algoritmos de expertos son extremadamente útiles, incluso si no está combinando explícitamente los consejos de “expertos”. Los expertos solo corresponden a “opciones”.
Por ejemplo, suponga que quiere jugar un juego contra un oponente. Puedes identificar a los expertos con las acciones en el juego, y la pérdida de los expertos con la pérdida que experimentas por jugar esas acciones contra tu oponente. Aquí la garantía de que logras una pérdida no mayor que el mejor experto en retrospectiva corresponde a alcanzar tu valor mínimo en el juego.
En términos más generales, los algoritmos expertos son realmente solo algoritmos para la optimización lineal en línea. Suponga que desea encontrar el mejor clasificador [math] \ theta \ in \ mathbb {R} ^ d [/ math] cuando tiene funciones de pérdida lineal [math] \ ell ^ t: \ mathbb {R} ^ d \ rightarrow \ mathbb {R} [/ math] viene con el tiempo. Aquí, simplemente identifique a los “expertos” con los vectores básicos estándar [math] e_1, \ ldots, e_d \ in \ mathbb {R} ^ d [/ math]. Por lo tanto, hacerlo tan bien como los mejores (distribución sobre) expertos en retrospectiva corresponde a tener una pérdida que no sea más que el minimizador empírico de riesgos [matemática] \ theta ^ * [/ matemática] en retrospectiva, ya que cualquier punto puede escribirse como una combinación lineal de vectores de base. Los algoritmos como el descenso de gradiente en línea (y Perceptron, que es un caso especial) son solo algoritmos expertos, generalizados para operar en conjuntos convexos distintos del simplex de probabilidad. Si ejecuta un descenso de gradiente en línea dentro del simplex de probabilidad, siempre puede interpretar su punto actual como una distribución sobre expertos.
- ¿Es mejor utilizar algoritmos basados en reglas o de aprendizaje automático para la clasificación en un dominio de respuesta a preguntas cerrado?
- ¿Cuál es la función de zeropad en CNN?
- ¿Qué se sabe sobre la eficiencia de la agrupación espectral en caso de que los datos no estén completamente conectados?
- ¿Qué es la regresión logística?
- ¿Por qué hay tantas redes de aprendizaje profundo?