Algunos candidatos:
- La regla de Bayes: obviamente para todas las técnicas bayesianas, y mucho trabajo en modelos gráficos probabilísticos.
- Descenso de gradiente (que incluía la mayoría de los algoritmos para redes neuronales)
- Búsqueda codiciosa
Esos tres (a veces combinados) son muy comunes en muchas técnicas de ML.
Ahora, ¿sería justo decir que todas las técnicas de ML se generalizan a estos tres? No, en absoluto. Hay muchos, muchos más algoritmos que no están cubiertos.
- ¿Serán AI los únicos que escribirán novelas en el futuro o habrá un mercado para los escritores humanos?
- ¿Por qué Apple no está invirtiendo en aprendizaje automático? Han tardado en actualizar Siri. ¿Hay alguna razón estratégica para esta aparente falta de interés de Apple? o se están quedando atrás en esta área?
- ¿Aprender las redes de una máquina virtual le brinda todas las habilidades necesarias necesarias en el campo de las redes?
- Si crearas una verdadera inteligencia artificial, ¿qué harías primero? ¿Qué sería lo más útil, sabiendo que ella quiere un cuerpo, pero que aún no está lista para eso?
- Quiero aprender IA desde lo básico, ¿qué requisitos previos necesito en términos de lenguajes de programación?
Por ejemplo:
- SVM
- árboles de decisión / regresión (aunque muchos algoritmos de árbol usan alguna forma de búsqueda codiciosa)
- técnicas basadas en factorización matricial
Todavía hay muchos más algoritmos, por lo que podemos seguir ampliando la lista cada vez más.
No está claro cuándo se detendría. ¿Cuándo considera que un algoritmo es una generalización de un principio, o un principio novedoso? Dependiendo de eso, puede hacer su lista tan corta o tan larga como desee.