El comportamiento aprendido conlleva tres funciones cognitivas:
– capacidad de operar con información parcial dada, como si se hubiera proporcionado información completa
Para hacer esto, uno debe ser capaz de reducir la información completa en información parcial, reducir la complejidad. Esto se logra mediante técnicas de álgebra lineal, es decir, reducción de dimensionalidad. En álgebra lineal y física, esto va por descomposición de matriz y diagonalización y valores propios / componentes principales.
2) dado un conjunto de observaciones, el comportamiento aprendido consiste en extraer elementos comunes significativos (patrones subyacentes complejos / ocultos o no) y agruparlos en grupos de observaciones muy similares dentro de cada grupo y pronunciadas observaciones diferentes en grupos diferentes. Esto se conoce como agrupamiento.
La maximización de las expectativas es una técnica clave utilizada en el agrupamiento aglomerativo. Utilizado en marketing, y donde sea que la segmentación sea relevante. Hay otros tipos de agrupamiento, incluidos los jerárquicos. Usando diferentes métricas de distancia o disimilitud, la agrupación se puede personalizar. La agrupación es un aprendizaje no supervisado porque no hay capacitación involucrada. La entrada es un conjunto de observaciones y la distancia métrica.
3) y la tercera indicación del comportamiento aprendido es poder distinguir una naranja de una manzana o un guepardo de un impala; observar muchos casos y poder generalizar los detalles dados. Los homosapiens prehistóricos exhibieron estas capacidades, ya que era existencial sentir que un animal era un depredador peligroso. Y desde la distancia. El cerebro biológico hace esto muy bien. En la práctica, la clasificación implica el entrenamiento con observaciones etiquetadas y luego pedirle al clasificador que etiquete una observación desconocida / no etiquetada.
El cerebro ha evolucionado para abstraerse, generalizarse sin esfuerzo. Lanzar esto en construcciones programáticas de resolución de problemas implica el uso de varias herramientas y métodos diferentes y ha evolucionado a lo largo del tiempo.
Los perceptrones evolucionaron en redes neuronales a múltiples capas, aprovechando transformaciones complejas, lo que ahora se conoce como aprendizaje profundo. Se emplean convoluciones, transformada de Fourier, bucles de retroalimentación adaptativa. Del mismo modo que no podemos explicar cómo un cerebro conoce el mundo, sigue siendo difícil explicar el comportamiento de las redes neuronales.
¿Cómo se puede determinar el clasificador más eficiente? Comprender la fuente del sesgo de error, la varianza y la compensación entre ellos (sabiendo que la varianza y el sesgo no pueden reducirse simultáneamente) son fundamentales.
Practicar diligentemente la navaja de afeitar de Occam buscando el modelo más simple para resolver un problema dado, eliminando el sobreajuste, son signos de madurez en la práctica de ML.