¿Crees que KNN tiene privilegios en comparación con otros algoritmos de aprendizaje automático porque aprende con el tiempo?

Es solo un método entre muchos. Tiene ciertas ventajas, pero de ninguna manera es el mejor algoritmo de aprendizaje automático. Hay algo de verdad en su declaración de preguntas, pero creo que faltan algunas partes clave.

KNN … no construye ningún modelo : kNN no es paramétrico; no asume la distribución de sus datos y calcula las probabilidades localmente. Entonces sí. No tiene que encontrar ningún parámetro para el modelo subyacente (excepto k ). Sin embargo, hay muchas otras preguntas que debe responder antes de usar este método. Se debe tomar una decisión importante sobre la ‘ función de distancia ‘. ¿ Estandarizaría sus datos antes de alimentarlos a la función de distancia? Espero que veas el punto.

Mencionaste que no depende de ningún conjunto de entrenamiento. Esto no es enteramente verdad. ¿Cómo definirías k ? Prácticamente, terminarás probando diferentes números de vecinos en un Conjunto de entrenamiento para encontrar la mejor k .

Ahora, si enriquece los datos, su rendimiento probablemente aumentará. Estoy de acuerdo. Pero esto no se limita a kNN. Si tiene abundantes puntos de datos, la mayoría de los métodos de aprendizaje automático pueden beneficiarse de él.

El punto principal del uso de métodos paramétricos de ML es que a menudo es muy difícil calcular las probabilidades posteriores. Debido a la falta de datos . Realiza algunas suposiciones sobre las distribuciones subyacentes para aliviar este problema. Estas suposiciones pueden hacer que su modelo sea poco realista, pero facilita los cálculos. Si tiene suficientes puntos de datos, ¿por qué no calcular las probabilidades y utilizar el método bayesiano?

Del algoritmo de vecinos k más cercanos – Wikipedia:

“A medida que el tamaño del conjunto de datos de entrenamiento se aproxima al infinito, el clasificador vecino más cercano garantiza una tasa de error no peor que el doble de la tasa de error de Bayes (la tasa de error mínima alcanzable dada la distribución de los datos)”.

En la práctica, siempre tiene un conjunto de datos finito. Y te equivocas un poco que kNN aprende con el tiempo. El algoritmo kNN es un método que no crea un modelo; es un método sin modelo. Y, por ejemplo, en Neural Networks hay un modelo creado (pesos y arquitectura de NN).

More Interesting

Cómo ordenar matrices en C

Si U = {todos los enteros positivos menores o iguales a 30} y N = {todos los números impares menores o iguales a 19}, ¿qué es N 'y n (N')?

Cómo escribir un algoritmo comercial usando un promedio móvil exponencial

¿Cómo funciona la búsqueda 'YouTube'? ¿Cómo te señala con precisión una canción con solo unas pocas palabras de la letra?

¿Está roto el algoritmo de clasificación de Java y Python?

¿Existe un algoritmo para salir de laberintos bidimensionales?

¿Cómo pruebo que un tipo de matriz N de longitud basada en comparación no se puede hacer en tiempo O (N) en el peor de los casos?

¿Por qué son tan importantes los algoritmos?

¿Qué lenguaje, libro o técnica es el mejor punto de partida cuando estás frustrado con tus habilidades de programación y quieres tener una sólida formación en algoritmos y estructuras de datos?

¿Cuáles son algunos ejemplos bien conocidos donde se usa la programación dinámica?

¿Cuáles son algunas explicaciones intuitivas / sencillas de los algoritmos estándar?

En el algoritmo de Mo, ¿por qué clasificamos las consultas primero en función del número de bloque y luego (si hay un empate) en función del punto final derecho? ¿Cuál es la intuición detrás de esto?

Dos jugadores juegan el siguiente juego: hay N piedras en la mesa, el jugador puede tomar 1 o 2 piedras (si N mod 3 = 0), 1 o 3 (si N mod 3 = 1) y 1, 2 o 3 ( si N mod 3 = 2). ¿Cómo determino al ganador en el juego?

¿Por qué es mejor usar los elementos del marco de la colección que usar una matriz de objetos?

¿Es una burbuja una forma muy lenta de ordenar los elementos en comparación con los otros tipos? En caso afirmativo, ¿por qué?