Primero aclaremos el aprendizaje no supervisado.
El aprendizaje no supervisado es un tipo de algoritmo de aprendizaje automático utilizado para extraer inferencias de conjuntos de datos que consisten en datos de entrada sin respuestas etiquetadas.
El método de aprendizaje no supervisado más común es el análisis de conglomerados, que se utiliza para el análisis exploratorio de datos para encontrar patrones ocultos o agrupación de datos. Los grupos se modelan utilizando una medida de similitud que se define sobre métricas como la distancia euclidiana o probabilística.
- ¿Cuál es la diferencia entre el paralelismo del modelo y el paralelismo de datos?
- ¿Cuántos datos son suficientes para entrenar un modelo NN profundo?
- ¿Qué debo elegir, asociado de desarrollo de negocios en Think and Learn o analista de investigación en Edureka?
- ¿Puede Quora generar un patrón para el futuro de las personas con sus respuestas y preguntas?
- ¿Es Kafka la mejor solución para crear una aplicación de visión por computadora?
Los algoritmos de agrupamiento comunes incluyen:
- Agrupación jerárquica : crea una jerarquía multinivel de agrupaciones creando un árbol de agrupación
- Agrupación de k-medias : divide los datos en k agrupaciones distintas en función de la distancia al centroide de una agrupación
- Modelos de mezcla gaussiana : modela grupos como una mezcla de componentes multivariados de densidad normal
- Mapas autoorganizados : utiliza redes neuronales que aprenden la topología y distribución de los datos.
- Modelos ocultos de Markov : utiliza datos observados para recuperar la secuencia de estados
El aprendizaje se refiere a la idea de que el algoritmo descubre o aprende los parámetros minimizando la función de costo para que pueda clasificar cualquier nuevo punto de datos.
En lo que respecta al algoritmo codicioso, tomar una conjetura aleatoria inicial del vector medio en los medios k más simples lo hace codicioso. Se puede ver como un algoritmo codicioso para dividir las n muestras en k grupos para minimizar la suma de las distancias al cuadrado a los centros de los grupos. Tiene algunas debilidades:
- No se especificó la forma de inicializar los medios. Una forma popular de comenzar es elegir aleatoriamente k de las muestras.
- Los resultados producidos dependen de los valores iniciales de las medias, y con frecuencia sucede que se encuentran particiones subóptimas. La solución estándar es probar varios puntos de partida diferentes.
- Puede suceder que el conjunto de muestras más cercano a m i esté vacío, por lo que m i no se puede actualizar. Esta es una molestia que debe manejarse en una implementación, pero que ignoraremos.
- Los resultados dependen de la métrica utilizada para medir || x – m i ||. Una solución popular es normalizar cada variable por su desviación estándar, aunque esto no siempre es deseable.
- Los resultados dependen del valor de k.