Posiblemente la técnica más utilizada para identificar el número óptimo de clústeres en los que dividir un conjunto de datos con K-means sea el método del codo (elbow method). Lo que se explica porque es un método intuitivo y fácil de implementar. Solamente hay que identificar el punto en el que la disminución de la varianza intra-clúster se desacelera, lo que indica que aumentar el número de clústeres no mejorará la compactación de estos. Permitiendo encontrar el equilibrio entre la cantidad de clústeres y la compactación de los datos.
Fundamentos del método del codo
El método del codo es una técnica que se emplea para determinar el número óptimo de clústeres para el algoritmo de K-means. La idea detrás de este método es bastante sencilla. Identificar el número de clústeres para el que se observa un cambio significativo en la tasa de disminución de la varianza intra-cluster (también conocido como suma total de las distancias al cuadrado).
Para ello se debe ejecutar el algoritmo de k-means con diferentes números de clústeres (k) y calcular la suma de las distancias al cuadrado de cada punto respecto a su centroide. Usando los resultados para crear una gráfica con los valores de k en el eje x y la suma de las distancias al cuadrado en el eje y. En esta gráfica se busca el punto donde se produce un cambio brusco en la disminución de la suma de las distancias al cuadrado. Punto en el que la curva muestra la forma de un codo. El número óptimo de clústeres se corresponde con este punto que se conoce como el “codo”.
Sin embargo, es importante tener en cuenta que el método del codo no siempre proporciona una elección clara. Para algunos conjuntos de datos, la curva puede ser suave y no mostrar un codo bien definido. En tales casos es necesario usar otros métodos para seleccionar el número de clústeres óptimo.
Implementación del método del codo en Python
El método del codo es realmente fácil de implementar. Usando un bucle se puede iterar sobre el número de clústeres y entrenar en cada paso un modelo de k-means para obtener la varianza intra-cluster. Una vez hecho esto se representan los datos para buscar la posición del codo. Por ejemplo, se puede implementar con la siguiente función.
import matplotlib.pyplot as plt from sklearn.cluster import KMeans def elbow_method(data, max_clusters=10): """ Aplica el método del codo para seleccionar el número óptimo de clusters en k-means. Parámetros: ---------- data : matriz o matriz dispersa, forma (n_samples, n_features) Los datos de entrada. max_clusters : int, opcional (por defecto=10) El número máximo de clusters a considerar. """ sum_of_squared_distances = [] for k in range(1, max_clusters+1): kmeans = KMeans(n_clusters=k) kmeans.fit(data) sum_of_squared_distances.append(kmeans.inertia_) # Graficar la curva del codo plt.plot(range(1, max_clusters+1), sum_of_squared_distances, 'bx-') plt.xlabel('Número de Clusters (k)') plt.ylabel('Suma de las Distancias al Cuadrado') plt.title('Curva del Codo') plt.show()
En esta función se puede ver que únicamente se itera el valor de k entre 1 y max_clusters
para entrenar un modelo y obtener el valor del parámetro inertia_
. Valor en el que KMeans
almacena la suma de distancias al cuadrado que se obtienen durante el entrenamiento. Lo que se puede probar con un conjunto de datos aleatorios.
from sklearn.datasets import make_blobs # Genera un conjunto de datos de ejemplo con 4 clusters data, _ = make_blobs(n_samples=500, centers=4, n_features=2, random_state=42) # Aplica el método del codo elbow_method(data)
En la gráfica se puede ver como un codo que indica cuatro como el número óptimo de clústeres. El valor esperado tal como se han construido los datos.
Conclusiones
El método del codo es una técnica intuitiva y sencilla para obtener el número óptimo de clústeres en los que se debe separar un conjunto de datos. Por eso es una de las más utilizadas. Aunque, en algunos casos, puede que el resultado no sea fácil de interpretar. Lo que obligaría a usar otras opciones como el método de la silueta (silhouette), gap statistics o el índice de Calinski-Harabasz.
Imagen de David Mark en Pixabay
Deja una respuesta