Una de las fases clave en los proyectos de aprendizaje automático es el entrenamiento de los modelos. El futuro rendimiento de los modelos dependerá en gran medida del éxito en esta fase. En esta es necesario identificar los parámetros de un modelo o método de aprendizaje automático con los que se consigue el máximo rendimiento sobre el conjunto de datos de entrenamiento. Siendo en este momento donde entran en juego los métodos de optimización. Uno de los campos más importantes dentro del aprendizaje automático en el que existen múltiples tipos de algoritmos de optimización. Entre ellos uno de los más populares es el método descenso del gradiente (“Gradient Descent”). El método descenso del gradiente es posiblemente el primero que estudian los científicos de datos. En esta entrada se verá cómo implementar el método descenso del gradiente en Python en una aplicación sencilla.
Funcionamiento del método descenso del gradiente
El método del descenso del gradiente es un algoritmo de optimización que permite converger hacia el valor mínimo de una función mediante un proceso iterativo. En aprendizaje automático básicamente se utiliza para minimizar una función que mide el error de predicción del modelo en el conjunto de datos. A esta función de error se le suele denominar función de coste e identificar con J(\theta), en donde \theta hace referencia a los parámetros del modelo.
Para identificar el mínimo de la función el método del descenso del gradiente calcula la derivada parcial respecto a cada parámetro en el punto de evaluación. La derivada indica el valor y sentido en que se encuentra el mínimo más próximo. Este puede ser tanto un mínimo local como global, el método no los puede diferenciar. El resultado de la derivada se le resta a cada uno de los parámetros multiplicado por la velocidad de aprendizaje (\alpha). La velocidad de aprendizaje generalmente tiene un valor entre 0 y 1 e indica lo rápido que converge el algoritmo. Es importante notar que es necesario seleccionar un valor adecuado. Un valor demasiado bajo puede provocar que nunca se alcance el mínimo. Por otro lado, un valor lo demasiado alto podría saltarse el mínimo.
El modo de funcionamiento básico del método del descenso del gradiente es
- Inicializar los parámetros \theta a un valor de inicio
- Indicar la velocidad de aprendizaje del algoritmo (\alpha)
- Obtener la derivada de J en el punto \theta
- Sustraer la derivada por la velocidad de aprendizaje al valor actual del parámetro
- Actualizar el valor de \theta el nuevo valor
- Comprobar el cambio en la actualización de los parámetros es inferior a un fijado previamente (llamada criterio de parada).
- En caso afirmativo finalizar la ejecución, en caso contrario volver al punto 3.
Implementación del método descenso del gradiente en Python
Un ejemplo de la implementación del método del descenso del gradiente en Python se muestra en las siguientes líneas de código.
import numpy as np # Creación de un conjunto de datos para entrenamiento trX = np.linspace(-2, 2, 101) trY = 3 + 2 * trX + np.random.randn(*trX.shape) * 0.33 # Definición de los ajustes y parámetros iniciales num_steps = 100 learningRate = 0.10 criteria = 1e-8 b_0 = 1 b_1 = 1 # Proceso iterativo for step in range(0, num_steps): b_0_gradient = 0 b_1_gradient = 0 N = float(len(trX)) for i in range(0, len(trX)): b_0_gradient -= (2/N) * (trY[i] - (b_0 + b_1 * trX[i])) b_1_gradient -= (2/N) * (trY[i] - (b_0 + b_1 * trX[i])) * trX[i] b_0 = b_0 - (learningRate * b_0_gradient) b_1 = b_1 - (learningRate * b_1_gradient) if max(abs(learningRate * b_0_gradient), abs(learningRate * b_1_gradient)) < criteria: break # Impresión de los resultados print("Los valores que se obtienen son:", b_0, b_1, "en pasos", step)
En este ejemplo se ha implementado el método para una regresión lineal. En las primeras líneas se crea un conjunto de datos en la que los puntos se corresponde con una recta de parámetros 2 y 3 al que se ha añadido ruido aleatorio. Posteriormente se define el número máximo de veces que se va a iterar, la ratio de aprendizaje, el criterio de parada y los valores iniciales para los parámetros.
Posteriormente se implementa el modelo. En primer lugar, se ha de obtener el valor del gradiente, para ello se utilizan las derivadas parciales de la función de coste respecto a los parámetros. Para el primer y segundo parámetro son respectivamente
\frac{\partial E(\beta_0,\beta_1)}{\partial \beta_0} = - \frac{2}{N} \sum_{i=1}^N \left(y_i -(\beta_0 + \beta_1 x_i) \right)y
\frac{\partial E(\beta_0,\beta_1)}{\partial \beta_1} = - \frac{2}{N} \sum_{i=1}^N x_i \left(y_i -(\beta_0 + \beta_1 x_i) \right).El gradiente indica la dirección y la intensidad en la que se han de mover los valores para minimizar la función de coste. Esto se puede hacer respectivamente mediante
\beta_0 = \beta_0 - l_r \frac{\partial E(\beta_0,\beta_1)}{\partial \beta_0}y
\beta_1 = \beta_1 - l_r \frac{\partial E(\beta_0,\beta_1)}{\partial \beta_1}.Al finalizar se muestran los resultados. Los parámetros y el número de pasos necesarios para llegar al objetivo. En un ejemplo los resultados han sido:
Los valores que se obtienen son: 2.975002676748954 2.0018799640597935 en pasos 79
Representación gráfica de los resultados
Finalmente se pueden comparar gráficamente los resultados con los datos utilizados. En esta gráfica se puede ver lo bien que ajusta el modelo a los datos utilizados.
Conclusiones
En esta entrada se ha visto cómo implementar el método del descenso del gradiente en Python para una regresión lineal. Este método de optimización es uno de los más utilizados en aprendizaje automático. Conocer su funcionamiento es clave para comprender comprender cómo se llevan a cabo el entrenamiento de los modelos.
Imágenes: Pixabay (Adrian)
oscar meza dice
no entendí nada. muy mal explicado