Laboratorio 4 - Parte 1. Redes neuronales - perceptrón multicapa
Contents
Recuerda que una vez abierto, Da clic en “Copiar en Drive”, de lo contrario no podras almacenar tu progreso
Nota: no olvide ir ejecutando las celdas de código de arriba hacia abajo para que no tenga errores de importación de librerías o por falta de definición de variables.
#configuración del laboratorio
# Ejecuta esta celda!
%load_ext autoreload
%autoreload 2
#for local
#import sys ; sys.path.append('../commons/utils/')
!wget https://raw.githubusercontent.com/jdariasl/ML_2020/master/Labs/commons/utils/general.py -O general.py --no-cache
from general import configure_lab4
configure_lab4()
from lab4 import *
GRADER = part_1()
Laboratorio 4 - Parte 1. Redes neuronales - perceptrón multicapa¶
Este ejercicio tiene como objetivo implementar una red neuronal artificial de tipo perceptrón multicapa (MLP) para resolver un problema de regresión. Usaremos la librería sklearn. Consulte todo lo relacionado con la definición de hiperparámetros, los métodos para el entrenamiento y la predicción de nuevas muestras en el siguiente enlace: http://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPRegressor.html#sklearn.neural_network.MLPRegressor
Para este ejercicio usaremos la base de datos sobre calidad del aire, que ha sido usada en laboratorios previos, pero en este caso trataremos de predecir dos variables en lugar de una, es decir, abordaremos un problema de múltiples salidas.
#cargamos la bd que está en un archivo .data y ahora la podemos manejar de forma matricial
db = np.loadtxt('AirQuality.data',delimiter='\t') # Assuming tab-delimiter
#Esta es la base de datos AirQuality del UCI Machine Learning Repository. En la siguiente URL se encuentra toda
#la descripción de la base de datos y la contextualización del problema.
#https://archive.ics.uci.edu/ml/datasets/Air+Quality#
x = db[:,0:11]
y = db[:,11:13]
Para calcular los errores, vamos a explorar y usar el modulo de metricas den sklearn.
Podemos observar que el modulo tiene metricas para regresión y clasificación.
Ejercicio 1 - Experimentar con MLP para regresión¶
Para porder implementar nuestra función, lo primero que debemos entender la estrucutra de la red.
Como mencionamos, vamos a solucionar un problema de multiples salidas. Estas salidas con valores continuos. Por lo tanto debemos garantizar que la capa de salida de nuestra red tenga la capacidad de modelar este tipo de datos.
#@title Pregunta Abierta
#@markdown ¿De acuerdo al problema planteado, que función de activación debe usar el MLP para un problema de regresión?
respuesta_1 = "" #@param {type:"string"}
Una caracteristica de los modelos de sklearn, es que ciertos tipos de atributos, solo pueden ser accedidos cuanto se entrena el modelo. Vamos a realizar un pequeña función para comprobar cual es la capa de activación de los modelos MLP para regresión de sklearn.
# ejercicio de código
def output_activation():
"""funcion que entrena un modelo
con data aleatoria para confirmar la funcion
de activacion de la ultima capa
"""
mlp = MLPRegressor()
# fit with some random data
xrandom = np.random.rand(10,2)
yrandom = np.zeros(10)
# llamar el metodo adecuado para entrenar
# el mlp con los x y 'y' random
mlp.fit(, )
# retornar el atributo de mlp adecuado
return (mlp.)
## la funcion que prueba tu implementacion
GRADER.run_test("ejercicio1", output_activation)
print("la función de activación para un problema de regresion es:", output_activation())
Una vez comprobado que sklearn usa la función de activación correcta, vamos crear la función para realizar los experimentos.
Vamos completar la función con el código necesario para usar una red neuronal tipo MLP para solucionar el problema de regresión propuesto.
Como función de activación en las capas ocultas use la función ‘tanh’.
Ajuste el número máximo de épocas a 300.
Dejamos como variables el número de capas ocultas y el número de neuronas por capa
debemos seleccionar la función adecuada del modulo de sklearn para calcular el Error Porcentual Absoluto Medio (MAPE en sigla en ingles). Tener en cuenta que parametros usar.
Debemos usar los nombres explicitos, por ejemplo si para el MLP es necesario usar el parametro
activation
, debe ser llamado:MLPRegressor(activation=...)
Explorar que hace la siguiente linea de codigo
tuple(2*[100])
NOTA: cuando observe el el parametro random_state=1
por favor conservarlo, ya que esto hace que los resultados sean similares a lo largo de las ejecucciones.
# ejercicio de código
def experimetar_mlp(num_hidden_layers, num_neurons, X,Y):
""" función para realizar experimentos con el MLP
num_hidden_layers: list de enteros con el numero de capdas
ocultas a usar
num_neurons: list de enteros con el numero de neuronas a usar
X: matriz de numpy con caracteristicas
Y: vector numpy con las variables a predecir
Retorna: dataframe con 6 columnas:
- numero de capas, numero de neuronas
- promedio de error prueba variable 1 y desviación estandar
- promedio de error prueba variable 2 y desviación estandar
"""
#Validamos el modelo
Folds = 3
ss = ShuffleSplit(n_splits=Folds, test_size=0.2, random_state=1)
resultados = pd.DataFrame()
idx = 0
for hidden_layers in num_hidden_layers:
for neurons in num_neurons:
for j, (train, test) in enumerate(ss.split(X)):
# para almacenar errores intermedios
ErrorY1 = np.zeros(Folds)
ErrorY2 = np.zeros(Folds)
Xtrain= X[train,:]
Ytrain = Y[train,:]
Xtest = X[test,:]
Ytest = Y[test,:]
#Normalizamos los datos
scaler = StandardScaler().fit(X= Xtrain)
Xtrain = scaler.transform(Xtrain)
Xtest = scaler.transform(Xtest)
#Haga el llamado a la función para crear y entrenar el modelo usando los datos de entrenamiento
# prestar atención a los parametros, correctos.
hidden_layer_sizes = tuple()
mlp = MLPRegressor(hidden_layer_sizes= hidden_layer_sizes, random_state=1...)
# entrena el MLP
mlp
# Use para el modelo para hacer predicciones sobre el conjunto Xtest
Yest = mlp
# Mida el MAPE para cada una de las dos salidas
# Observe bien la documentación. recordar que esta resolviendo
# un problema de multiples salidas
errors = (Ytest, Yest, ...)
ErrorY1[j] = ...
ErrorY2[j] =...
print('error para salida 1 = ' + str(np.mean(ErrorY1)) + '+-' + str(np.std(ErrorY1)))
print('error para salida 2 = ' + str(np.mean(ErrorY2)) + '+-' + str(np.std(ErrorY2)))
resultados.loc[idx,'capas ocultas'] = hidden_layers
resultados.loc[idx,'neuronas en capas ocultas'] = neurons
resultados.loc[idx,'error de prueba y1(media)'] = np.mean(ErrorY1)
resultados.loc[idx,'intervalo de confianza y1'] = np.std(ErrorY1)
resultados.loc[idx,'error de prueba y2(media)'] = np.mean(ErrorY2)
resultados.loc[idx,'intervalo de confianza y2'] = np.std(ErrorY2)
idx+=1
return (resultados)
## la funcion que prueba tu implementacion
# ignorar los prints
GRADER.run_test("ejercicio2", experimetar_mlp)
vamos a realizar los experimentos
# tarda unos minutos!!
resultados_mlpr = experimetar_mlp(num_hidden_layers = [1,2,3], num_neurons = [8,12,16], X=x, Y=y)
# ver los resultados.
import seaborn as sns
sns.relplot(data = resultados_mlpr, x='neuronas en capas ocultas', y = 'error de prueba y1(media)', style= 'capas ocultas', kind = 'line')
sns.relplot(data = resultados_mlpr, x='neuronas en capas ocultas', y = 'error de prueba y2(media)', style= 'capas ocultas', kind = 'line')
#@title Pregunta Abierta
#@markdown con base a los reusltados, ¿podriamos saber a priori los mejores parametros (capas ocultas, # de neuronas), que tan correcto es asumir patrones en los valores de los parametros?
respuesta_2 = "" #@param {type:"string"}
#@title Pregunta Abierta
#@markdown qué ocurre si cambiamos el valor de random state? los resultados deberían ser iguales? justifique su respuesta usando los conceptos teóricos.
respuesta_3 = "" #@param {type:"string"}
Ejercicio 2 Experimentar con MLP para clasificación¶
A continuación se leen los datos de un problema de clasificación. El problema corresponde a la clasifiación de dígitos escritos a mano. Usaremos únicamente 4 de las 10 clases disponibles. Los datos fueron preprocesados para reducir el número de características. La técnica usada será analizada más adelante en el curso.
digits = load_digits(n_class=4)
#--------- preprocesamiento--------------------
pca = PCA(0.99, whiten=True)
data = pca.fit_transform(digits.data)
#---------- Datos a usar ----------------------
Xd = data
Yd = digits.target
#@title Pregunta Abierta
#@markdown ¿Qué tipo de función de activación usa el modelo en la capa de salida para un problema de clasificación?
respuesta_4 = "" #@param {type:"string"}
como lo hicmos antes, vamos a comprobar con la libreria la función de activación
# ejercicio de código
def output_activation_MPC():
"""funcion que entrena un modelo
con data aleatoria para confirmar la funcion
de activacion de la ultima capa
"""
mlp = MLPClassifier()
# fit with some random data
xrandom = np.random.rand(10,2)
yrandom = np.zeros(10)
# llamar el metodo adecuado para entrenar
# el mlp con los x y 'y' random
mlp.fit(, )
# retornar el atributo de mlp adecuado
return (mlp)
## la funcion que prueba tu implementacion
GRADER.run_test("ejercicio3", output_activation_MPC)
print("la función de activación para un problema de clasificación es:", output_activation_MPC())
Ahora en nuestro siguiente ejercicio vamos a implementar una red neuronal artificial de tipo perceptrón multicapa (MLP) para resolver un problema de clasificación. Usaremos la librería sklearn. Consulte todo lo relacionado con la definición de hiperparámetros, los métodos para el entrenamiento y la predicción de nuevas muestras en el siguiente enlace: http://scikit-learn.org/stable/modules/generated/sklearn.neural_network.MLPClassifier.html#sklearn.neural_network.MLPClassifier
Vamos completar la función con el código necesario para usar una red neuronal tipo MLP para solucionar el problema de clasificación propuesto.
Como función de activación en las capas ocultas use la función tangencial hiperbólica.
Ajuste el número máximo de épocas a 350.
Dejamos como variables el número de capas ocultas y el número de neuronas por capa
Seleccione la función adecuada del modulo de sklearn para calcular la exactitud del clasificador. Tener en cuenta que parametros usar.
Debemos usar los nombres explicitos, por ejemplo si para el MLP es necesario usar el parametro
activation
, debe ser llamado:MLPClassifier(activation=...)
NOTA: cuando observe el el parametro random_state=1
por favor conservarlo, ya que esto hace que los resultados sean similares a lo largo de las ejecucciones. *tener en cuenta esta observación para una de las preguntas abiertas que encuentras mas adelante del laboratorio.
# ejercicio de código
def experimetar_mlpc(X,Y, num_hidden_layers, num_neurons):
""" función para realizar experimentos con el MLP
x: matriz de numpy con caracteristicas
y: vector numpy con las variables a predecir
num_hidden_layers: list de enteros con el numero de capdas
ocultas a usar
num_neurons: list de enteros con el numero de neuronas a usar
Retorna: dataframe con 4 columnas:
- numero de capas, numero de neuronas
- promedio de error prueba (exactitud/eficiencia) de claisficacion y desviación estandar
"""
#Validamos el modelo
Folds = 4
skf = StratifiedKFold(n_splits=Folds)
resultados = pd.DataFrame()
idx = 0
for hidden_layers in num_hidden_layers:
for neurons in num_neurons:
for j, (train, test) in enumerate(skf.split(X, Y)):
# para almacenar errores intermedios
Error = np.zeros(Folds)
Xtrain= X[train,:]
Ytrain = Y[train]
Xtest = X[test, :]
Ytest = Y[test]
#Normalizamos los datos
scaler = StandardScaler().fit(X= Xtrain)
Xtrain = scaler.transform(Xtrain)
Xtest = scaler.transform(Xtest)
#Haga el llamado a la función para crear y entrenar el modelo usando los datos de entrenamiento
# prestar atención a los parametros, correctos.
hidden_layer_sizes = tuple(...)
#print(hidden_layer_sizes)
mlp = MLPClassifier(hidden_layer_sizes = hidden_layer_sizes, ... random_state = 1)
# entrenar el MLP
mlp...
#Use para el modelo para hacer predicciones sobre el conjunto Xtest
Yest = mlp.
# recordar usar la medida adecuada de acuerdo a las instrucciones
Error[j] = ...(Ytest, Yest)
print('error para configuracion de params = ' + str(np.mean(Error)) + '+-' + str(np.std(Error)))
resultados.loc[idx,'capas ocultas'] = hidden_layers
resultados.loc[idx,'neuronas en capas ocultas'] = neurons
resultados.loc[idx,'error de prueba(media)'] = np.mean(Error)
resultados.loc[idx,'intervalo de confianza'] = np.std(Error)
idx+=1
return (resultados)
## la funcion que prueba tu implementacion
GRADER.run_test("ejercicio4", experimetar_mlpc)
# tarda unos minutos!!
resultados_mlpc = experimetar_mlpc(X = Xd, Y=Yd, num_hidden_layers=[1,2,3], num_neurons=[12,16,20])
# ver los resultados
# notar como las capas ocultas y el # de neuronas influyen
import seaborn as sns
sns.relplot(data = resultados_mlpc, x='neuronas en capas ocultas', y = 'exactitud en prueba(media)', style= 'capas ocultas', kind = 'line')
#@title Pregunta Abierta
#@markdown ¿Cuántas neuronas en la capa de salida tiene el modelo? ¿Porqué debe tener ese número?
respuesta_5 = "" #@param {type:"string"}
#@title Pregunta Abierta
#@markdown Llegas a una nueva compañía. Solo tienen perceptrones multicapa entrenados usado sklearn ¿que recomiendas?
respuesta_6 = "" #@param {type:"string"}
recordatorio En la practica sklearn no es una la libreria indicada para desarollar redes neuronales, para practicas mas avanzadas y realizar modelos en el “mundo real” se deben usar conceptos de deep learning y una libreria llamada Keras. Adicional tener en cuenta lo visto en teoria.
GRADER.check_tests()
#@title Integrantes
codigo_integrante_1 ='' #@param {type:"string"}
codigo_integrante_2 = '' #@param {type:"string"}
esta linea de codigo va fallar, es de uso exclusivo de los profesores
GRADER.grade()