Metodologia

Condiciones experimentales en el CPC, medición de Radiación Solar, temperatura y determinación del Índice Carbonilo

Preparación de las muestras

Muestras comerciales de EPS fueron cortadas en dimensiones de aproximadamente 2.54 cm de diámetro. El espesor de las muestras se ajustó al valor 0.019 cm (muestras comprimidas) y de 0.4 cm (muestras sin comprimir). La compresión de las muestras se hizo en dos fases, se sometieron a una prensa manual de 2 toneladas por 24 h y después a una prensa hidráulica de 10 toneladas por 1 h.

Condiciones de Exposición

Las muestras fueron colocadas en un CPC y expuestas a la Radiación Solar. Se retiraron cada 3 semanas una muestra comprimida y una sin comprimir por 6 meses. La intensidad de la radiación UVB y la temperatura se midieron con un sensor ALMEMO con sonda UVB FLA623-UVB y sensibilidad espectral en el rango de 265-315 nm y un termopar, respectivamente.

Determinación del Índice Carbonilo (IC)

Los valores del IC se determinaron a través espectros obtenidos de un Espectrofotómetro de infrarrojo FT-IR con ATR (Reflexión Total Atenuada).

Algoritmo Back-propagation

El proceso de aprendizaje o entrenamiento del MLP consiste en la estimación de sus parámetros libres(pesos de la red). El algoritmo Back propagation, descrito por Rumelhart, es el método de aprendizaje más ampliamente utilizado en el MLP. Esta basado en una técnica de descenso por gradiente que utiliza la minimación del error cuadrático medio (MSE), mediante un proceso iterativo. MSE es definido como \cite{alejo2010analisis}:

\[E(V)=\frac{1}{2N}\displaystyle\sum_{n=1}^N\sum_{k=1}^K(d_k^m-z_k^n)^2,\]

donde \(d^n\) es la salida esperada de la red, \(V=\{W, U\}\) los parámetros libres de la red, y \(z^n(\cdots)\) la salida de la real. \(N\) es el total de muestras de entrenamiento y \(K\) el número de clases.

El método de descenso por gradiente iterativo pude ser formulado como sigue:

\[V^{t+1}=V^t+ \eta_i \bigtriangledown E(V^t),\]

donde \(t\) es la \(t-\)ésima iteración y \(\eta_i\) la razón de aprendizaje o learning rate \((0<\eta_i\leq 1)\). Al pasar de la iteración \(t\) a la \(t+1\) el algoritmo aplica la corrección

\[\bigtriangledown V= V{t+1}-V^t=\eta_i \bigtriangledown E(V^t),\]

en la dirección opuesta al vector gradiente \(\bigtriangledown E(V^t)\).

En términos generales, el algoritmo back-propagation para un MLP de tres capas se puede resumir como sigue:

  1. Inicializar aleatoremente con valores pequeños los pesos de la red. Generalmente con valores entre \(-0.5\) y \(0.5\).

  2. Aleatoriamente elegir una muestra de entrada \(x^{(n)}\).

  3. Propagar hacia adelante a través de la red. \[z_k^{(n)}= g(\displaystyle \sum_{j=1}^ju_{jk}h(\sum_{i=1}^Iw_{ij}x^{(n)})),\] donde \(z_k^{(n)}\) es la salida de la red pata la entrada \(x_i^{(x)}\); \(g(\cdot)\) y \(h(\cdot)\) representa la función de activación.

  4. Calcular \(\delta_k^L\) para la cala de salida \[\delta_k^L=[z_k^{(n)}(1-z_k^{(n)})](d_k^{(n)}-z_k^{(n)},\] donde \(L\) es el número de capas ocultas mas 1 (en este caso L=2).

  5. Calcular las deltas(\(\delta\)) para las capas previas por propagación del error hacia atrás. \[\delta_j^l=[y_j^n(1-y_j^{(n)})]\displaystyle \sum_{k=1}^K u_{jk}^{(t)}\delta_k^L,\] para \(l=(L-1), \dots, 1\), donde \(t=(1, \dots, T)\) es el n’umero de iteración o repetición del algoritmo.

  6. Actualizar los pesos usando \[u_{jk}^{(t+1)}=u_{jk}^{(t)}+(\eta_i \delta_k^L y_j^{(n)})^{(t)},\] para la capa de salida y \[w_{ij}^{(t+1)}=u_{ij}^{(t)}+(\eta_i \delta_k^l x_i^{(n)})^{(t)},\] para la capa oculta.

  7. Regresar al paso 2 y repetir para la siguiente muestra hasta alcanzar el mínimo de error(fijado a priori) o hasta alcanzar el número máximo de iteraciones.