this is for holding javascript data
Carlos Ramirez edited section_Experimentaci_on_Los_datos__.tex
almost 8 years ago
Commit id: 8990b2a2fef6550db6e0f12436422fe7ff2a8e37
deletions | additions
diff --git a/section_Experimentaci_on_Los_datos__.tex b/section_Experimentaci_on_Los_datos__.tex
index 7b6a23c..04037ee 100644
--- a/section_Experimentaci_on_Los_datos__.tex
+++ b/section_Experimentaci_on_Los_datos__.tex
...
5544& 4.8& 102& 3.3000\\
6048& 3.8& 136& 3.5000\\
\end{tabular}
\end{table}
El algoritmo retropagaci\'on exige que la funci\'on de activaci\'on sea continua y, por tanto, derivable para poder obtener el error o valor delta de las neuronas ocultas y de salida. Se disponen de dos formas b\'asicas que cumplen esta condici\'on: la funci\'on lineal (o identidad) y la funci\'on sigmoidal. Sin embargo, es absolutamente imprescindible, para aprovechar la capacidad de las RNA de aprender relaciones complejas o no lineales entre variables, la utilizaci\'on de funciones no lineales al menos en las neuronas de la capa oculta (Rzempoluck, 1998). En este sentido, los mejores resultados se obtuvieron utilizando la funci\'on sigmoidal (con límites entre 0 y 1) para las neuronas de la capa oculta y la funci\'on lineal para la neurona de la capa de salida.