Carlos Ramírez Piña edited section_Experimentaci_on_Los_datos__.tex  almost 8 years ago

Commit id: 8d5df9e0af37681ae4ddceb3d4a7ea57163587b7

deletions | additions      

       

6048& 3.8& 136& 3.5000\\  \end{tabular}  \end{table}  \caption{Conjunto de datos esperados}  \centering  \begin{tabular}{|c|c|c|c|c|c|c|c|c|c|c|c|}  \hline  0.6555 &1.0662 & 1.5&1.9&2.3&2.5&2.7&2.9&3.1&3.2&3.3&3.5 \\ \hline  \end{tabular}  \end{table}  El algoritmo de retropagaci\'on exige que la funci\'on de activaci\'on sea continua y, por tanto, derivable para poder obtener el error o valor delta de las neuronas ocultas y de salida. Se disponen de dos formas b\'asicas que cumplen esta condici\'on: la funci\'on lineal (o identidad) y la funci\'on sigmoidal. Sin embargo, es absolutamente imprescindible, para aprovechar la capacidad de las RNA de aprender relaciones complejas o no lineales entre variables, la utilizaci\'on de funciones no lineales al menos en las neuronas de la capa oculta ~\cite{rzempoluck2012neural}. En este sentido, los mejores resultados se obtuvieron utilizando la funci\'on sigmoidal (con límites entre 0 y 1) para las neuronas de la capa oculta y la funci\'on lineal para la neurona de la capa de salida.