Carlos Ramirez edited section_Experimentaci_on_Los_datos__.tex  almost 8 years ago

Commit id: 8990b2a2fef6550db6e0f12436422fe7ff2a8e37

deletions | additions      

       

5544& 4.8& 102& 3.3000\\  6048& 3.8& 136& 3.5000\\  \end{tabular}  \end{table} El algoritmo retropagaci\'on exige que la funci\'on de activaci\'on sea continua y, por tanto, derivable para poder obtener el error o valor delta de las neuronas ocultas y de salida. Se disponen de dos formas b\'asicas que cumplen esta condici\'on: la funci\'on lineal (o identidad) y la funci\'on sigmoidal. Sin embargo, es absolutamente imprescindible, para aprovechar la capacidad de las RNA de aprender relaciones complejas o no lineales entre variables, la utilizaci\'on de funciones no lineales al menos en las neuronas de la capa oculta (Rzempoluck, 1998). En este sentido, los mejores resultados se obtuvieron utilizando la funci\'on sigmoidal (con límites entre 0 y 1) para las neuronas de la capa oculta y la funci\'on lineal para la neurona de la capa de salida.