Angélica Guzmán Ponce edited subsection_Perceptron_multicapa_El_Perceptron__.tex  almost 8 years ago

Commit id: dc8e8021c2930e8c5122d7d8e6b21bc74943b008

deletions | additions      

       

El MLP es una estructura interconexionista compuesta por una o m\'as capas ocultas entre los nodos de entrada y los nodos de salida. Estas capas est\'an integradas por nodos que pueden o no estar conectados directamente a los de entrada y a los de salida. Se caracteriza fundamentalmente porque no existen conexiones entre neuronas de la misma capa ni conexiones hacia atr\'as. Cada capa alimenta a todas las neuronas de la capa siguiente~\cite{alejo2010analisis}.  En el MLP la cantidad de neuronas de entrada se corresponde con la dimensi\'on del vector de entrada ($X$) y el n\'umero de neuronas en la capa de salida con el total de clases en la muestra de entrenamiento. La cantidad de neuronas en la capa de salida y capas ocultas no est\'a predefinida para que en cualquier problema sea el mismo n\'umero,  por lo que ha sido objeto de estudio durante muchos a\~nos. La Figura~\ref{fig08}se  muestra un MLP con tres capas: entrada, oculta y salida~\cite{alejo2010analisis}.