this is for holding javascript data
Carlos Ramirez added subsection_Perceptron_multicapa_El_Perceptron__.tex
almost 8 years ago
Commit id: ac03dc8724d58334b8d754cec8b2bce554de30b7
deletions | additions
diff --git a/subsection_Perceptron_multicapa_El_Perceptron__.tex b/subsection_Perceptron_multicapa_El_Perceptron__.tex
new file mode 100644
index 0000000..d349d2e
--- /dev/null
+++ b/subsection_Perceptron_multicapa_El_Perceptron__.tex
...
\subsection{Perceptron multicapa}
El Perceptron Multicapa(multilayer Perceptron, MLP) es uno de los modelos de ANNs m\'as cococidos y utilizados en la actualidad. Se ha aplicado a tareas de clasificaci\'on, predicci\'on, aproximaci\'on de funciones de control.
Nace en el campo de la inteligencia artificial como un intento de modelar la estructura neuronal del cerebro y la capacidad de aprendizaje de este sistema biol\'ogico.
El MLP es una estructura interconexionista compuesta por una o m\'as capas ocultas entre los nodos de entrada y los de la salida. Estas capas est\'an integradas por nodos que pueden o no estar conectados directamente a los de entrada y a los de salida. Se caracteriza fundamentalmente porque no existen conexiones entre neuronas de la misma capa ni conexiones hacia atras. Cada capa alimenta a todas las neuronas de la capa siguiente.
En el MLP la cantidad de neuronas de entrada se corresponde con la dimensi\'on del vector de entrada(X) y el n\'umero de neuronas en la capa de salida con el total de clases en la muestra de entrenamiento. La cantidad de neuronas en la capa de salida y capas ocultas no est\'a predefinida por lo que ha sido objeto de estudio durante muchos a\~nos. La figura ()
muestra un MLP con tres capas: entrada, oculta y salida.