Carlos Ramirez edited section_Preliminares_Es_el_m__.tex  almost 8 years ago

Commit id: 7f820049f4d95520c34a18252c0e35930dfd413e

deletions | additions      

       

\item Semi-supervisados: Parte de un conjunto pequeño de patrones de entrenamiento(supervisado), puede ir ampli\'andose mediante el uso de un conjunto de nuevos patrones sin etiquetar(No supervisado).  \end{itemize}  \begin{enumerate}  \item Sea $x_i$ un conjunto de valores de entrada, $w_{ij}$ pesos sin\'apticos, con $i=1,2 \dots n$, %donde $n$ representan el n\'umero de atributos en el vector de caracter\'isticas,   en la $j$-\'esima neurona.%cada una de estas señales se multiplica por un peso que tiene asociado $w_1, w_2, w_3, \dots w_j$.\\  %Definida como $x_iw_j$  \item Una regla de propagaci\'on definida a partir del conjunto de entradas y los pesos sin\'apticos.% Es decir:\\  %\begin{center}  %$h_i=(x_1, \dots x_n, w_{1j}, \dots w_{nj} ) $\\  %\end{center}  %La regla de propagaci\'on com\'unmente utilizada, consiste en combinar linealmente las entradas y los pesos sin\'apticos, obteni\'endose:\\  \begin{center}  $net=(x_1, \dots, x_n, w_{1j}, \dots, w_{nj} )=\displaystyle\sum_{i=1}^{n}w_{ij}x_i$  \end{center}  %conocidos como $net$.  \item $f(net)$ es una funci\'on de activaci\'on%, limita la amplitud de la salida de la neurona $f(net)$.  \end{enumerate}  \subsection{Funciones de Activaci\'on}  \subsubsection{Funci\'on Escalon y Modificaciones}  La funci\'on de activaci\'on puede admitir distintos modelos. Entre las m\'as comunes:  \begin{itemize}  \item Funci\'on escal\'on. Adopta la forma.  $f(net)=\left\{ \begin{array}{cl} 1 & net \geq 0\\ 0 & net<0  \end{array}\right.$\\  y proporciona una salida bivaluada.  \item Funci\'on signo. Adopta la forma.  $f(net)=\left\{ \begin{array}{cl} 1 & net > 0\\0 &net=0 \\-1& net<0  \end{array}\right.$\\  \item Funci\'on por partes. Adopta la forma.  $f(net)=\left\{ \begin{array}{cl} 1 & net \geq \frac{1}{2}\\net & \frac{1}{2}>net\geq\frac{-1}{2} \\0 & net\leq \frac{-1}{2}  \end{array}\right.$\\  \end{itemize}  %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%  \subsubsection{Funci\'on Lineal}  \begin{frame}{Red Neuronal Artificial}{Funci\'on de Activaci\'on.}  \begin{itemize}  \item Funci\'on lineal. Se utiliza cuando no se desea acotar la salida de la neurona.  $f(net)= net+c$,\\  \end{itemize}   %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%  \subsubsection{Funci\'on Sigmoide}  \begin{itemize}  \item Funci\'on sigmoide. Es habitual en muchos modelos neuronales y provoca una transformaci\'on no lineal de su argumento. %Una de las funciones m\'as utilizadas es la funci\'on   Definida por:  $f(net)=\frac{1}{1+exp(-a\cdot net)} $\\  \end{itemize}   \subsection{Entrenamiento de una Red Neuronal Artificial}  El entrenamiento consiste en la presentaci\'on repetida de un conjunto de datos de entrenamiento, formado por las entradas y los valores correspondientes de las variables a predecir, hasta conseguir que los pesos internos % (interacciones entre nodos)  conduzcan a resultados \'optimos en la capa de salida, aproximando los resultados esperados.  \subsection{Correcci\'on de error}  Correccion de error: Es el proceso donde el paradigma de aprendizaje supervisado, establece un valor deseado $d$ % que es el valor esperado como salida de la Red neuronal Artificial   para cada entrada $X$.% Durante el proceso de aprendizaje se genera una salida $y$ de la red que suele ser diferente a $d$.   %El principio b\'asico de la correcci\'on del error es usar $(d-y)$, es decir el error generado por la red para modificar las conexiones de los pesos gradualmente y as\'i reducir el error.   \begin{center}  $\delta=\alpha(d-y)$  \end{center}  %Utilizando la regla $\delta=\alpha(d-y)$.  Donde $\alpha$ es el porcentaje de correcci\'on.   La actualizaci\'on de los pesos esta dado por:  \begin{center}  $w_{ij}=w_{ij}+\delta$  \end{center}