this is for holding javascript data
Carlos Ramirez edited section_Preliminares_Es_el_m__.tex
almost 8 years ago
Commit id: 7f820049f4d95520c34a18252c0e35930dfd413e
deletions | additions
diff --git a/section_Preliminares_Es_el_m__.tex b/section_Preliminares_Es_el_m__.tex
index 7eb124d..7288ffe 100644
--- a/section_Preliminares_Es_el_m__.tex
+++ b/section_Preliminares_Es_el_m__.tex
...
\item Semi-supervisados: Parte de un conjunto pequeño de patrones de entrenamiento(supervisado), puede ir ampli\'andose mediante el uso de un conjunto de nuevos patrones sin etiquetar(No supervisado).
\end{itemize}
\begin{enumerate}
\item Sea $x_i$ un conjunto de valores de entrada, $w_{ij}$ pesos sin\'apticos, con $i=1,2 \dots n$, %donde $n$ representan el n\'umero de atributos en el vector de caracter\'isticas,
en la $j$-\'esima neurona.%cada una de estas señales se multiplica por un peso que tiene asociado $w_1, w_2, w_3, \dots w_j$.\\
%Definida como $x_iw_j$
\item Una regla de propagaci\'on definida a partir del conjunto de entradas y los pesos sin\'apticos.% Es decir:\\
%\begin{center}
%$h_i=(x_1, \dots x_n, w_{1j}, \dots w_{nj} ) $\\
%\end{center}
%La regla de propagaci\'on com\'unmente utilizada, consiste en combinar linealmente las entradas y los pesos sin\'apticos, obteni\'endose:\\
\begin{center}
$net=(x_1, \dots, x_n, w_{1j}, \dots, w_{nj} )=\displaystyle\sum_{i=1}^{n}w_{ij}x_i$
\end{center}
%conocidos como $net$.
\item $f(net)$ es una funci\'on de activaci\'on%, limita la amplitud de la salida de la neurona $f(net)$.
\end{enumerate}
\subsection{Funciones de Activaci\'on}
\subsubsection{Funci\'on Escalon y Modificaciones}
La funci\'on de activaci\'on puede admitir distintos modelos. Entre las m\'as comunes:
\begin{itemize}
\item Funci\'on escal\'on. Adopta la forma.
$f(net)=\left\{ \begin{array}{cl} 1 & net \geq 0\\ 0 & net<0
\end{array}\right.$\\
y proporciona una salida bivaluada.
\item Funci\'on signo. Adopta la forma.
$f(net)=\left\{ \begin{array}{cl} 1 & net > 0\\0 &net=0 \\-1& net<0
\end{array}\right.$\\
\item Funci\'on por partes. Adopta la forma.
$f(net)=\left\{ \begin{array}{cl} 1 & net \geq \frac{1}{2}\\net & \frac{1}{2}>net\geq\frac{-1}{2} \\0 & net\leq \frac{-1}{2}
\end{array}\right.$\\
\end{itemize}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsubsection{Funci\'on Lineal}
\begin{frame}{Red Neuronal Artificial}{Funci\'on de Activaci\'on.}
\begin{itemize}
\item Funci\'on lineal. Se utiliza cuando no se desea acotar la salida de la neurona.
$f(net)= net+c$,\\
\end{itemize}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsubsection{Funci\'on Sigmoide}
\begin{itemize}
\item Funci\'on sigmoide. Es habitual en muchos modelos neuronales y provoca una transformaci\'on no lineal de su argumento. %Una de las funciones m\'as utilizadas es la funci\'on
Definida por:
$f(net)=\frac{1}{1+exp(-a\cdot net)} $\\
\end{itemize}
\subsection{Entrenamiento de una Red Neuronal Artificial}
El entrenamiento consiste en la presentaci\'on repetida de un conjunto de datos de entrenamiento, formado por las entradas y los valores correspondientes de las variables a predecir, hasta conseguir que los pesos internos % (interacciones entre nodos)
conduzcan a resultados \'optimos en la capa de salida, aproximando los resultados esperados.
\subsection{Correcci\'on de error}
Correccion de error: Es el proceso donde el paradigma de aprendizaje supervisado, establece un valor deseado $d$ % que es el valor esperado como salida de la Red neuronal Artificial
para cada entrada $X$.% Durante el proceso de aprendizaje se genera una salida $y$ de la red que suele ser diferente a $d$.
%El principio b\'asico de la correcci\'on del error es usar $(d-y)$, es decir el error generado por la red para modificar las conexiones de los pesos gradualmente y as\'i reducir el error.
\begin{center}
$\delta=\alpha(d-y)$
\end{center}
%Utilizando la regla $\delta=\alpha(d-y)$.
Donde $\alpha$ es el porcentaje de correcci\'on.
La actualizaci\'on de los pesos esta dado por:
\begin{center}
$w_{ij}=w_{ij}+\delta$
\end{center}