Carlos Ramírez Piña edited section_Introduci_on_subsection_Redes__.tex  almost 8 years ago

Commit id: 05ce9de30cc764d2f0a0c31bbb784aea390294af

deletions | additions      

       

%La utilizaci\'on de las ANN puede orientarse para la soluci\'on de problemas pr\'acticos como la clasificaci\'on de patrones y la aproximaci\'on de funciones. Desde la segunda prespectiva, las ANN han sido aplicadas de forma satisfactoria en la predicci\'on de diveros problemas en diferentes \'areas de conocimiento (Biolog\'ia, Medicina, econom\'ia , ingenier\'ia, Psicolog\'ia entre otros)~\cite{pol2000prediccion}.  %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%  Las ANN se basan en una estructura de neuronas unidas por enlaces que transmiten informaci\'on a otras neuronas, las cuales entregan un resultado mediante funciones matem\'aticas. Las ANN aprenden de la informaci\'on hist\'orica a trav\'es de un entrenamiento, proceso mediante el cual se ajustan los par\'ametros de la red, a fin de entregar la respuesta deseada, adquiriendo entonces la capacidad de predecir respuestas del mismo fen\'omeno. El comportamiento de las redes depende entonces de los pesos para los enlaces, de las funciones de activaci\'on que se especifican para las neuronas, las que pueden ser de tres categorías: categor\'ias:  lineal, de umbral (o escal\'on) y sigmoideal, y de la forma en que propagan el error ~\cite{freeman1991algorithms}. Existen varios algoritmos que permiten ir corrigiendo el error de pron\'ostico; uno de los m\'as usados es el denominado "retro propagaci\'on", que consiste b\'asicamente en propagar el error hacia atr\'as, desde la capa de salida hasta la de entrada, permitiendo así as\'i  la adaptaci\'on de los pesos con el fin de reducir dicho error ~\cite{hilera2000redes}. En forma simplificada, el funcionamiento de una red "retro propagaci\'on" consiste en el aprendizaje de un conjunto predefinido de pares de entradas-salidas dados como ejemplo, empleando un ciclo de propagaci\'on–adaptaci\'on de dos fases: primero, al aplicar un primer patr\'on como est\'imulo para la capa de entrada de la red, \'este se va propagando a trav\'es de las capas siguientes para generar la salida, la cual proporciona el valor del error al compararse con la que se desea obtener. A continuaci\'on estos errores se transmiten hacia atr\'as, partiendo de la capa de salida, hacia todas las neuronas de la capa oculta intermedia que contribuyan directamente a la salida, recibiendo el porcentaje del error aproximado a la participaci\'on de las mismas en la salida original~\cite{ovando2005redes}..