Redes Feedforward

Page 1

Redes Feedforward


Directorio OFICINA GENERAL La rosaleda, San Antonio de los Altos, Universidad Bicentenaria de Aragua, Estado Miranda, Venezuela

FOTOGRAFÍA José Escalante Mariana Ramos

FUNDADOR María Martinez

DISEÑO Luis Fernández, Carolina Sandoval, Jeff Vegas, Julio Mendoza

DIRECTOR GENERAL Elba Castro

PUBLICIDAD MauroAmatista

JEFE DE INFORMACIÓN Isaura Herrera

EDITOR WEB Jairo Ripoll

JEFE DE REDACCIÓN Jeniffer Oropeza REPORTERA • Yvana Pedroza

Redes Neuronales Es una revista de alta calidad cuya finalidad es informar, educar y entretener con temas de aspectos integrales. Contiene un excelente diseño visual condicionando un estilo vanguardista dentro de la búsqueda creativa.



By Yvana Pedroza

Es un sistema de computación compuesto por un gran número de elementos simples, elementos de procesos muy interconectados, los cuales procesan información por medio de su estado dinámico como respuesta a entradas externas.


Redes Feedforward Las señales se propagan hacia adelante a través de las capas de la red. No existen conexiones hacia atrás, y normalmente tampoco auto recurrentes, ni laterales, excepto los modelos de red propuestos por Kohonen.

Las redes feedforward más conocidas son:  PERCEPTRON  ADALINE  MADALINE  BACKPROPAGATION. Todas ellas son útiles en aplicaciones de reconocimiento o clasificación de patrones.




PERCEPTRร N SIMPLE: Las redes neuronales tiene la capacidad de aprender a partir de alguna fuente de informaciรณn interactuando con su entorno. En 1958 el psicรณlogo Frank Ronsenblant desarrollรณ un modelo simple de neurona basado en el modelo de McCulloch y Pitts y en una regla de aprendizaje basada en la correcciรณn del error.


El perceptrón está constituido por un conjunto de sensores de entrada que reciben los patrones de entrada a reconocer o clasificar y una neurona de salida que se ocupa de clasificar a los patrones de entrada en dos clases, según que la salida de la misma se 1 (activada) o 0 (desactivada). CARACTERÍTICAS PRINCIPALES DEL PERCEPTRÓN SIMPLE o o o o o o o

Sistema capaz de realizar tareas de clasificación de forma automática. A partir de un número de ejemplos etiquetados, el sistema determina la ecuación del plano discriminante. Puede usarse como neurona dentro de otro tipo de red de neurona artificial. Aprendizaje supervisado y conexiones en un sólo sentido. Es reconocido por su capacidad de aprender a reconocer patrones Es un modelo unidireccional compuesto por dos capas de neuronas. Con respecto al entrenamiento las neuronas de entrada son discretas y la función de activación de las de salida es de tipo escalón.



ARQUITECTURA

Es una red monocapa con varias neuronas de entrada conectadas a la neurona de salida. Observando la imagen anterior podemos calcular el valor de la salida, del siguiente modo:

 En el caso de que la salida sea +1, la entrada pertenecerá a una clase, situada a un lado del hiperplano.  En el caso de que la salida sea -1, la entrada pertencerá a la clase contraria, situada al otro lado del hiperplano.


PERCEPTRON MULTICAPA: Se basa en el uso de varias capas de neuronas artificiales, en vez de usar una sola capa.

CARACTERÍSTICAS DEL PERCEPTRON MULTICAPA. o Es una de las arquitecturas más utilizadas para resolver problemas reales. o Se evalúa un conjunto de datos de entradas y se obtienen valores reales o vectores con valores reales. o Se diferencia del perceptrón simple y ADALINE en que tiene una capa oculta. o Todas las neuronas se relacionan con todas las neuronas, incluyendo las neuronas de la capa oculta.



ARQUITECTURA

Este modelo se compone de:  Capa de entrada: sólo se encarga de recibir las señales de entrada y propagarla a la siguiente capa.  Capa de salida: proporciona al exterior la respuesta de la red para cada patrón de entrada.  Capas ocultas: realizan un procesamiento no lineal de los datos de entrada. La propagación de los patrones de entrada en el perceptron multicapa define una relación entre las variables de entrada y variables de salida de la red. Esta relación se obtiene propagando hacia delante los valores de entrada. Cada neurona de la red procesa la información recibida por sus entradas y produce una respuesta o activación que se propaga, a través de las conexiones correspondientes, a las neuronas de la siguiente capa.



La Red Adaline fue desarrollada en el 1960 por Bernard Widrow y su estudiante Marcian Hoff de la universidad de Stanford. ADALINE proviene de Adaptive Lineal Element (Elemento Lineal Adaptativo), pero antes de que se le diera este nombre esta red sufrió un cambio ya que primeramente se llamaba Adaptive Lineal Neuron (Neurona Linear Adaptiva), dicho cambio se dio por que la Red Adaline es un dispositivo que consta de un único elemento de procesamiento, como tal no es técnicamente considerada una red neuronal.


CARACTERISTICAS •

Su función de activación es lineal.

Son redes de aprendizaje supervisado que usan la regla de Widrow – Hoff para dicho aprendizaje o también denominada regla Delta.

Adaline está limitada a una única neurona de salida, un vector x como su entrada y un número real y como su salida.



Fue una de las primeras redes neuronales multicapa entrenable con múltiples elementos adaptivos. Esta estructura fue diseñada después de ADALINE, para ir mas allá de la solución de problemas linealmente separables.

Consta de una capa de ADALINES y una función de mayoría cuya respuesta binaria depende de las respuestas de las ADALINES.


En 1986, Rumelhart, Hinton y Williams, formalizaron un mĂŠtodo para que una red neuronal aprendiera la asociaciĂłn que existe entre los patrones de entrada y las clases correspondientes, utilizando varios niveles de neuronas.

El funcionamiento de la red backpropagartion consiste en el aprendizaje de un conjunto predefinido de pares de entradassalidas


Se aplica un patrón de entrada como estímulo para la primera capa de las neuronas de la red, se va propagando a través de todas las capas superiores hasta generar una salida, se compara el resultado en las neuronas de salida con la salida que se desea obtener y se calcula un valor de error para cada neurona de salida.

Éstos errores se transmiten hacia atrás, partiendo de la capa de salida hacia todas las neuronas de la capa intermedia que contribuyan directamente a la salida, recibiendo de error aproximado a la neurona intermedia a la salida original. Este proceso se repite, capa por capa, hasta que todas las neuronas de la red hayan recibido un error que describa su aportación relativa al error total.



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.