En 1957 nace el PERCEPTRON, que fue el primer paradigma de Redes neuronales que apareció. Su creador, Frank Rosenblatt, construyó este modelo computacional que como aplicaciones tenía clasificación de figuras, reconocimiento de caracteres y reconocimiento de patrones de las capacidades del sistema de la visión. Anatómicamente, este modelo constaba de tres capas localmente conectadas. La capa de entrada o zona sensorial, simulaba a la retina, la cual recolecta la información sensorial, esta información la proyecta a la siguiente capa. La segunda capa, llamada zona de asociación, es una asociación unitaria conectada recíprocamente a la tercera capa, la cual es una unidad de respuesta. Las salidas son cero o uno. Como la función de transferencia es lineal, las últimas investigaciones han mostrado que las tres capas podían haber sido colapsadas en una sola.Rosenblatt creyó que el sistema pudo haber sido capaz de manejar las entradas variables y ruidosas, como lo hacen los sistemas biológicos, así como la auto-organización para asociar estímulos con respuesta.Por otra parte el Perceptrón estaba limitado para resolver problemas como el XOR. Sin embargo este modelo fue la inspiración para la elaboración de otros modelos poderosos como ADALINE. La red neuronal ADALINE, después MADALINE, fue desarrollada en 1959 por Bernard Widrow y Marcian Hoff, en la Universidad de Stanford. Esta fue la primera red neuronal aplicada a un problema real, la cual tenía por objetivo eliminar los ecos en las líneas telefónicas. Esta aplicación ha sido comercializada por varias décadas. La idea de sus creadores fue que este modelo aprendiera más rápido y fuera más exacto que el Perceptrón. Utilizaba el algoritmo de error-corrección también llamado Widrow-Hoff Rule, la cual consiste en que una vez detectado el error, lo corrige y de esta manera va aprendiendo. Entre las contribuciones de este modelo se encuentran: Anular las emisiones de radar, módems y ecualizadores del teléfono. Por último, como limitante es que asume relaciones lineales entre cero y uno. Stephen Grossberg, de la Universidad de Boston, realizó escritos considerables acerca de sus investigaciones psicológicas para el desarrollo de modelos de redes neuronales. En 1967, construyó un modelo llamado Avalanche, que utilizaba una clase de redes para realizar actividades como el reconocimiento del habla y enseñar comandos a los brazos de robots. Como todo modelo de red neuronal tiene sus limitantes, los de Avalanche son que no tenía un camino fácil para alterar su velocidad o interrumpir su movimiento y volver a proseguirlo. El método Backpropagation, o entrenamiento de propagación hacia atrás, fue desarrollado por D.E. Rumelhart, G.E. Hinton y R.J. Williams en 1986, y aproximadamente igual que Parker y Le Cum, ambos en 1985. Este tipo de red es la más popular, efectiva y de rápido aprendizaje para redes complejas y de múltiples capas. Básicamente, utiliza la técnica de Widrow-Hoff, la cual calcula la diferencia entre la salida actual y la salida deseada. Utilizando este error, los pesos son cambiados en proporción sobre el tiempo de error de la entrada. Tomando como referencia un nodo individual, esto significa que la entrada, la salida y la salida deseada deben de estar presentes en la misma sinapsis. Es un poco difícil realizarlo con unidades ocultas[1]. El sistema de entrenamiento consiste en inicializar los pesos sinápticos, elegidos al azar; posteriormente, se introducen unos datos de entrada, pueden ser o no elegidos al azar, para ser usados durante el entrenamiento; luego, se deja que la red genere un vector de datos de salida, a esto se le conoce como propagación hacia adelante; al termino, se compara la salida deseada con la que ha generado la red, a lo cual se le conoce como error; este error (también llamado diferencia), se usa para ajustar los pesos de las neuronas de la capa de salida; después, el error se propaga hacia atrás, hacia la capa de neuronas anterior, esto para ajustar los pesos en esa capa; por último, el error se continua propagando hacia atrás y ajustando los pesos hasta que alcance la capa de entradas. Este proceso es repetido con los diferentes datos de entrenamiento. Entre las aplicaciones de la red se encuentran: síntesis de voz desde el texto, brazos de robot, préstamos bancarios, entre otros. Por el contrario, la necesidad de varios ejemplos de entrada y salida para su entrenamiento es una de sus limitantes. Continuando con la cronología, en 1977 nace un nuevo modelo de red neuronal; Brain State in a Box (BSB), creado por James Anderson. El ingenioso nombre se debe a que establecía a la red neuronal en una caja de límites, o un hipercubo. El objetivo de este modelo es ofrecer un mejor entendimiento del cerebro humano y como trabaja. Al igual que ADALINE, BSB realizaba la corrección de errores mediante la propagación hacia atrás. Dentro de sus aplicaciones se encuentran más experimentos que productos. Una de sus asombrosas aplicaciones es que puede extraer conocimiento de bases de datos; otra es que después de haberla entrenado con diferentes tipos de enfermedades y sus síntomas, este modelo puede sugerir tratamientos si se le provee los síntomas para una enfermedad desconocida para él. John Hopfield, físico que trabajaba en los laboratorios Bell conceptualizó en 1982 una red neuronal en términos de su propia energía y de la física de los sistemas dinámicos. Un nodo cambiará de estado si se reduce el nivel de frustración de la red. La salida de cada nodo en binario, simétricamente está conectada con los pesos de las entradas. Pesos positivos son excitatorios y estarán fuertemente conectados; pesos negativos son inhibitorios, conectados débilmente. Entre las aplicaciones de la red de Hopfield se encuentran los sistemas de control de robots y en la identificación de los blancos militares de los amigos o enemigos.[1] Unidades ocultas: Son aquellas cuyas entradas y salidas se encuentran dentro del sistema, pero que no tienen contacto con el exterior.
Algoritmo
Hace 16 años
No hay comentarios:
Publicar un comentario