miércoles, 8 de febrero de 2017

Redes Neuronales: Forma.

La arquitectura de una RNA es la estructura o patrón de conexiones de la red. Es conveniente recordar que las conexiones sinápticas son direccionales, es decir, la información sólo se transmite en un sentido.

En general, las neuronas suelen agruparse en unidades estructurales llamadas capas. Dentro de una capa, las neuronas suelen ser del mismo tipo. Se pueden distinguir tres tipos de capas:

· De entrada: reciben datos o señales procedentes del entorno.

· De salida: proporcionan la respuesta de la red a los estímulos de la entrada.

· Ocultas: no reciben ni suministran información al entorno (procesamiento interno de la red).

Generalmente las conexiones se realizan entre neuronas de distintas capas, pero puede haber conexiones intracapa o laterales y conexiones de realimentación que siguen un sentido contrario al de entrada-salida.
Resultado de imagen para redes neuronales arquitectura

Redes Neuronales: red Neuronal Artificial.

Una red neuronal artificial (RNA) se puede definir (Hecht – Nielssen 93) como un grafo dirigido con las siguientes restricciones:

Los nodos se llaman elementos de proceso (EP).
Los enlaces se llaman conexiones y funcionan como caminos unidireccionales instantáneos
Cada EP puede tener cualquier número de conexiones.
Todas las conexiones que salgan de un EP deben tener la misma señal.
Los EP pueden tener memoria local.
Cada EP posee una función de transferencia que, en función de las entradas y la memoria local produce una señal de salida y / o altera la memoria local.
Las entradas a la RNA llegan del mundo exterior, mientras que sus salidas son conexiones que abandonan la RNA.

Redes Neuronales: Modelo

El modelo de Rumelhart y McClelland (1986) define un elemento de proceso (EP), o neurona artificial, como un dispositivo que a partir de un conjunto de entradas, xi(i=1...n) o vector x, genera una única salida y.
Resultado de imagen para redes neuronales modelo artificial
Esta neurona artificial consta de los siguientes elementos:

· Conjunto de entradas o vector de entradas x, de n componentes

· Conjunto de pesos sinápticos wij. Representan la interacción entre la neurona presináptica j y la postsináptica i.

· Regla de propagación d(wij,xj(t)): proporciona el potencial postsináptico, hi(t).

· Función de activación ai(t)=f(ai(t-1), hi(t)): proporciona el estado de activación de la neurona en función del estado anterior y del valor postsináptico.

· Función de salida Fi(t): proporciona la salida yi(t), en función del estado de activación.

Las señales de entrada y salida pueden ser señales binarias (0,1 – neuronas de McCulloch y Pitts), bipolares (-1,1), números enteros o continuos, variables borrosas, etc.

La regla de propagación suele ser una suma ponderada del producto escalar del vector de entrada y el vector de pesos:



También se usa a menudo la distancia euclídea entre ambos vectores:



Existen otro tipo de reglas menos conocidas como la distancia de Voronoi, de Mahalanobis, etc.

Redes Neuronales: Biologica.

Fue Ramón y Cajal (1888) quién descubrió la estructura celular (neurona) del sistema nervioso. Defendió la teoría de que las neuronas se interconectaban entre sí de forma paralela, y no formando un circuito cerrado como el sistema sanguíneo.

Una neurona consta de un cuerpo celular (soma) de entre 10 y 80 mm, del que surge un denso árbol de ramificaciones (dendritas) y una fibra tubular (axón) de entre 100 mm y un metro.

De alguna forma, una neurona es un procesador de información muy simple:

· Canal de entrada: dendritas.

· Procesador: soma.

· Canal de salida: axón.

Una neurona cerebral puede recibir unas 10.000 entradas y enviar a su vez su salida a varios cientos de neuronas.

La conexión entre neuronas se llama sinapsis. No es una conexión física, si no que hay unos 2 mm de separación. Son conexiones unidireccionales, en la que la transmisión de la información se hace de forma eléctrica en el interior de la neurona y de forma química entre neuronas; gracias a unas sustancias específicas llamadas neurotransmisores.

No todas las neuronas son iguales, existen muchos tipos diferentes según el número de ramificaciones de sus dendritas, la longitud del axón y otros detalles estructurales. Sin embargo, como hemos visto, todas ellas operan con los mismos principios básicos.

Resultado de imagen para redes neuronales

Redes Neuronales: Historia.

Desde la década de los 40, en la que nació y comenzó a desarrollarse la informática, el modelo neuronal la ha acompañado. De hecho, la aparición de los computadores digitales y el desarrollo de las teorías modernas acerca del aprendizaje y del procesamiento neuronal se produjeron aproximadamente al mismo tiempo, a finales de los años cuarenta.

Desde entonces hasta nuestros días, la investigación neurofisiológica y el estudio de sistemas neuronales artificiales (ANS, Artificial Neural Systems) han ido de la mano. Sin embargo, los modelos de ANS no se centran en la investigación neurológica, si no que toma conceptos e ideas del campo de las ciencias naturales para aplicarlos a la resolución de problemas pertenecientes a otras ramas de las ciencias y la ingeniería.

Podemos decir que la tecnología ANS incluye modelos inspirados por nuestra comprensión del cerebro, pero que no tienen por qué ajustarse exactamente a los modelos derivados de dicho entendimiento.

Los primeros ejemplos de estos sistemas aparecen al final de la década de los cincuenta. La referencia histórica más corriente es la que alude al trabajo realizado por Frank Rosenblatt en un dispositivo denominado perceptrón. Hay otros ejemplos, tales como el desarrollo del Adaline por el profesor Bernard Widrow.

Durante todos estos años, la tecnología ANS no siempre ha tenido la misma consideración en las ramas de la ingeniería y las ciencias de la computación, más ansiosas de resultados que las ciencias neuronales. A partir de 1969, el pesimismo debido a las limitadas capacidades del perceptrón hizo languidecer este tipo de investigación.

A principios de los 80, por un lado Hopfield y sus conferencias acerca de la memoria autoasociativa y por otro lado la aparición del libro Parallel Distributed Processing (PDP), escrito por Rumelhart y McClelland reactivaron la investigación en el campo de las redes neuronales. Hubo grandes avances que propiciaron el uso comercial en campos tan variados como el diagnóstico de enfermedades, la aproximación de funciones o el reconocimiento de imágenes.

Hoy en día, la tecnología ANS no está en su mejor momento, pero a pesar de ello existen revistas, ciclos de conferencias, etc; que mantienen vías de investigación abiertas.


Redes Neuronales: ¿Qué es?


Las Redes Neuronales son un campo muy importante dentro de la Inteligencia Artificial. Inspirándose en el comportamiento conocido del cerebro humano (principalmente el referido a las neuronas y sus conexiones), trata de crear modelos artificiales que solucionen problemas difíciles de resolver mediante técnicas algorítmicas convencionales.

En esta página web trataremos de acercar al visitante a este tema, mostrando las bases neurológicas y matemáticas, los principales modelos vigentes y ejemplos interactivos que solucionan algunos problemas de forma eficaz.
Resultado de imagen para redes neuronales artificiales informatica

Supercomputadoras: El futuro

Entre las últimas propuestas de los fabricantes de superordenadores destacan dos iniciativas: el Proyecto Ultravioleta de SGI y Blue/Gene. Como explica Óscar de Bustos, el primero surgió hace dos años como respuesta a un concurso público organizado por la agencia dedicada a la investigación en defensa en EE.UU., DARPA (Defense Advanced Research Projects Agency). “Ésta quería que varios fabricantes presentaran su visión de cómo estaría la supercomputación en 2010, así que varias empresas como IBM, Cray, Sun y HP, además de SGI, hicimos nuestras propuestas. Nuestra iniciativa fue el Proyecto Ultravioleta y, aunque no fue elegido por DARPA, nuestra compañía ha seguido avanzando en él para un futuro lanzamiento comercial”. De Bustos señala que el proyecto se encuentra en estado embrionario: “En 2005 podremos ver los primeros prototipos y no será hasta 2007 cuando se empiecen a comercializar”.
Como explica De Bustos, el proyecto Ultravioleta se basa en el concepto de la computación multiparadigma. “El científico no tiene tiempo para preocuparse por la programación, debe dedicarse a su labor. Esto es lo que pretendemos con Ultravioleta”. Así, utilizando la “computación multiparadigma”, estos sistemas aunarán las arquitecturas de computación existentes en el mercado con la tecnología escalable de memoria compartida de SGI. El nuevo superordenador soportará procesadores MIPS de SGI, pero también Itanium 2, ya que SGI trabaja con Intel en el Programa de Computación Avanzada, mediante el que ambas desarrollarán interfaces de programación más productivas.

Resultado de imagen para supercomputadoras futuro

SuperComputadoras: ¿como son utilizadas?



Las supercomputadoras son utilizadas ampliamente en el campo de la investigación científica, ya que se requiere manipular una enorme cantidad de datos en muy poco tiempo, por lo que el poder de procesamiento de datos incluso llega a quedarse corto en varios campos. Entre las principales áreas de investigación en las cuales se utilizan supercomputadoras, tenemos:
La predicción del clima, ya que se utiliza información que llega en tiempo real de diferentes centrales de información y detección de clima alrededor del mundo, en búsqueda de patrones que ayuden a predecir los cambios climáticos y evitar tragedias.
El estudio del universo, ya que al ser tan extenso y utilizar tantas variables a la vez se hace imposible para equipos convencionales.
Simular efectos destructivos y peligrosos, como pruebas nucleares o situaciones de alto riesgo que requieren alta potencia de trabajo.
Resultado de imagen para supercomputadoras

Supercomputadoras: ¿Qué son?



La supercomputadoras son ordenadores o computadoras de alto desempeño, es decir, son extremadamente potentes y capaces de realizar tareas de cálculo a una velocidad sorprendente que equivale a cientos de veces la velocidad de una computadora de sobremesa o laptop estándar.

Podemos decir entonces que las supercomputadoras son equipos informáticos que están compuestos por cientos de procesadores que trabajan en paralelo y en arreglos combinados, para ofrecer una velocidad y capacidad de cálculo y de procesamiento de datos sorprendentes, de tal manera, que puedan ser utilizadas para fines específicos en donde muchas computadoras trabajando simultáneamente no darían los resultados esperados por los usuarios. La velocidad de estos equipos son medidos en Teraflops que equivalen a billones de operaciones por segundo, lo que da una idea de la potencia y la velocidad de estas colosales computadoras.

Resultado de imagen para supercomputadoras