0% encontró este documento útil (0 votos)
38 vistas62 páginas

Redes Neuronales en Automatismos

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1/ 62

REDES NEURONALES EN AUTOMATISMOS

I.

RESUMEN

Las redes neuronales han sido estudiadas casi desde los principios de la era de los
ordenadores. Al principio la investigacin de los redes neuronales estaba centrado en y
motivado por la biologa. Pero los modelos de las redes neuronales desarrolladas eran
demasiado dbiles para solucionar tareas de procesamiento de informacin compleja que
podemos encontrar en muchas aplicaciones industriales.
Nuevas innovaciones en los aos 80 llevaron a la aparicin de modelos de redes
neuronales ms poderosos. Muchos estudios cientficos intentaron con xito demostrar los
conceptos y los beneficios en varios sectores de aplicaciones industriales. En
consecuencia la industria consideraba las redes neuronales como herramienta til.
Hoy en da, las redes neuronales son populares y son aplicadas en los varios sectores de la
industria. En el pasado haba afirmaciones exageradas sobre la capacidad de las redes
neuronales. Pero los investigadores y los usuarios de trabajaron en una mejora de la
compresin de los modelos y la notificacin de las ventajas y los inconvenientes en
diferentes sectores industriales. Ahora el campo de las redes neuronales es ms realista y
est siguiendo el buen camino.
Expectativas realistas y experiencias reales han conseguido disminuir el riesgo de fracasos
y malas reputaciones generadas por estos. Hoy en da se sabe bien qu las redes
neuronales son y qu pueden rendir. Si se puede combinar este conocimiento con la
experiencia en aplicaciones industriales a automatismos, se pueden lograr rendimientos al
nivel de las capacidades de las redes neuronales.

II.

INTRODUCCION
2.1.- Introduccin a las neuronas:
En nuestro sistema nervioso existen clulas llamadas neuronas que son una unidad de
procesamiento que recibe un estimulo elctrico de otras neuronas principalmente a
travs de su rbol dendrtico.
El estimulo elctrico recibido al pasar de un cierto umbral causa que la neurona a su
vez envie una seal elctrica a travs de su axn a otras sucesivas neuronas.
Basado en la fuerza de interconexin entre las neuronas la red puede ser capaz de
cmputos y deteccin de patrones complejos

REDES NEURONALES EN AUTOMATISMOS

Fig. 1 Neurona Real


2.1.1.- Sinapsis:
Cuando el rbol dendrtico recibe impulsos elctricos sobre un umbral voltaje
especifico la neurona manda una seal elctrica a travs del axon a los
terminales Axonicos
En esos terminales se conectan los terminales axonicos (a travs de sinapsis) a
otras neuronas
Los terminales axonicos se pueden conectar a travs de sinapsis a diferentes
partes de la neurona pero tpicamente se considera solo la conexin a otras
dendritas
Dependiendo del neurotransmisor (ion) el potencial inducido en terminal
postsinaptico (dendrita) puede ser positivo (excitado) o negativo (inhibidor)

Fig. 2 Vescula con neurotransmisores


2.1.2.- Neuronas Temporales:
Las neuronas tienen un tiempo de activacin del orden de milisegundos
comparado con nanosegundos para hardware computacional.
El cerebro humano tiene alrededor de 1011 neuronas con un promedio de 104
conexiones cada una.
Todas las seales de input de otras neuronas se suman de manera
espaciotemporal por la neurona.
2

REDES NEURONALES EN AUTOMATISMOS

Fig. 3 Seales de input


2.1.3.- Polarizacin de las Neuronas:
Cuando la neurona es estimulada pasado un voltaje umbral (VT) se despolariza
(TDP) la membrana y las bombas de sodio-potasio paran de actuar, la
membrana cambia de estado y se convierte mas permeable al ion positivo de
NA+ que al entrar a la neurona cambia el potencial a travs de la membrana
neuronal a positivo (+ 40mV).
Despus hay un periodo refractario (TR) de ~ 1ms en el cual se cierran los
canales de NA+, la membrana vuelve a ser permeable a K+, las bombas se
activan y la neurona logra su voltaje inicial a travs del escape de K+ en este
periodo la neurona no es susceptible a estmulos sinpticos

Fig. 4 Periodos de la neurona


2.1.4.- Modelo de una Neurona:
McCulloch and Pitts (1943) desarrollaron el modelo original de una neurona
esta incluyo diferentes inputs (x), pesos para esos inputs (w), una funcin
nolinear (f) de transferencia y el Output (O)
En el modelo original no se incluyo un profesor (Teacher) para entrenar a la red
La funcin no lineal de transferencia usada era el escaln (hard limit o step
function)
Se incluyo un input de bias para evitar outputs no deseados cuando los inputs
son zero

REDES NEURONALES EN AUTOMATISMOS


2.1.5.- Modelo MP de una Neurona:
Se modela la neurona como una red con pesos (conexiones sinpticas) desde
los nodos j al nodo i, wij.
Input neto a la neurona es:

Funcin de output f es sgn():

Fig. 5 Modelo MP de la neurona


2.1.6.- Computacin Neuronal:
McCullough y Pitts (1943) mostraron que este modelo podra calcular
funciones lgicas para poder construir maquinas de estados finitos
Pueden construir compuertas lgicas (AND, OR, NOT)
Con estas compuertas pueden calcular cualquier funcin lgica usando una red
de dos niveles AND-OR.
Tambin se denomina perceptron de una capa

REDES NEURONALES EN AUTOMATISMOS

Fig. 6 Computacin Neuronal


2.2- Introduccin a las redes neuronales artificiales (ANN):
Las ANNs son un paradigma para hacer computo y para la deteccin de patrones
basado en la interconexin paralela de neuronas artificiales.
Las ANNs son un modelo basado en los complejos sistemas nerviosos de los animales
y seres humanos con su gran cantidad de interconexiones y paralelismo.
Los comportamientos inteligentes de estos son una propiedad emergente del gran
nmero de unidades no un resultado de reglas simblicas o algoritmos.
Las caractersticas previamente expuestas de las neuronas se duplican para crear redes
de neuronas artificiales que tienen capacidades similares de procesar informacin en
forma paralela.
Algunas capacidades de las redes neuronales son:
1. Aprendizaje
2. Clasificacin
3. Almacenaje de informacin
4. Interpolarizacin
5. Adaptacin
Las redes neuronales artificiales recrean o modelan las caractersticas de las neuronas
ya mencionadas en sistemas computacionales de software y hardware. Usan grupos de
muchas neuronas artificiales (como la neurona McCulloch-Pitts o MP). Usan
principios de computacin colectiva y descentralizada (paralela), son capaces de
aprender.
Operaciones robustas y resistentes a fallas de neuronas individuales, la red hace
asociaciones automticamente, la red crea el programa al ajustar los pesos durante
su aprendizaje, al operar requieren de sincronizidad o que las seales entren al mismo
tiempo a todas las neuronas en el mismo nivel (no as las biolgicas que usan la suma
espacio-temporal)
El modelo de una red neuronal con mltiples capas difiere de las que hemos visto
hasta ahora en que incluye neuronas en capas escondidad, una capa escondida significa
que no es visible ni al input ni al output, un perceptron de dos capas puede discernir,
5

REDES NEURONALES EN AUTOMATISMOS


regiones poligonales, uno de tres o ms capas puede discernir regiones arbitrarias
(Multi Layer Perceptron o MLP).
Estos ANN tienen la capacidad de separar inputs en mltiples funciones lineales y de
esta manera pueden detectar patrones ms complejos que redes de una funcin lineal
como las vistas anteriormente.

Fig. 7 Modelo de red neuronal con mltiples capas


A continuacin tenemos un ejemplo ejemplo de un multilayer neural network es capaz
de resolver el problema del XOR, los valores sobre las lneas indican pesos y los en
los crculos indican umbrales (thresholds), la funcin no lineal es un step function con
valores de 1 si el umbral el excedido y de 0 si el umbral no es excedido.
Ejemplo XOR (hay otras soluciones posibles)

Fig. 8 Ejemplo XOR


2.2.1.- Funciones No Lineales:
Las tpicas funciones no lineales (f) usadas en redes neuronales incluyen:
sigmoides, limitante duro (step function), y rampa, los sigmoides f(s) son:
monotonicos (sin discontinuidades)
bounded (limitados)
Tiene derivados simples f(s)=kf(s)[1-f(s)]
no linear
Los limitantes duros y rampas son:
no monotonicos (tiene discontinuidades)
no tienen derivados simples
linear (dentro de las reas con limites)

REDES NEURONALES EN AUTOMATISMOS

Fig. 9 Funciones no lineales


2.2.2.- Consideraciones Paramtricas:
Tamao: cantidad de neuronas para resolver un problema
Tipo o paradigma: nmero de capas escondidas, numero de neuronas en cada
capa
Algoritmo de aprendizaje
Numero de iteraciones durante el aprendizaje
Numero de clculos por cada iteracin
Velocidad para reconocer un patrn
Capacidad de reconocimiento de patrones diferentes
Grado de adaptabilidad (despus de entrenamiento)
Si requiere de Bias
Valores de umbral
Limites (boundaries) de pesos sinpticos
Seleccin de funcin no linear ( f )
Inmunidad necesaria de la red al ruido
Valores finales de los pesos (programa final) de la red
2.2.3.- Paradigmas Multicapa:
Multilayer feedforward con una capa escondida:

Fig. 10
Multilayer feedforward con capas escondidas y competitiva/cooperativa.

Fig. 11
7

REDES NEURONALES EN AUTOMATISMOS

Bilayer feedforward/backward sin capas escondidas:

Fig. 12
Multilayer feedforward/backward
Monolayer with feedback
Otras (aqu entra la imaginacion)
2.3.- Automatismos:
Los automatismos, han permitido al ser humano delegar en las mquinas las tareas
peligrosas y repetitivas, en forma eficiente y econmica. Actualmente, la
implementacin de los mismos, se fundamenta en microprocesadores programados en
base a las secuencias de tareas que la actividad a automatizar y/o controlar requiera.
Durante la construccin de software para Automatismos se presentan riesgos, si no son
detectados y evitados en forma temprana pueden manifestarse como:
- Prdidas de vidas humanas o accidentes graves.
- Sistemas que no cumplen las expectativas para las cuales fueron creados.
- Prdidas econmicas.
- Incumplimiento de programas de produccin.
- Baja fiabilidad.
- Baja eficiencia.
- Tiempos y costos de desarrollo de proyecto mucho mayores que los esperados.
- Conflictos legales.
- Prdidas de clientes.
A lo largo de las tres ltimas dcadas, mucha de la experiencia acumulada en otras
reas del software se ha trasladado con xito al mbito del desarrollo de
Automatismos. Como uno de los muchsimos ejemplos que existen, podemos citar la
programacin estructurada aplicada a controladores lgicos programables (PLCs),
introducida por Siemens en la dcada del 80.

III.

GENERALIDADES
3.1.- Historia de las redes neuronales:
1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de ver el
mundo de la computacin. Sin embargo, los primeros tericos que concibieron los
8

REDES NEURONALES EN AUTOMATISMOS


fundamentos de la computacin neuronal fueron Warren McCulloch, un
neurofisilogo, y Walter Pitts, un matemtico, quienes, en 1943, lanzaron una teora
acerca de la forma de trabajar de las neuronas (Un Clculo Lgico de la Inminente
Idea de la Actividad Nerviosa - Boletn de Matemtica Biofsica 5: 115-133). Ellos
modelaron una red neuronal simple mediante circuitos elctricos.
1949 - Donald Hebb. Fue el primero en explicar los procesos del aprendizaje (que es el
elemento bsico de la inteligencia humana) desde un punto de vista psicolgico,
desarrollando una regla de como el aprendizaje ocurra. Aun hoy, este es el
fundamento de la mayora de las funciones de aprendizaje que pueden hallarse en una
red neuronal. Su idea fue que el aprendizaje ocurra cuando ciertos cambios en una
neurona eran activados. Tambin intent encontrar semejanzas entre el aprendizaje y la
actividad nerviosa. Los trabajos de Hebb formaron las bases de la Teora de las Redes
Neuronales.
1950 - Karl Lashley. En sus series de ensayos, encontr que la informacin no era
almacenada en forma centralizada en el cerebro sino que era distribuida encima de l.
1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona para
indicar el nacimiento de la inteligencia artificial.
1957 - Frank Rosenblatt. Comenz el desarrollo del Perceptron. Esta es la red
neuronal ms antigua; utilizndose hoy en da para aplicacin como identificador de
patrones. Este modelo era capaz de generalizar, es decir, despus de haber aprendido
una serie de patrones poda reconocer otros similares, aunque no se le hubiesen
presentado en el entrenamiento. Sin embargo, tena una serie de limitaciones, por
ejemplo, su incapacidad para resolver el problema de la funcin OR-exclusiva y, en
general, era incapaz de clasificar clases no separables linealmente.
1959 - Frank Rosenblatt: Principios de Neurodinmica. En este libro confirm que,
bajo ciertas condiciones, el aprendizaje del Perceptron converga hacia un estado finito
(Teorema de Convergencia del Perceptron).
1960 - Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline (ADAptative
LINear Elements). Esta fue la primera red neuronal aplicada a un problema real (filtros
adaptativos para eliminar ecos en las lneas telefnicas) que se ha utilizado
comercialmente durante varias dcadas.
1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones
tcnicas (memoria asociativa).
1969 - Marvin Minsky/Seymour Papert. En este ao casi se produjo la muerte
abrupta de las Redes Neuronales; ya que Minsky y Papert probaron
(matemticamente) que el Perceptrons no era capaz de resolver problemas
relativamente fciles, tales como el aprendizaje de una funcin no-lineal. Esto
demostr que el Perceptron era muy dbil, dado que las funciones no-lineales son
extensamente empleadas en computacin y en los problemas del mundo real.
1974 - Paul Werbos. Desarroll la idea bsica del algoritmo de aprendizaje de
propagacin hacia atrs (backpropagation); cuyo significado qued definitivamente
aclarado en 1985.
9

REDES NEURONALES EN AUTOMATISMOS


1977 - Stephen Grossberg: Teora de Resonancia Adaptada (TRA). La Teora de
Resonancia Adaptada es una arquitectura de red que se diferencia de todas las dems
previamente inventadas. La misma simula otras habilidades del cerebro: memoria a
largo y corto plazo.
1985 - John Hopfield. Provoc el renacimiento de las redes neuronales con su libro:
Computacin neuronal de decisiones en problemas de optimizacin.
1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de
propagacin hacia atrs (backpropagation). A partir de 1986, el panorama fue
alentador con respecto a las investigaciones y el desarrollo de las redes neuronales. En
la actualidad, son numerosos los trabajos que se realizan y publican cada ao, las
aplicaciones nuevas que surgen (sobre todo en el rea de control) y las empresas que
lanzan al mercado productos nuevos, tanto hardware como software (sobre todo para
simulacin).
3.2.- Definiciones de una red neuronal:
Existen numerosas formas de definir a las redes neuronales; desde las definiciones cortas
y genricas hasta las que intentan explicar ms detalladamente qu son las redes
neuronales. Por ejemplo:
1) Una nueva forma de computacin, inspirada en modelos biolgicos.
2) Un modelo matemtico compuesto por un gran nmero de elementos procesales
organizados en niveles.
3) un sistema de computacin compuesto por un gran nmero de elementos simples,
elementos de procesos muy interconectados, los cuales procesan informacin por
medio de su estado dinmico como respuesta a entradas externas.
4) Redes neuronales artificiales son redes interconectadas masivamente en paralelo de
elementos simples (usualmente adaptativos) y con organizacin jerrquica, las
cuales intentan interactuar con los objetos del mundo real del mismo modo que lo
hace el sistema nervioso biolgico.
3.3.- Ventajas que ofrecen las red neuronal:
Debido a su constitucin y a sus fundamentos, las redes neuronales artificiales
presentan un gran nmero de caractersticas semejantes a las del cerebro. Por ejemplo,
son capaces de aprender de la experiencia, de generalizar de casos anteriores a nuevos
casos, de abstraer caractersticas esenciales a partir de entradas que representan
informacin irrelevante, etc. Esto hace que ofrezcan numerosas ventajas y que este
tipo de tecnologa se est aplicando en mltiples reas. Entre las ventajas se incluyen:

Aprendizaje Adaptativo. Capacidad de aprender a realizar tareas basadas en un


entrenamiento o en una experiencia inicial.

Auto-organizacin. Una red neuronal puede crear su propia organizacin o


epresentacin de la informacin que recibe mediante una etapa de aprendizaje.
10

REDES NEURONALES EN AUTOMATISMOS

Tolerancia a fallos. La destruccin parcial de una red conduce a una degradacin


de su estructura; sin embargo, algunas capacidades de la red se pueden retener,
incluso sufriendo un gran dao.

Operacin en tiempo real. Los cmputos neuronales pueden ser realizados en


paralelo; para esto se disean y fabrican mquinas con hardware especial para
obtener esta capacidad.

Fcil insercin dentro de la tecnologa existente. Se pueden obtener chips


especializados para redes neuronales que mejoran su capacidad en ciertas tareas.
Ello facilitar la integracin modular en los sistemas existentes.
3.3.1.- Aprendizaje adaptativo:
La capacidad de aprendizaje adaptativo es una de las caractersticas ms
atractivas de redes neuronales. Esto es, aprenden a llevar a cabo ciertas tareas
mediante un entrenamiento con ejemplos ilustrativos. Como las redes
neuronales pueden aprender a diferenciar patrones mediante ejemplos y
entrenamientos, no es necesario elaborar modelos a priori ni necesidad de
especificar funciones de distribucin de probabilidad.
Las redes neuronales son sistemas dinmicos autoadaptativos. Son adaptables
debido a la capacidad de autoajuste de los elementos procesales (neuronas) que
componen el sistema. Son dinmicos, pues son capaces de estar
constantemente cambiando para adaptarse a las nuevas condiciones.
En el proceso de aprendizaje, los enlaces ponderados de las neuronas se ajustan
de manera que se obtengan ciertos resultados especficos. Una red neuronal no
necesita un algoritmo para resolver un problema, ya que ella puede generar su
propia distribucin de pesos en los enlaces mediante el aprendizaje. Tambin
existen redes que continan aprendiendo a lo largo de su vida, despus de
completado su perodo de entrenamiento.
La funcin del diseador es nicamente la obtencin de la arquitectura
apropiada. No es problema del diseador el cmo la red aprender a
discriminar. Sin embargo, s es necesario que desarrolle un buen algoritmo de
aprendizaje que le proporcione a la red la capacidad de discriminar, mediante
un entrenamiento con patrones.
3.3.2.- Auto-organizacin:
Las redes neuronales emplean su capacidad de aprendizaje adaptativo para
autoorganizar la informacin que reciben durante el aprendizaje y/o la
operacin.
Mientras que el aprendizaje es la modificacin de cada elemento procesal, la
autoorganizacin consiste en la modificacin de la red neuronal completa para
llevar a cabo un objetivo especfico.
11

REDES NEURONALES EN AUTOMATISMOS


Cuando las redes neuronales se usan para reconocer ciertas clases de patrones,
ellas autoorganizan la informacin usada. Por ejemplo, la red llamada
backpropagation, crear su propia representacin caracterstica, mediante la
cual puede reconocer ciertos patrones. Esta autoorganizacin provoca la
generalizacin: facultad de las redes neuronales de responder apropiadamente
cuando se les presentan datos o situaciones a las que no haba sido expuesta
anteriormente. El sistema puede generalizar la entrada para obtener una
respuesta. Esta caracterstica es muy importante cuando se tiene que solucionar
problemas en los cuales la informacin de entrada no es muy clara; adems
permite que el sistema d una solucin, incluso cuando la informacin de
entrada est especificada de forma incompleta.
3.3.3.- Tolerancia a fallos:
Las redes neuronales fueron los primeros mtodos computacionales con la
capacidad inherente de tolerancia a fallos. Comparados con los sistemas
computacionales tradicionales, los cuales pierden su funcionalidad cuando
sufren un pequeo error de memoria, en las redes neuronales, si se produce un
fallo en un nmero no muy grande de neuronas y aunque el comportamiento
del sistema se ve influenciado, no sufre una cada repentina.
Hay dos aspectos distintos respecto a la tolerancia a fallos:
a) Las redes pueden aprender a reconocer patrones con ruido,
distorsionados o incompletos. Esta es una tolerancia a fallos respecto a
los datos.
b) Las redes pueden seguir realizando su funcin (con cierta degradacin)
aunque se destruya parte de la red.
La razn por la que las redes neuronales son tolerantes a los fallos es que
tienen su informacin distribuida en las conexiones entre neuronas, existiendo
cierto grado de redundancia en este tipo de almacenamiento. La mayora de los
ordenadores algortmicos y sistemas de recuperacin de datos almacenan cada
pieza de informacin en un espacio nico, localizado y direccionable. En
cambio, las redes neuronales almacenan informacin no localizada. Por lo
tanto, la mayora de las interconexiones entre los nodos de la red tendrn sus
valores en funcin de los estmulos recibidos, y se generar un patrn de salida
que represente la informacin almacenada.
3.3.4.- Operacin en tiempo real:
Una de las mayores prioridades, casi en la totalidad de las reas de aplicacin,
es la necesidad de realizar procesos con datos de forma muy rpida. Las redes
neuronales se adaptan bien a esto debido a su implementacin paralela. Para
que la mayora de las redes puedan operar en un entorno de tiempo real, la
necesidad de cambio en los pesos de las conexiones o entrenamiento es
mnimo.

12

REDES NEURONALES EN AUTOMATISMOS


3.3.5.- Fcil insercin dentro de la tecnologa existente:
Una red individual puede ser entrenada para desarrollar una nica y bien
definida tarea (tareas complejas, que hagan mltiples selecciones de patrones,
requerirn sistemas de redes interconectadas). Con las herramientas
computacionales existentes (no del tipo PC), una red puede ser rpidamente
entrenada, comprobada, verificada y trasladada a una implementacin
hardware de bajo
coste. Por lo tanto, no se presentan dificultades para la insercin de redes
neuronales en aplicaciones especficas, por ejemplo de control, dentro de los
sistemas existentes. De esta manera, las redes neuronales se pueden utilizar
para mejorar sistemas en forma incremental y cada paso puede ser evaluado
antes de acometer un desarrollo ms amplio.
3.4.- Redes neuronales y computadoras digitales:
Para entender el potencial de la computacin neuronal, sera necesario hacer
una breve distincin entre sistemas de computacin neuronales y digitales: los
sistemas neurolgicos no aplican principios de circuitos lgicos o digitales.
Un sistema de computacin digital debe ser sncrono o asncrono. Si fuera
asncrono, la duracin de los impulsos neuronales debera ser variable para
mantener uno de los valores binarios por periodos de tiempo indefinido, lo cual
no es el caso. Si el principio fuera sncrono, se necesitara un reloj global o
maestro con el cual los pulsos estn sincronizados. ste tampoco es el caso.
Las neuronas no pueden ser circuitos de umbral lgico, porque hay miles de
entradas variables en la mayora de las neuronas y el umbral es variable con el
tiempo, siendo afectado por la estimulacin, atenuacin, etc. La precisin y
estabilidad de tales circuitos no es suficiente para definir ninguna funcin
booleana. Los procesos colectivos que son importantes en computacin
neuronal no pueden implementarse por computacin digital. Por todo ello, el
cerebro debe ser un computador analgico.
Ni las neuronas ni las sinapsis son elementos de memoria biestable. Todos los
hechos fisiolgicos hablan a favor de las acciones de las neuronas como
integradores analgicos, y la eficiencia de la sinapsis cambia de forma gradual,
lo cual no es caracterstico de sistemas biestables.
Los circuitos del cerebro no implementan computacin recursiva y por lo tanto
no son algortmicos. Debido a los problemas de estabilidad, los circuitos
neuronales no son suficientemente estables para definiciones recursivas de
funciones como en computacin digital. Un algoritmo, por definicin, define
una funcin recursiva.
IV.

ELEMEMNTOS BASICOS
4.1 Elementos bsicos que componen una red neuronal:
A continuacin se puede ver, en la Figura 13, un esquema de una red neuronal:
13

REDES NEURONALES EN AUTOMATISMOS

Fig. 13 Ejemplo de una red neuronal totalmente conectada


La misma est constituida por neuronas interconectadas y arregladas en tres capas
(esto ltimo puede variar). Los datos ingresan por medio de la capa de entrada,
pasan a travs de la capa oculta y salen por la capa de salida. Cabe mencionar
que la capa oculta puede estar constituida por varias capas.
Antes de comenzar el estudio sobre las redes neuronales, se debe aprender algo sobre
las neuronas y de cmo ellas son utilizadas por una red neuronal. En la Figura 14 se
compara una neurona biolgica con una neurona artificial. En la misma se pueden
observar las similitudes entre ambas (tienen entradas, utilizan pesos y generan salidas).

Fig. 14 Comparacin entre una neurona biolgica (izquierda) y una artificial


(derecha).
Mientras una neurona es muy pequea en s misma, cuando se combinan cientos,
miles o millones de ellas pueden resolver problemas muy complejos. Por ejemplo el
cerebro humano se compone de billones de tales neuronas.
IV.2

Funcin de entrada (input function):

La neurona trata a muchos valores de entrada como si fueran uno solo; esto recibe el
nombre de entrada global. Por lo tanto, ahora nos enfrentamos al problema de cmo
se pueden combinar estas simples entradas (ini1, ini2, ...) dentro de la entrada global,
gini. Esto se logra a travs de la funcin de entrada, la cual se calcula a partir del
vector entrada. La funcin de entrada puede describirse como sigue:
inputi = (ini1wi1)* (ini2wi2)*... (ininwin)
donde: * representa al operador apropiado (por ejemplo: mximo, sumatoria,
productoria, etc.), n al nmero de entradas a la neurona Ni y wi al peso.
14

REDES NEURONALES EN AUTOMATISMOS


Los valores de entrada se multiplican por los pesos anteriormente ingresados a la
neurona. Por consiguiente, los pesos que generalmente no estn restringidos cambian
la medida de influencia que tienen los valores de entrada. Es decir, que permiten que
un gran valor de entrada tenga solamente una pequea influencia, si estos son lo
suficientemente pequeos.

Fig. 15 Ejemplo de una neurona con 2 entradas y 1 salida.


La nomenclatura utilizada en la Figura 4.3 es la siguiente: ini1 = entrada nmero 1 a la
neurona Ni; wi1 = peso correspondiente a ini1; ini2 = entrada nmero 2 a la neurona Ni;
wi2 = peso correspondiente a ini2; y outi = salida de la neurona Ni. El conjunto de todas
las n entradas ini = (ini1, ini2, ..., inin) es comnmente llamado vector entrada.
Algunas de las funciones de entrada ms comnmente utilizadas y conocidas son:
1) Sumatoria de las entradas pesadas: es la suma de todos los valores de entrada a la
neurona, multiplicados por sus correspondientes pesos.

2) Productoria de las entradas pesadas: es el producto de todos los valores de


entrada a la neurona, multiplicados por sus correspondientes pesos.

3) Mximo de las entradas pesadas: solamente toma en consideracin el valor de


entrada ms fuerte, previamente multiplicado por su peso correspondiente.

IV.3

Funcin de activacin (activation function):

Una neurona biolgica puede estar activa (excitada) o inactiva (no excitada); es decir,
que tiene un estado de activacin. Las neuronas artificiales tambin tienen
diferentes estados de activacin; algunas de ellas solamente dos, al igual que las
biolgicas, pero otras pueden tomar cualquier valor dentro de un conjunto
determinado.
15

REDES NEURONALES EN AUTOMATISMOS


La funcin activacin calcula el estado de actividad de una neurona; transformando la
entrada global (menos el umbral, ) en un valor (estado) de activacin, cuyo rango
normalmente va de (0 a 1) o de (1 a 1). Esto es as, porque una neurona puede estar
totalmente inactiva (0 o 1) o activa (1). La funcin activacin, es una funcin de la
entrada global (gini) menos el umbral Las funciones de activacin ms comnmente
utilizadas se detallan a continuacin:
IV.3.1 Funcin lineal:

Los valores de salida obtenidos por medio de esta funcin de activacin sern:
a(gini - ), cuando el argumento de (gini - ) est comprendido dentro del rango
(-1/a, 1/a).
Por encima o por debajo de esta zona se fija la salida en 1 o 1, respectivamente.
Cuando a = 1 (siendo que la misma afecta la pendiente de la grfica), la salida es
igual a la entrada.

Fig. 16 Funcin de activacin lineal


IV.3.2 Funcin sigmoidea:

Los valores de salida que proporciona esta funcin estn comprendidos dentro de
un rango que va de 0 a 1. Al modificar el valor de g se ve afectada la pendiente de
la funcin de activacin.

16

REDES NEURONALES EN AUTOMATISMOS

Fig. 17 Funcin de activacin sigmoidea

IV.3.3 Funcin tangente hiperblica:

Los valores de salida de la funcin tangente hiperblica estn comprendidos dentro


de un rango que va de -1 a 1. Al modificar el valor de g se ve afectada la pendiente
de la funcin de activacin.

Fig. 17 Funcin de activacion tangente hiperblica


Para explicar porque se utilizan estas funciones de activacin se suele emplear la
analoga a la aceleracin de un automvil. Cuando un auto inicia su movimiento
necesita una potencia elevada para comenzar a acelerar. Pero al ir tomando
velocidad, este demanda un menor incremento de dicha potencia para mantener la
aceleracin. Al llegar a altas velocidades, nuevamente un amplio incremento en la
potencia es necesario para obtener una pequea ganancia de velocidad. En resumen,
en ambos extremos del rango de aceleracin de un automvil se demanda una
mayor potencia para la aceleracin que en la mitad de dicho rango.

17

REDES NEURONALES EN AUTOMATISMOS


IV.4

Funcin de salida (output function):

El ltimo componente que una neurona necesita es la funcin de salida. El valor


resultante de esta funcin es la salida de la neurona i (outi); por ende, la funcin de
salida determina que valor se transfiere a las neuronas vinculadas. Si la funcin de
activacin est por debajo de un umbral determinado, ninguna salida se pasa a la
neurona subsiguiente. Normalmente, no cualquier valor es permitido como una entrada
para una neurona, por lo tanto, los valores de salida estn comprendidos en el rango [0,
1] o [-1, 1]. Tambin pueden ser binarios {0, 1} o {-1, 1}.
Dos de las funciones de salida ms comunes son:

V.

Ninguna: este es el tipo de funcin ms sencillo, tal que la salida es la misma


que la entrada. Es tambin llamada funcin identidad.

Binaria:

APRENDIZAJE, VALIDACIN Y CODIFICACIN.


5.1 Niveles o capas de una red neuronal:
La distribucin de neuronas dentro de la red se realiza formando niveles o capas, con
un nmero determinado de dichas neuronas en cada una de ellas. A partir de su
situacin dentro de la red, se pueden distinguir tres tipos de capas:
- De entrada: es la capa que recibe directamente la informacin proveniente de las
fuentes externas de la red.
- Ocultas: son internas a la red y no tienen contacto directo con el entorno exterior. El
nmero de niveles ocultos puede estar entre cero y un nmero elevado. Las neuronas
de las capas ocultas pueden estar interconectadas de distintas maneras, lo que
determina, junto con su nmero, las distintas topologas de redes neuronales.
- De salidas: transfieren informacin de la red hacia el exterior.
En la Figura 13 se puede ver el ejemplo de la estructura de una posible red multicapa,
en la que cada nodo o neurona nicamente est conectada con neuronas de un nivel
superior. Notar que hay ms conexiones que neuronas en s; en este sentido, se dice
que una red es totalmente conectada si todas las salidas desde un nivel llegan a todos y
cada uno de los nodos del nivel siguiente.
V.2 Tipos de neuronas artificiales:
Las neuronas artificiales se pueden clasificar de acuerdo a los valores que pueden
tomar. Por ahora es suficiente distinguir entre dos tipos principales:
a- Neuronas binarias.
18

REDES NEURONALES EN AUTOMATISMOS


b- Neuronas reales.
Las neuronas binarias solamente pueden tomar valores dentro del intervalo {0, 1} o {1, 1}, mientras que las neuronas reales pueden hacerlo dentro del rango [0, 1] o [-1,
1]. Los peso normalmente no estn restringidos a un cierto intervalo, aunque para
aplicaciones especficas puede ser esto necesario.
V.3 Tcnicas de decisin:
En general, el proceso de decisin puede ser caracterizado como se muestra en el
diagrama de la Figura 18:

Fig 18 Esquema del proceso de decisin.


Lo mismo ocurre cuando se utiliza una red neuronal como un sistema de sostn de
decisiones. La salida de la red neuronal es directa o indirectamente la solucin al
problema o la decisin a tomar. Por ejemplo: si uno desea determinar si un cliente, el
cual est preguntando por la solicitud de un crdito, es un buen candidato (lo que
significa que es confiable, o sea, que puede devolver el crdito solicitado), se podran
tomar en consideracin variables o atributos tales como antecedentes de crditos,
pasivo, garantas y ganancias. Las variables o atributos pertenecientes a un cliente
especfico son las entradas al proceso de decisin. El resultado de tal proceso podra
ser una decisin similar a la siguiente: cliente bueno o cliente malo.
Los atributos expuestos en la Tabla 1 sern tomados en cuenta para el caso del puntaje
para un crdito:

Tabla 1
19

REDES NEURONALES EN AUTOMATISMOS


A menudo las reglas que muestran la lgica (o falta de lgica) sobre las que se basan
las decisiones no son tan obvias. Por lo tanto, una persona que no conoce mucho
acerca del sujeto que solicita el prstamo, no puede tomar una decisin correcta. Notar
que aqu los valores son ms bien simblicos que numricos. Las redes neuronales
reales necesitan entradas numricas, pero por el momento se utilizarn entradas
simblicas para facilitar el entendimiento.
En la Tabla 2 se presenta un conjunto de datos de anteriores situaciones de decisin,
cada una de ellas caracterizada por diferentes valores de las variables de entrada, con
su respectiva decisin (0 es un cliente bueno, 1 uno promedio y 2 uno malo).

Tabla 2
Dentro de esta base de datos yace el procedimiento de decisin, o en otras palabras, la
regla de decisin que conforma las bases para el problema de decisin:
puntaje para un crdito. La pregunta a contestar ahora es: puede encontrarse una
estructura o regla de decisin en este conjunto de datos? La respuesta es si, las redes
neuronales pueden hallar una regla de decisin a travs de un conjunto de datos como
el presentado en la Tabla 2.
V.4 Mecanismos de aprendizaje:
Se ha visto que los datos de entrada se procesan a travs de la red neuronal con el
propsito de lograr una salida. Tambin se dijo que las redes neuronales extraen
generalizaciones desde un conjunto determinado de ejemplos anteriores de tales
problemas de decisin. Una red neuronal debe aprender a calcular la salida correcta
para cada constelacin (arreglo o vector) de entrada en el conjunto de ejemplos. Este
proceso de aprendizaje se denomina: proceso de entrenamiento o acondicionamiento.
El conjunto de datos (o conjunto de ejemplos) sobre el cual este proceso se basa es,
por ende, llamado: conjunto de datos de entrenamiento.

20

REDES NEURONALES EN AUTOMATISMOS


Si la topologa de la red y las diferentes funciones de cada neurona (entrada, activacin
y salida) no pueden cambiar durante el aprendizaje, mientras que los pesos sobre cada
una de las conexiones si pueden hacerlo; el aprendizaje de una red neuronal significa:
adaptacin de los pesos.
En otras palabras el aprendizaje es el proceso por el cual una red neuronal modifica
sus pesos en respuesta a una informacin de entrada. Los cambios que se producen
durante el mismo se reducen a la destruccin, modificacin y creacin de conexiones
entre las neuronas. En los sistemas biolgicos existe una continua destruccin y
creacin de conexiones entre las neuronas. En los modelos de redes neuronales
artificiales, la creacin de una nueva conexin implica que el peso de la misma pasa a
tener un valor distinto de cero. De la misma manera, una conexin se destruye cuando
su peso pasa a ser cero.
Durante el proceso de aprendizaje, los pesos de las conexiones de la red sufren
modificaciones, por lo tanto, se puede afirmar que este proceso ha terminado (la red ha
aprendido) cuando los valores de los pesos permanecen estables (dwij/dt = 0).
Un aspecto importante respecto al aprendizaje de las redes neuronales es el conocer
cmo se modifican los valores de los pesos, es decir, cules son los criterios que se
siguen para cambiar el valor asignado a las conexiones cuando se pretende que la red
aprenda una nueva informacin.
Hay dos mtodos de aprendizaje importantes que pueden distinguirse:
a- Aprendizaje supervisado.
b- Aprendizaje no supervisado.
Otro criterio que se puede utilizar para diferenciar las reglas de aprendizaje se basa en
considerar si la red puede aprender durante su funcionamiento habitual o si el
aprendizaje supone la desconexin de la red, es decir, su inhabilitacin hasta que el
proceso termine. En el primer caso, se tratara de un aprendizaje on line, mientras que
el segundo es lo que se conoce como off line.
Cuando el aprendizaje es off line, se distingue entre una fase de aprendizaje o
entrenamiento y una fase de operacin o funcionamiento, existiendo un conjunto de
datos de entrenamiento y un conjunto de datos de test o prueba, que sern utilizados en
la correspondiente fase. Adems, los pesos de las conexiones permanecen fijos
despus que termina la etapa de entrenamiento de la red. Debido precisamente a su
carcter esttico, estos sistemas no presentan problemas de estabilidad en su
funcionamiento.
Una generalizacin de la frmula o regla para decir los cambios en los pesos es la
siguiente:
Peso Nuevo = Peso Viejo + Cambio de Peso
Matemticamente esto es:
wij(t+1) = wij(t) + wij(t)
donde t hace referencia a la etapa de aprendizaje, wij(t+1) al peso nuevo y wij(t) al peso
viejo.
V.4.1 Aprendizaje supervisado:
21

REDES NEURONALES EN AUTOMATISMOS


El aprendizaje supervisado se caracteriza porque el proceso de aprendizaje se
realiza mediante un entrenamiento controlado por un agente externo (supervisor,
maestro) que determina la respuesta que debera generar la red a partir de una
entrada determinada. El supervisor controla la salida de la red y en caso de que
sta no coincida con la deseada, se proceder a modificar los pesos de las
conexiones, con el fin de conseguir que la salida obtenida se aproxime a la
deseada. En este tipo de aprendizaje se suelen considerar, a su vez, tres formas de
llevarlo a cabo, que dan lugar a los siguientes aprendizajes supervisados:
1) Aprendizaje por correccin de error.
2) Aprendizaje por refuerzo.
3) Aprendizaje estocstico.
V.4.1.1 Aprendizaje por correccin de error:
Consiste en ajustar los pesos de las conexiones de la red en funcin de entre
los valores deseados y los obtenidos a la salida de la red, es decir, enfuncin del
error cometido en la salida.
Un ejemplo de este tipo de algoritmos lo constituye la regla de aprendizaje
delPerceptron, utilizada en el entrenamiento de la red del mismo nombre que
desarroll Rosenblatt en 1958 [Rosenblatt 58]. Esta es una regla muy simple,
para cada neurona en la capa de salida se le calcula la desviacin a la salida
objetivo como el error, . El cual luego se utiliza para cambiar los pesos sobre
la conexin de la neurona precedente. El cambio de los pesos por medio de la
regla de aprendizaje del Perceptron se realiza segn la siguiente regla:
donde: aqi es la salida deseada/objetivo de la neurona de salida Ni, i = (aqi
outi) ladesviacin objetivo de la neurona Ni y el aprendizaje.
La salida de la neurona Nj (outj) se utiliza, porque este valor influye en la
entrada global y, por ende, en la activacin y luego en la salida de la neurona
Ni. Esto es semejante a un efecto en cadena. Ver Figura 19

Fig. 19 influencia de la salida de la neurona Nj en la entrada de la neurona Ni.


Otro algoritmo muy conocido y que pertenece a esta clasificacin es la regla
de aprendizaje Delta o regla del mnimo error cuadrado (LMS Error: Least
Mean Squared Error), que tambin utiliza la desviacin a la salida objetivo,
pero toma en consideracin a todas las neuronas predecesoras que tiene la
neurona de salida. Esto permite cuantificar el error global cometido en
cualquier momento durante el proceso de entrenamiento de la red, lo cual es
importante, ya que cuanto ms informacin se tenga sobre el error cometido,
ms rpido se puede aprender. Luego el error calculado () es igualmente
repartido entre las conexiones de las neuronas predecesoras.

22

REDES NEURONALES EN AUTOMATISMOS


Por ltimo se debe mencionar la regla de aprendizaje de propagacin hacia
atrs o de backpropagation, tambin conocido como regla LMS multicapa, la
cual es una generalizacin de la regla de aprendizaje Delta. Esta es la primer
regla de aprendizaje que permiti realizar cambios sobre los pesos en las
conexiones de la capa oculta.
V.4.1.2 Aprendizaje por refuerzo:
Se trata de un aprendizaje supervisado, ms lento que el anterior, que se basa
en la idea de no disponer de un ejemplo completo del comportamiento deseado,
es decir, de no indicar durante el entrenamiento exactamente la salida que se
desea que proporcione la red ante una determinada entrada.
En el aprendizaje por refuerzo la funcin del supervisor se reduce a indicar
mediante una seal de refuerzo si la salida obtenida en la red se ajusta a la
deseada (xito = +1 o fracaso = -1), y en funcin de ello se ajustan los pesos
basndose en un mecanismo de probabilidades. Se podra decir que en este tipo
de aprendizaje la funcin del supervisor se asemeja ms a la de un crtico (que
opina sobre la respuesta de la red) que a la de un maestro (que indica a la red la
respuesta concreta que debe generar), como ocurra en el caso de supervisin
por correccin del error.
V.4.1.3 Aprendizaje estocstico:
Consiste bsicamente en realizar cambios aleatorios en los valores de los pesos
de las conexiones de la red y evaluar su efecto a partir del objetivo deseado y
de distribuciones de probabilidad.
En el aprendizaje estocstico se suele hacer una analoga en trminos
termodinmicos, asociando a la red neuronal con un slido fsico que tiene
cierto estado energtico. En el caso de la red, la energa de la misma
representara el grado de estabilidad de la red, de tal forma que el estado de
mnima energa correspondera a una situacin en la que los pesos de las
conexiones consiguen que su funcionamiento sea el que ms se ajusta al
objetivo deseado.
Segn lo anterior, el aprendizaje consistira en realizar un cambio aleatorio de
los valores de los pesos y determinar la energa de la red (habitualmente la
funcin energa es una funcin de Liapunov). Si la energa es menor despus
del cambio, es decir, si el comportamiento de la red se acerca al deseado, se
acepta el cambio; si, por el contrario, la energa no es menor, se aceptara el
cambio en funcin de una determinada y preestablecida distribucin de
probabilidades.
V.4.2 Aprendizaje no supervisado:
Las redes con aprendizaje no supervisado (tambin conocido como
autosupervisado) no requieren influencia externa para ajustar los pesos de las
conexiones entre sus neuronas. La red no recibe ninguna informacin por parte del
entorno que le indique si la salida generada en respuesta a una determinada entrada
es o no correcta.
23

REDES NEURONALES EN AUTOMATISMOS


Estas redes deben encontrar las caractersticas, regularidades, correlaciones o
categoras que se puedan establecer entre los datos que se presenten en su entrada.
Existen varias posibilidades en cuanto a la interpretacin de la salida de estas
redes, que dependen de su estructura y del algoritmo de aprendizaje empleado. En
algunos casos, la salida representa el grado de familiaridad o similitud entre la
informacin que se le est presentando en la entrada y las informaciones que se le
han mostrado hasta entonces (en el pasado). En otro caso, podra realizar una
clusterizacin (clustering) o establecimiento de categoras, indicando la red a la
salida a qu categora pertenece la informacin presentada a la entrada, siendo la
propia red quien debe encontrar las categoras apropiadas a partir de las
correlaciones entre las informaciones presentadas.
En cuanto a los algoritmos de aprendizaje no supervisado, en general se suelen
considerar dos tipos, que dan lugar a los siguientes aprendizajes:
1) Aprendizaje hebbiano.
2) Aprendizaje competitivo y comparativo.
V.4.2.1 Aprendizaje hebbiano:
Esta regla de aprendizaje es la base de muchas otras, la cual pretende medir la
familiaridad o extraer caractersticas de los datos de entrada. El fundamento es
una suposicin bastante simple: si dos neuronas Ni y Nj toman el mismo estado
simultneamente (ambas activas o ambas inactivas), el peso de la conexin
entre ambas se incrementa.
Las entradas y salidas permitidas a la neurona son: {-1, 1} o {0, 1} (neuronas
binarias). Esto puede explicarse porque la regla de aprendizaje de Hebb se
origin a partir de la neurona biolgica clsica, que solamente puede tener dos
estados: activa o inactiva.
V.4.2.2 Aprendizaje competitivo y comparativo:
Se orienta a la clusterizacin o clasificacin de los datos de entrada. Como
caracterstica principal del aprendizaje competitivo se puede decir que, si un
patrn nuevo se determina que pertenece a una clase reconocida previamente,
entonces la inclusin de este nuevo patrn a esta clase matizar la
representacin de la misma. Si el patrn de entrada se determin que no
pertenece a ninguna de las clases reconocidas anteriormente, entonces la
estructura y los pesos de la red neuronal sern ajustados para reconocer la
nueva clase.
V.5 Eleccin del conjunto inicial de pesos:
Antes de comenzar el proceso de entrenamiento se debe determinar un estado inicial,
lo que significa: escoger un conjunto inicial de pesos para las diversas conexiones
entre las neuronas de la red neuronal. Esto puede realizarse por varios criterios; por
ejemplo uno de ellos es otorgar un peso aleatorio a cada conexin, encontrndose los
24

REDES NEURONALES EN AUTOMATISMOS


mismos dentro de un cierto intervalo. Generalmente un intervalo del tipo [-n, n], donde
n es un nmero natural positivo.
Cabe mencionar que durante el transcurso del entrenamiento los pesos no se
encuentran restringidos a dicho intervalo.
V.6 Detencin del proceso de aprendizaje:
Para determinar cundo se detendr el proceso de aprendizaje, es necesario establecer
una condicin de detencin.
Normalmente el entrenamiento se detiene cuando el clculo del error cuadrado sobre
todos los ejemplos de entrenamiento ha alcanzado un mnimo o cuando para cada uno
de los ejemplos dados, el error observado est por debajo de un determinado umbral.
Ya que para controlar este proceso, la mayor parte de las herramientas de las redes
neuronales muestran estos errores utilizando grficos especiales; los cuales no son
utilizados para el aprendizaje, si no que solamente para dar un indicio del proceso en s
mismo.
Otra condicin de detencin del aprendizaje puede ser cuando un cierto nmero de
ciclos y/o pasos de entrenamiento hayan sido completamente corridos.
Luego de alcanzarse la condicin de detencin, los pesos no se volvern a cambiar.
Entonces podemos decir que la transformacin de los datos de entrada a los de salida
est resuelta. Esto se puede interpretar como una funcin f oculta en el conjunto de la
red neuronal. Esta funcin es exactamente la instruccin de cmo la salida ser
calculada a partir de una constelacin (vector) de entrada.
El orden en que los ejemplos de entrenamiento se presentan a la red neuronal es otro
tema importante. En general se ha observado que en la mayora de los casos es
beneficioso realizarlo en forma aleatoria.
V.7 Codificacin de los datos de entrada:
Si se observa nuevamente el ejemplo del problema: puntaje para un crdito (apartado
5.4), se ve que no hay ningn valor numrico en la base de datos. Por lo tanto la
pregunta es cmo puede entonces una red neuronal calcular una salida? La respuesta
es sencilla; los datos tienen que ser codificados, o sea, deben hallarse valores
apropiados para representar las caractersticas simblicas (alto, bajo, adecuado, etc.).
Se distinguen dos tipo de variables a ser codificadas:
1) Variables o atributos numricos (frecuentemente llamadas continuas).
2) Variables o atributos simblicos (frecuentemente llamados discretos).
Un atributo numrico es aquel que puede tomar cualquier valor dentro de un cierto
intervalo [a, b]; donde a puede ser -(menos infinito) y b, (infinito). Por ejemplo el
peso puede medirse en libras; entonces cualquier valor entre [0, ) est permitido.
Ahora si los pesos son dados por un cierto nmero de trminos, semejantes a: alto o
bajo; entonces el atributo se denomina simblico. Por lo tanto, dividiendo el intervalo
[a, b] de una variable numrica dentro de subintervalos, podemos confeccionar un
atributo continuo pseudodiscreto.
25

REDES NEURONALES EN AUTOMATISMOS


A continuacin, en los apartados 5.7.1 y 5.7.2, sern descriptos en detalle dos procesos
de codificacin; asumiendo que todas las entradas se transforman dentro del intervalo
[0, 1] o {0, 1} (la extensin a [-1, 1] o {-1, 1} es fcil).
V.7.1 Codificacin de los atributos numricos:
Los datos son codificados dentro de un intervalo, [0.0 + buffer de baja, 1.0 buffer
de alta], por medio de una funcin lineal. Los buffer (amortiguadores) son
necesarios, especialmente cuando se trabaja con series de tiempo, porque a
menudo puede observarse que una variable numrica cae por debajo del valor
mnimo presenciado hasta el momento, o por encima del mximo. Por medio de
esta manera de codificacin se conduce a un conjunto de valores por encima de 0.0
y por debajo de 1.0, cuando se utiliza un salto de 0.0 a 1.0

Fig. 20 transformacin de la edad al intervalo [0.1, 0.9]


Por ejemplo, para la Figura 20, se debe encontrar la ecuacin que describa la
funcin de transformacin; a la cual llamaremos t y se escribe como sigue:
t: datos originales (x) datos codificados (x );
t(x) = xnuevos = a * x + b;
nuevos

donde: a = pendiente y, b = ordenada al origen. De esta manera, para el ejemplo de


la Figura 20 se tiene que a = 0.9 - 0.1/31 - 19 y b = 0.1 a * 19.
De forma genrica:
a mx. de los datos originales - mn de los datos originales
mx. en el intervalo de codificacin - mn. en el intervalo de codificacin
b (mn. en los datos codificados) - a * (mn en los datos originales)

V.7.2 Codificacin de los atributos simblicos:


26

REDES NEURONALES EN AUTOMATISMOS

Cada atributo simblico que se codifica, se adjunta a una neurona en la capa de


entrada. Si hay n valores simblicos, n neuronas sern necesarias, cada una de ellas
con un conjunto de entradas permitido: {0, 1} (o {-1, 1}). Por este motivo, se utilizan
neuronas binarias.

Fig. 21 Transformacin de la eda natributos simblicos


Observando la Figura 21; la edad slo puede tomar un valor en el ejemplo dado. En
consecuencia, si se tiene el valor de entrada viejo, solamente la neurona esttica para
viejo recibe una entrada de 1 (en el ejemplo: N1), mientras que todas las dems tendrn
una entrada igual a 0.
Por supuesto, tambin es posible codificar atributos simblicos utilizando slo una
neurona real (recordar que los valores permitidos para este tipo de neuronas estn
comprendidos en el rango [0, 1] o [1, 1]). Para el ejemplo de la edad, viejo puede
codificarse como 0.333, edad media como 0.666 y joven como 1; siendo el intervalo
permitido de [0, 1]. Tal procedimiento solamente tiene sentido si hay un orden en los
valores que las variables de entrada (o atributos) pueden tomar.
La mayor desventaja de una codificacin binaria es que puede conducir a una gran
capa de entrada.
V.7.3 Resumen de los procedimientos de codificacin:

Tabla 3 Resumen de variables


V.8 Validacin de la red neuronal:
Despus del proceso de entrenamiento los pesos de las conexiones en la red neuronal quedan
fijos. Como paso siguiente se debe comprobar si la red neuronal puede resolver nuevos
problemas, del tipo general, para los que ha sido entrenada. Por lo tanto, con el propsito de
validar la red neuronal se requiere de otro conjunto de datos, denominado conjunto de
validacin o testeo.
27

REDES NEURONALES EN AUTOMATISMOS


Cada ejemplo del conjunto de evaluacin contiene los valores de las variables de entrada, con
su correspondiente solucin tomada; pero ahora esta solucin no se le es otorgada a la red
neuronal. Luego se compara la solucin calculada para cada ejemplo de validacin con la
solucin conocida.
El nuevo ejemplo utilizado para la validacin se identifica como Eu y su correspondiente
salida correcta como Au (u indica incgnita, en ingls). Ahora el problema es que hay que
decidir cuando la salida de la red neuronal ha de considerarse como correcta.
V.9 Cuestiones a resolver al trabajar con una red neuronal:
Muchos problemas aparecen cuando se trabaja con redes neuronales.
Primeramente se debe analizar el dominio del problema y decidir a que clase
pertenece.
Luego debe decidirse si una red neuronal es adecuada para resolver dicho problema.
Esto es lo que se llama: etapa preliminar. Concluida esta etapa, las siguientes
preguntas han de responderse:
a- Origen de los datos.
Qu datos son de importancia para la situacin del problema definido?
Qu variables son relevantes?
De dnde pueden obtenerse los datos?
b- Preparacin y codificacin de los datos.
Cmo preparar y codificar los datos?
c- Topologa de la red (dependiendo parcialmente del tem b-).
Qu tipo de red debe escogerse?
Cuntas capas ocultas y con cuntas neuronas son necesarias?
Cuntas neuronas en la capa de salida (segn la codificacin escogida)?
Qu tipos de neuronas deben escogerse?
Qu regla de aprendizaje escoger?
d- Decisiones concernientes al proceso de aprendizaje.
Cuntos ciclos de aprendizaje?
Qu inicializacin para los pesos?

VI.

PRINCIPALES TOPOLOGIAS
6.1 Topologa de las redes neuronales:
La topologa o arquitectura de una red neuronal consiste en la organizacin y
disposicin de las neuronas en la misma, formando capas o agrupaciones de neuronas
ms o menos alejadas de la entrada y salida de dicha red. En este sentido, los
parmetros fundamentales de la red son: el nmero de capas, el nmero de neuronas
por capa, el grado de conectividad y el tipo de conexiones entre neuronas.
28

REDES NEURONALES EN AUTOMATISMOS

VI.2

Redes monocapa:

En las redes monocapa, se establecen conexiones entre las neuronas que pertenecen a
la nica capa que constituye la red. Las redes monocapas se utilizan generalmente en
tareas relacionadas con lo que se conoce como autoasociacin (regenerar informacin
de entrada que se presenta a la red de forma incompleta o distorsionada).
VI.3

Redes multicapa:

Las redes multicapas son aquellas que disponen de un conjunto de neuronas agrupadas
en varios (2, 3, etc.) niveles o capas. En estos casos, una forma para distinguir la capa
a la que pertenece una neurona, consistira en fijarse en el origen de las seales que
recibe a la entrada y el destino de la seal de salida. Normalmente, todas las neuronas
de una capa reciben seales de entrada desde otra capa anterior (la cual est ms cerca
a la entrada de la red), y envan seales de salida a una capa posterior (que est ms
cerca a la salida de la red). A estas conexiones se las denomina conexiones hacia
adelante o feedforward.
Sin embargo, en un gran nmero de estas redes tambin existe la posibilidad de
conectar la salida de las neuronas de capas posteriores a la entrada de capas anteriores;
a estas conexiones se las denomina conexiones hacia atrs o feedback. Estas dos
posibilidades permiten distinguir entre dos tipos de redes con mltiples capas: las
redes con conexiones hacia adelante o redes feedforward, y las redes que disponen de
conexiones tanto hacia adelante como hacia atrs o redes feedforward/feedback.
VI.4

Conexin entre neuronas:

La conectividad entre los nodos de una red neuronal est relacionada con la forma en
que las salidas de las neuronas estn canalizadas para convertirse en entradas de otras
neuronas. La seal de salida de un nodo puede ser una entrada de otro elemento de
proceso, o incluso ser una entrada de s mismo (conexin autorrecurrente). Cuando
ninguna salida de las neuronas es entrada de neuronas del mismo nivel o de niveles
precedentes, la red se describe como de conexin hacia delante (ver Figura 13).
Cuando las salidas pueden ser conectadas como entradas de neuronas de niveles
previos o del mismo nivel, incluyndose ellas mismas, la red es de conexin hacia
atrs.
Las redes de propagacin hacia atrs que tienen lazos cerrados son llamadas:
sistemas recurrentes.
VI.5

Redes de propagacin hacia atrs (backpropagation):

El nombre de backpropagation resulta de la forma en que el error es propagado hacia


atrs a travs de la red neuronal, en otras palabras el error se propaga hacia atrs desde
la capa de salida. Esto permite que los pesos sobre las conexiones de las neuronas
ubicadas en las capas ocultas cambien durante el entrenamiento.
29

REDES NEURONALES EN AUTOMATISMOS


El cambio de los pesos en las conexiones de las neuronas adems de influir sobre la
entrada global, influye en la activacin y por consiguiente en la salida de una neurona.
Por lo tanto, es de gran utilidad considerar las variaciones de la funcin activacin al
modificarse el valor de los pesos. Esto se llama sensibilidad de la funcin activacin,
de acuerdo al cambio en los pesos.
VI.5.1 Ejemplo: Una temperatura de 20C provoca que el tiempo de operacin de
una mquina sea de 90 segundos y un incremento de dicha temperatura
hasta los 30C causa un tiempo de operacin de 100 segundos. Cmo
influy el incremento de la temperatura en el tiempo de trabajo de la
mquina? Por supuesto, hizo ms lenta la operacin. Pero, por cunto?.

Esto significa que se produce un incremento de tiempo de aproximadamente


1segundo, cuando la temperatura se eleva 1C.
Ahora si se supone que en lugar del tiempo se tiene la activacin de una neurona y en
lugar de la temperatura, la entrada global. Dado que la mayora de las funciones de
activacin son no lineales (por ejemplo la funcin sigmoidea o la tangente
hiperblica), se tiene que calcular la derivada de la funcin con respecto al peso; por
consiguiente, la entrada global cambia. Esta derivada se utiliza para cambiar los pesos
durante el proceso de aprendizaje.
Para cada una de las neuronas en la capa de salida, la desviacin objetivo (la cual es: la
salida objetivo menos la salida real) es multiplicada por la derivada de la funcin
activacin. Utilizando la derivada se logra una sintonizacin fina de los pesos
cuando la salida real esta cerca de la salida deseada. Al mirar la Figura 22, la misma
muestra una constelacin donde la salida real para una neurona es 0.95 y la deseada es
de 1.0

Fig. 22 desviacin a la salida objetivo

30

REDES NEURONALES EN AUTOMATISMOS


Dado que la derivada de la funcin activacin es relativamente baja en esta regin
(cuando la funcin activacin est prxima a 1), el producto derivada por desviacin
objetivo, igual al error, no se torna muy grande. Esto es lo que se llama sintona fina
de los pesos. De esta manera, la diferencia en el cmputo del error para las neuronas
de salida al utilizar el algoritmo de backpropagation, en lugar de las reglas simples de
aprendizaje del Perceptron, es justamente el factor derivada de la funcin activacin.
VI.6

Estructura de la Red Hopfield:

La Red Hopfield es recurrente y completamente interconectada. Funciona como una


memoria asociativa no lineal, que puede almacenar internamente patrones presentados
de forma incompleta o con ruido. De esta forma puede ser usada como una
herramienta de optimizacin; tambin se han utilizado en aplicaciones de
segmentacin y restauracin de imgenes y optimizacin combinatoria. La Red
Hopfield consta de un nmero de neuronas simtrica e ntegramente conectadas, como
ya se mencion anteriormente. Esto significa que si existe una conexin desde la
neurona Ni a la neurona Nj, tambin existe la conexin desde Nj a Ni; ambas exhibendo
el mismo peso (wij = wji). Vale aclarar que la conexin de una neurona con s misma no
est permitida.
El conjunto permitido de valores de entrada y salida es {0, 1} (o en alguna
oportunidad {-1, 1}); o sea, es un conjunto binario. De esta manera todas las neuronas
en una Red Hopfield son binarias, tomando solamente uno de los dos estados posibles:
activo (1) o inactivo (-1 o 0).
Las Redes Hopfield se emplean para reconocer patrones. Despus que el aprendizaje
haya llegado a su fin, la red neuronal debe ser capaz de dar una salida correcta para
cada patrn de entrada dado, aun cuando este sea ruidoso. La clave del aprendizaje
Hopfield es que si un patrn que tiene que ser aprendido se conoce, los pesos sobre
cada conexin de la red neuronal pueden ser calculados. En esta circunstancia,
solamente el estado de las neuronas cambia durante el proceso de aprendizaje. Este
clculo garantiza que cada patrn aprendido corresponda a un mnimo de la funcin
energa.
Es importante entender que para este tipo de redes la definicin de aprendizaje es
diferente al dado anteriormente, donde aprendizaje significaba simplemente la
adaptacin de los pesos. En una Red Hopfield los pesos se pueden calcular y se F.
sigmiodea (g, x) mantienen fijos durante el aprendizaje de los patrones. Solamente
cambia el estado de las neuronas.
Para calcular el peso de una conexin cualquiera, wij (y por simetra para la conexin
wji), en una Red Hopfield se utiliza la siguiente ecuacin:

siendo Q el nmero de patrones y eqi la entrada a la neurona Ni.


Generalmente es aconsejable trabajar con esta ecuacin cuando los patrones que se
han de aprender no son muy semejantes unos a otros, y si el nmero de ceros y unos
31

REDES NEURONALES EN AUTOMATISMOS


son similares para todos los patrones. Con respecto al nmero de ceros y unos, el
umbral de cada neurona puede utilizarse para regular esto, distinguindose as dos
casos posibles:
a- Si hay ms 0s que 1s el umbral tiene que disminuirse, porque que las neuronas
tienen una probabilidad ms alta para hacerse inactivas que para hacerse activas.
b- Si hay mas 1s que 0s el umbral tiene que incrementarse, porque las neuronas tienen
una probabilidad ms alta para hacerse activas que para hacerse inactivas.
VI.7

Simulated Annealing aplicada a una Red Hopfield:

En muchos problemas, la tarea no es justamente encontrar cualquier mnimolocal, sino


la de encontrar el ptimo global. Lo que significa que para una entrada determinada se
debe encontrar una salida que resulte en un mnimo de la funcin energa. Utilizando
una Red Hopfield, se encuentra que un mnimo yace cerca del vector de entrada dado,
porque la energa decrece paso a paso. El cual puede ser un mnimo local.
En una Red Hopfield todos los mnimos locales son un estado estable. Un problema
similar se origina en termodinmica durante el proceso de cristalizacin. Durante un
enfriamiento lento, el cristal crece con una estructura casi perfecta, ya que cada tomo
tiene bastante tiempo para saltar a otra posicin dentro de la cuadrcula, de tal forma
que la energa total del cristal decrezca. Para realizar dicho salto se necesita energa, es
decir, que si el cristal tiene la energa suficiente (si su temperatura es aun bastante
alta), todos los tomos disponen de una chance para cambiar su posicin. Pero para
permitir que esto ocurra la energa de un tomo tiene que incrementarse por un corto
tiempo, de lo contrario el tomo descansara en su vieja posicin.
Tener una chance se puede interpretar como hay una probabilidad. Esta
probabilidad depende de la activacin que un tomo muestra a una determinada
temperatura y tiempo del sistema.
Utilizando esta tcnica donde el cristal comienza a una temperatura elevada y que
luego decrece paso a paso, se les da a los tomos una posibilidad de cambiar sus
estados independientemente de la activacin, por medio de un incremento en la
energa de los mismos de un paso a otro. Cuando la temperatura se reduce, la
cuadrcula vibra menos, y el sistema (la cuadrcula) alcanza un estado estable;
hacindose gradualmente ms dificultoso para un tomo encontrar la energa para
saltar a otra posicin. Esta es la idea de Simulated Annealing, que luego se aplica a la
Red Hopfield cuando se intenta encontrar un ptimo global.
A grandes rasgos se describe que una Simulated Annealing trabaja de esta manera:
a- Escoger cualquier neurona.
b- Calcular d = gini - i.
c- Calcular Pi = 1/1+e -d/T (probabilidad)
d- Generar un nmero aleatorio r, con 1 r 0
e- Si (Pir) el conjunto outi a 1 de otra manera el conjunto outi a 0
f- Disminuye T. Volver al paso a.

32

REDES NEURONALES EN AUTOMATISMOS


El algoritmo se detiene cuando se alcanza algn criterio de detencin; por ejemplo si
la temperatura llega a su lmite inferior o si el nmero de ciclos alcanza su lmite
superior.
La premisa fundamental de este mtodo es que el problema de optimizacin puede
formularse como una funcin energtica. Por lo tanto hallar el ptimo global implica
encontrar el mnimo de dicha funcin energtica. La misma tiene un aspecto genrico
de esta forma:

Se han logrado exitosas aplicaciones de Simulated Annealing, principalmente


concernientes a los problemas de optimizacin combinatoria, semejantes al problema
del viajante. El cual no puede resolverse fcilmente por mtodos estadsticos o
analticos. Por ejemplo, imagine que un viajante tiene que visitar 19 ciudades. Qu
ruta suministra el camino ms corto entre todas las ciudades, o sea, en qu orden
debern visitarse todas las ciudades?
Por ltimo una diferenciacin muy importante es que en una Simulated Annealing la
energa puede disminuir en un paso y crecer en el otro, pero en una Red Hopfield la
energa solamente puede disminuir paso a paso.
VI.8

Asociaciones entre la informacin de entrada y salida:

Ya se sabe que las redes neuronales son sistemas que almacenan cierta informacin
aprendida. Esta informacin se registra de forma distribuida en los pesos asociados a
las conexiones entre neuronas. Por tanto, puede imaginarse una red como cierto tipo
de memoria que almacena datos de forma estable, datos que se grabarn en dicha
memoria como consecuencia del aprendizaje de la red y que podrn ser ledos a la
salida como respuesta a cierta informacin de entrada, comportndose entonces la red
como lo que habitualmente se conoce por memoria asociativa: cuando se aplica un
estmulo (dato de entrada) la red responde con una salida asociada a dicha informacin
de entrada.
Existen dos formas primarias de realizar esta asociacin entre entradas/salidas que se
corresponden con la naturaleza de la informacin almacenada en la red. Una primera
sera la denominada heteroasociacin, que se refiere al caso en el que la red aprende
parejas de datos [(A1,B1), (A2, B2),... (AN,BN)], de tal forma que cuando se presente
cierta informacin de entrada Ai, deber responder generando la correspondiente salida
asociada Bi. La segunda se conoce como autoasociacin, donde la red aprende ciertas
informaciones A1, A2, ..., AN; de tal forma que cuando se le presenta una informacin
de entrada realizar una autocorrelacin, respondiendo con uno de los datos
almacenados, el ms parecido al de entrada.
Estos dos mecanismos de asociacin dan lugar a dos tipos de redes neuronales: las
redes heteroasociativas y las autoasociativas. Una red heteroasociativa podra
considerarse como aquella que computa cierta funcin, que en la mayora de los casos
no podra expresarse analticamente, entre un conjunto de entradas y un conjunto de
salidas, correspondiendo a cada posible entrada una determinada salida. Por otra parte,
una red autoasociativa es una red cuya principal misin es reconstruir una
determinada informacin de entrada que se presente incompleta o distorsionada (le
asocia el dato almacenado ms parecido).
33

REDES NEURONALES EN AUTOMATISMOS


En realidad estos dos tipos de modelos de redes no son diferentes en principio, porque
una red heteroasiciativa puede siempre ser reducida a una asociativa mediante la
concatenacin de una informacin de entrada y su salida (respuesta) asociada, para
obtener la informacin de entrada de la red autoasociativa equivalente. Tambin puede
conseguirse que una red autoasociativa se comporte como heteroasociativa,
simplemente presentando, como entrada parcial de la autoasociativa, la informacin de
entrada para la heteroasociativa y haciendo que la red complete la informacin para
producir lo que sera la salida de la red heteroasociativa equivalente.
VI.8.1 Redes heteroasociativas:
Las redes heteroasociativas, al asociar informaciones de entrada con diferentes
informaciones de salida, precisan al menos de dos capas, una para captar y retener
la informacin de entrada y otra para mantener la salida con la informacin
asociada. Si esto no fuese as, se perdera la informacin inicial al obtenerse el dato
asociado {3}, lo cual no debe ocurrir, ya que en el proceso de obtencin de la
salida se puede necesitar acceder varias veces a esta informacin que, por tanto,
deber permanecer en la capa de entrada.
En cuanto a su conectividad, pueden ser del tipo con conexin hacia adelante (o
feedforward) o con conexin hacia atrs (feddforward/feedback), o bien con
conexiones laterales.
VI.8.2 Redes autoasociativas:
Una red autoasociativa asocia una informacin de entrada con el ejemplar ms
parecido de los almacenados conocidos por la red. Estos tipos de redes pueden
implementarse con una sola capa de neuronas. Esta capa comenzar reteniendo la
informacin inicial a la entrada, y terminar representando la informacin
autoasociada. Si se quiere mantener la informacin de entrada y salida, se deberan
aadir capas adicionales, sin embargo, la funcionalidad de la red puede conseguirse
en una sola capa. En cuanto a su conectividad, existen de conexiones laterales y, en
algunos casos, conexiones autorrecurrentes.

VII.

APLICACIONES DE LAS REDES NEURONALES

7.1 Aplicaciones de las redes neuronales:


Las redes neuronales pueden utilizarse en un gran nmero y variedad de aplicaciones,
tanto comerciales, militares, en automatismos, etc.. Se pueden desarrollar redes
neuronales en un periodo de tiempo razonable, con la capacidad de realizar tareas
concretas mejor que otras tecnologas. Cuando se implementan mediante hardware
(redes neuronales en chips VLSI), presentan una alta tolerancia a fallos del sistema y
proporcionan un alto grado de paralelismo en el procesamiento de datos. Esto
posibilita la insercin de redes neuronales de bajo coste en sistemas existentes y
recientemente desarrollados.
Hay muchos tipos diferentes de redes neuronales; cada uno de los cuales tiene una
aplicacin particular ms apropiada. Algunas aplicaciones comerciales son:
34

REDES NEURONALES EN AUTOMATISMOS

Biologa:
- Aprender ms acerca del cerebro y otros sistemas.
- Obtencin de modelos de la retina.

Empresa:
- Evaluacin de probabilidad de formaciones geolgicas y petrolferas.
- Identificacin de candidatos para posiciones especficas.
- Explotacin de bases de datos.
- Optimizacin de plazas y horarios en lneas de vuelo.
- Optimizacin del flujo del trnsito controlando convenientemente la
temporizacin de los semforos.
- Reconocimiento de caracteres escritos.
- Modelado de sistemas para automatizacin y control.

Medio ambiente:
- Analizar tendencias y patrones.
- Previsin del tiempo.

Finanzas:
- Previsin de la evolucin de los precios.
- Valoracin del riesgo de los crditos.
- Identificacin de falsificaciones.
- Interpretacin de firmas.

Manufacturacin:
- Robots automatizados y sistemas de control (visin artificial y sensores
de presin, temperatura, gas, etc.).
- Control de produccin en lneas de procesos.
- Inspeccin de la calidad.

Medicina:
- Analizadores del habla para ayudar en la audicin de sordos profundos.
- Diagnstico y tratamiento a partir de sntomas y/o de datos analticos
(electrocardiograma, encefalogramas, anlisis sanguneo, etc.).
- Monitorizacin en cirugas.
- Prediccin de reacciones adversas en los medicamentos.
- Entendimiento de la causa de los ataques cardacos.

Militares:
- Clasificacin de las seales de radar.
- Creacin de armas inteligentes.
- Optimizacin del uso de recursos escasos.
- Reconocimiento y seguimiento en el tiro al blanco.
La mayora de estas aplicaciones consisten en realizar un reconocimiento de patrones,
como ser: buscar un patrn en una serie de ejemplos, clasificar patrones, completar una
seal a partir de valores parciales o reconstruir el patrn correcto partiendo de uno
distorsionado. Sin embargo, est creciendo el uso de redes neuronales en distintos tipos de
sistemas de control.
35

REDES NEURONALES EN AUTOMATISMOS


Desde el punto de vista de los casos de aplicacin, la ventaja de las redes neuronales
reside en el procesado paralelo, adaptativo y no lineal. El dominio de aplicacin de las
redes neuronales tambin se lo puede clasificar de la siguiente forma: asociacin y
clasificacin, regeneracin de patrones, regresin y generalizacin, y optimizacin.
7.1.1 Asociacin y clasificacin.
En esta aplicacin, los patrones de entrada estticos o seales temporales deben
ser clasificadas o reconocidas. Idealmente, un clasificador debera ser
entrenado para que cuando se le presente una versin distorsionada ligeramente
del patrn, pueda ser reconocida correctamente sin problemas. De la misma
forma, la red debera presentar cierta inmunidad contra el ruido, esto es,
debera ser capaz de recuperar una seal "limpia" de ambientes o canales
ruidosos. Esto es fundamental en las aplicaciones hologrficas, asociativas o
regenerativas.
-

Asociacin: de especial inters son las dos clases de asociacin:


autoasociacin y heteroasociacin. Como ya se mencion en el apartado
6.8, el problema de la autoasociacin es recuperar un patrn enteramente,
dada una informacin parcial del patrn deseado. La heteroasociacin es
recuperar un conjunto de patrones B, dado un patrn de ese conjunto. Los
pesos en las redes asociativas son a menudo predeterminados basados en la
regla de Hebb. Normalmente, la autocorrelacin del conjunto de patrones
almacenado determina los pesos en las redes autoasociativas.

Por otro lado, la correlacin cruzada de muchas parejas de patrones se usa


paradeterminar los pesos de la red de heteroasociacin.
-

Clasificacin no Supervisada: para esta aplicacin, los pesos sinpticos de


la red son entrenados por la regla de aprendizaje no supervisado, esto es, la
red adapta los pesos y verifica el resultado basndose nicamente en los
patrones de entrada.

Clasificacin Supervisada: esta clasificacin adopta algunas formas del


criterio de interpolacin o aproximacin. En muchas aplicaciones de
clasificacin, por ejemplo, reconocimiento de voz, los datos de
entrenamiento consisten de pares de patrones de entrada y salida. En este
caso, es conveniente adoptar las redes Supervisadas, como las bien
conocidas y estudiadas redes de retropropagacin. Este tipo de redes son
apropiadas para las aplicaciones que tienen una gran cantidad de clases con
lmites de separacin complejos.

7.1.2 Regeneracin de patrones:


En muchos problemas de clasificacin, una cuestin a solucionar es la
recuperacin de informacin, esto es, recuperar el patrn original dada
solamente una informacin parcial. Hay dos clases de problemas: temporales y
estticos. El uso apropiado de la informacin contextual es la llave para tener
xito en el reconocimiento.
36

REDES NEURONALES EN AUTOMATISMOS

7.1.3 Regeneracin y generalizacin:


El objetivo de la generalizacin es dar una respuesta correcta a la salida para un
estmulo de entrada que no ha sido entrenado con anterioridad. El sistema debe
inducir la caracterstica saliente del estmulo a la entrada y detectar la
regularidad. Tal habilidad para el descubrimiento de esa regularidad es crtica
en muchas aplicaciones. Esto hace que el sistema funcione eficazmente en todo
el espacio, incluso cuando ha sido entrenado por un conjunto limitado de
ejemplos.
7.1.4 Optimizacin:
Las Redes Neuronales son herramientas interesantes para la optimizacin de
aplicaciones, que normalmente implican la bsqueda del mnimo absoluto de
una funcin de energa. Para algunas aplicaciones, la funcin de energa es
fcilmente deducible; pero en otras, sin embargo, se obtiene de ciertos criterios
de coste y limitaciones especiales.
VII.2 Caso concreto de aplicacin en automatismos:
Para comprender mejor la naturaleza del desarrollo de un SAC(Sistema de
automatizacion y control), resulta conveniente hacer un breve repaso de su evolucin.
Los primeros automatismos se implementaban con elementos mecnicos entre los que
podemos citar:
- rboles y/o discos de levas.
- Tarjetas perforadas.
- Cintas perforadas.
Mas tarde, los avances de la ingeniera elctrica permitieron implementar el mando por
medio de relays (dispositivo electromecnico que permite abrir y/o cerrar circuitos
elctricos mediante la fuerza electromagntica generada por una bobina de alambre
conductor al circular una corriente dada). La lgica de control se construa
interconectando adecuadamente los mismos, los enclavamientos y conexiones se
representaban por esquemas funcionales elctricos.
Cuando se realizaban tareas de Ingeniera o Mantenimiento de sistemas de mediano y
gran tamao, la creacin, actualizacin, modificacin y lectura de estos esquemas as
como su implementacin resultaban muy engorrosas. Por otro lado los relays
sometidos a una frecuencia de trabajo alta comenzaban a fallar por desgaste, suciedad,
falta de mantenimiento adecuado, etc.
Al mismo tiempo, surgi la posibilidad de realizar lgicas de control mediante
circuitos neumticos en muchas aplicaciones resultaban ms seguros que los
dispositivos elctricos (por ejemplo en ambientes explosivos). Las dificultades que
presentaba esta tecnologa eran similares a las de los relays. En la dcada de los 60, los
transistores fueron reemplazando a los relays. Surge entonces, la posibilidad de
implementar una lgica booleana de control por medio de electrnica digital,
interconectando plaquetas transistorizadas que emulaban funciones AND, OR,
37

REDES NEURONALES EN AUTOMATISMOS


temporizadores y memorias de estado. Estos automatismos eran mucho ms duraderos
que los sistemas mecnicos, electromecnicos y neumticos, pero las tareas de
mantenimiento o modificaciones resultaban muy complejas, requiriendo el uso de
equipos de diagnstico muy costosos.
Paralelamente, la tecnologa del transistor lograba procesar seales analgicas en
forma segura y econmica. Los amplificadores de seal transistorizados, mejoraban en
forma significativa la lectura y control de seales continuas de proceso, como la
temperatura de un reactor, el caudal, la presin de caeras, etc. En pocos aos el
control electrnico de variables de procesos se fue afianzando en diversas industrias
(plantas qumicas, farmacuticas, alimenticias, etc.).
Todas estas tecnologas permitieron al hombre controlar eficazmente mquinas y
procesos, pero a medida que estos crecan en tamao y complejidad, su rigidez al
cambio se convirti en un obstculo difcil de sortear. Los proveedores de SAC
iniciaron entonces la bsqueda de soluciones ms flexibles.
En dcada de los 70, comenz a establecerse una nueva tecnologa que permita que la
lgica de un automatismo se pudiera programar en un nuevo dispositivo electrnico
denominado PLC (Programmable Logic Controller). El controlador estaba constituido
por una unidad central de proceso y mdulos perifricos que permitan el ingreso o
egreso de seales digitales.
Al mismo tiempo, los avances realizados en computacin permitieron construir
grandes sistemas de control de procesos industriales gobernados por un sistema central
(similar a un Mainframe).
En principio el PLC reemplazaba a los sistemas de relays procesando en forma
sencilla econmica y fiable seales digitales, paralelamente los sistemas de control de
proceso lograban lo mismo con seales analgicas. El control mediante PLC se
convirti en sinnimo de Automatizacin industrial.
Los primeros PLCs utilizados en automatizacin industrial slo contaban con un
nmero limitado de operaciones digitales (AND, OR, y TEMPORIZADORES), con el
tiempo fueron adquiriendo la capacidad de procesar funciones matemticas complejas
y manejar seales analgicas. Esto permiti que la tecnologa del PLC ingresara
gradualmente al dominio de los Sistemas de control de proceso.
A su vez los Sistemas de control de proceso dejaron de ser implementados mediante
una gigantesca computadora central, la misma fue reemplazada por una red de
pequeos procesadores intercomunicados y distribuidos a los largo de todo elproceso.
Simultneamente los sistemas de control de proceso distribuido (DCS) fueron
adquiriendo la capacidad de procesar adecuadamente seales digitales.
El desarrollo y disminucin de costos del hardware y sistemas operativos de PCs
hicieron posible montar Interfaces Humano Mquina (HMI) mejorando el dilogo con
el operador del proceso (mediante la visualizacin de eventos, cambios de estado y
alarmas).
De este modo la automatizacin industrial con su exponente ms fuerte (el PLC) y los
sistemas de control de proceso fueron evolucionando y expandiendo sus lmites, hasta
un punto en el cual ambos se solaparon. Actualmente ambas tecnologas se
38

REDES NEURONALES EN AUTOMATISMOS


complementan, prcticamente se pueden tratar como una sola disciplina desde el punto
de vista de desarrollo de software (esto no es vlido para el hardware que las soporta).
En los 80, los proveedores de dispositivos de Automatizacin y Sistemas de control
proceso dieron otro paso adelante al interrelacionar mediante redes de comunicacin a
mquinas y procesos que hasta el momento no podan interactuar. Los protocolos de
comunicacin eran hasta ese momento cerrados y variaban con el proveedor;
comunicar dos sistemas de distintas marcas era una tarea difcil, slo encarada por
puado de especialistas. Para evitar este problema de comunicacin, el cliente
terminaba cautivo de una sola marca. A fines de esta dcada, se establecieron
protocolos de transmisin de datos abiertos, elaborados en forma conjunta por los
proveedores que lideraban el mercado. Estos protocolos facilitaron la comunicacin
entre autmatas de distintos marcas, creando una sinergia que increment la potencia
de los mismos acompaada de una baja de costos.
En la actualidad los proveedores lderes del mercado suministran equipos con
hardware y herramientas de construccin de software muy fiables con prestaciones que
evolucionan da a da. La incorporacin de tecnologa IT al ambiente industrial,
reforz el crecimiento de los SAC, creando las condiciones propicias de desarrollo
para la que los procesos industriales y los corporativos comiencen a interactuar. Los
avances logrados en internet brindaron la posibilidad visualizar y controlar a miles de
kilmetros mquinas y procesos en forma segura.
El uso herramientas y tcnicas de Inteligencia artificial (IA) en SAC ha permitido
controlar de manera eficiente y econmica complejos procesos industriales.
Como ejemplo de aplicacin de IA al control de proceso industrial, podemos citar el
control control multi variable de lazos cerrados con capacidad de aprendizaje. La
lgica de control difusa (Fuzzy Logic) combinada con redes neuronales, permiti
disminuir drsticamente los tiempos de programacin y puesta en marcha de procesos
de automatismos.
VII.3 Redes de Petri: Modelado e implementacin de algoritmos para
automatismos:
Las REDES DE PETRI tambin son muy utilizadas hoy en da para el diseo de
automatismos es por esta razn que ahora nos orientaremos hacia la utilizacin del
formalismo de las Redes de Petri, propuesto por Carl Petri en la descripcin de
Sistemas Dinmicos de Eventos Discretos (DEDS).
Las Redes de Petri, cuyo acrnimo en ingls es PN, fueron utilizadas inicialmente para
el anlisis de algoritmos en la computacin paralela o concurrente, pero dada la
complejidad de los procesos productivos actuales, las PN son un mtodo alternativo de
diseo tanto para el proceso industrial como para el automatismo. En este sentido, este
estudio hace una revisin de las referencias bibliogrficas donde se indica cmo
realizar el modelado y la implementacin de algoritmos de control en Controladores
Lgicos Programables (PLCs por sus siglas en ingls).
Los controladores lgicos programables (PLCs) son computadoras diseadas para
trabajar en ambientes industriales con la finalidad de controlar una amplia gama de
procesos productivos. David, Garca y Peng mencionan que en el ao 1968, la divisin
hidronomtica de General Motors trabaj en un proyecto para desarrollar un sistema
digital programable que permitiera flexibilizar las lneas de produccin de automviles
39

REDES NEURONALES EN AUTOMATISMOS


y librarse del mantenimiento que requeran los paneles de rels. Adems, la
programacin del computador industrial deba ser hecha en forma grfica, simulando
los diagramas escalera de los rels, con la finalidad de que la lgica fuera transparente
a los tcnicos e ingenieros de planta.
La construccin y funcionamiento del PLC es un tema estudiado en la literatura y su
desarrollo se ha nutrido de los avances en microprocesadores, memorias y lenguajes
de programacin, con la diferencia de que el PLC est diseado para ambientes
hostiles donde la humedad, las vibraciones y el polvo son condiciones inherentes de
los procesos productivos. Ciertos procesos productivos industriales corresponden a
sistemas dinmicos de eventos discretos (DEDS), los cuales pueden ser maniobrados
y/o supervisados por uno o varios controladores de eventos discretos. A nivel
industrial, el controlador de eventos discretos (DEC) se implementa usualmente con
PLCs. Sin embargo, la obtencin del algoritmo de ontrol y su implementacin en
software es hecha con mtodos heursticos carentes de formalismo, donde la
experiencia del diseador es clave para la obtencin de la solucin. La figura 23
muestra la interaccin entre un proceso industrial descrito como DEDS y su respectivo
PLC representado como un DEC. Existen varios mtodos formales para definir
algoritmos de control, entre ellos, la teora de autmatas finitos, la lgica temporal, el
lenguaje Z, etc. Sin embargo, estas tcnicas no son utilizadas ni aceptadas por
fabricantes de PLC para la programacin de sus productos. Los fabricantes han
estandarizado sus lenguajes, mas no las metodologas de diseo. Se ha adoptado el
Grafcet como aproximacin, pero sta carece de partes esenciales en el diseo de
algoritmos para controladores, tal como el levantamiento de requerimientos, los
criterios de aceptacin, el proceso de validacin del algoritmo, etc.
La importancia de los mtodos de diseo formales, validados y verificados, es que
permiten contar con algoritmos de control computacionalmente ms eficientes, ms
seguros y ms fciles de implementar. Dichos mtodos formales pretenden resolver los
problemas en forma sistemtica. En el rea de las ciencias de la computacin, surgen
en 1962 las Redes de Petri (PN) en la tesis de disertacin de Carl Petri. Las PN son un
formalismo matemtico para el modelado del flujo asincrnico de informacin. Segn
Murata,las PN se utilizan para el modelado de sistemas que demandan procesos de
cmputo concurrentes. Actualmente, las PN se constituyen en una herramienta
fundamental para el modelado de sistemas dinmicos de eventos discretos. El objetivo
de desarrollo de esta parte es para determinar referencias donde se desarrolle o utilice
alguna familia de PN para la obtencin de algoritmos de control para PLC.

Fig. 23 Relacin entre un DEDS y su controlador DEC.


40

REDES NEURONALES EN AUTOMATISMOS


VII.3.1

Redes de Petri:

Las Redes de Petri clsicas se conciben como un grafo dirigido que posee dos tipos
de nodos principales: los lugares representados por crculos y las transiciones
representadas por barras rectangulares (figura 23). Entre los nodos se ubican los
arcos dirigidos, los cuales se encargan de unir las transiciones con los lugares y
viceversa. Cada arco dirigido posee un nmero que indica su peso, el cual
determina la cantidad de marcas que consume de un lugar o deposita en un lugar,
siempre y cuando se haya disparado una transicin habilitada. Los arcos dirigidos
sin nmero se entiende que consumen o depositan una marca. Las marcas se
representan en forma grfica como puntos negros que se ubican dentro de cada
lugar.
Formalmente, una Red de Petri se define como una quntupla,
PN = (P,T,F,W,M0)
Donde:
P={p1,p2,,pm} es un conjunto finito de lugares.
T={ t1,t2,,tn } es un conjunto finito de transiciones.
F(P T) (T P) es un conjunto de arcos dirigidos.
W:F{1, 2, 3, } es una funcin de pesos de los arcos.
M0:P{1, 2, 3, } es el marcado inicial de la red.
PT= y P T .
El marcado inicial de una PN son las marcas que posee cada lugar de la red en su
inicio. Una Red de Petri con la estructura (P, T, F, W) sin especificar su marcado
inicial es denotada por N. Por otro lado, una PN con un marcado inicial dado es
denotado por PN=(N, M0).
El comportamiento de los sistemas puede ser descrito en trminos de sus estados y
sus cambios. En las Redes de Petri, el estado del sistema, o mejor dicho, el
marcado de la PN cambia de acuerdo con las siguientes reglas de disparo o
transicin:
1. Se dice que una transicin es habilitada si cada lugar de entrada p de t es
marcada con al menos w(p,t) marcas, donde w(p,t) es el peso del arco de p a t.
2. Una transicin habilitada puede o no ser disparada (esto depende solamente del
carcter no determinista del evento).
3. El disparo de una transicin t habilitada remueve w(p,t) marcas de cada lugar de
entrada p de t y agrega w(t,p) marcas a cada lugar de salida p de t, donde w(t,p) es
el peso de los arcos de t a p.

41

REDES NEURONALES EN AUTOMATISMOS

Fig. 24 Red de Petri con cuatro lugares, cuatro transiciones, cinco arcos dirigidos de
peso uno y cuatro arcos dirigidos de peso dos.
En la figura 25 se muestra un ejemplo de las reglas de transicin. Note que la
transicin t se encuentra habilitada, puesto que existen ms marcas en los
lugares de entrada que pesos de los arcos dirigidos (figura 25a). Cuando se
dispara la transicin t, existe un flujo de marcas desde los lugares de entrada
hacia el lugar de salida (figura 25b). Las Redes de Petri son nombradas segn
sus caractersticas, por ejemplo, una PN es ordinaria si el peso de sus arcos es
siempre uno. Se dice que una PN es pura si no existen auto bucles. Los auto
bucles estn definidos como el par lugar y transicin, donde el lugar p es el
lugar de entrada y salida de la transicin t. Adems, existen dos tipos de
transiciones adicionales, la transicin fuente que es aquella que no posee un
lugar de entrada y la transicin sin un lugar de salida que es llamada transicin
sumidero.

42

REDES NEURONALES EN AUTOMATISMOS

Fig. 25 Red de Petri donde se muestra la representacin de la reaccin qumica


2H2+O2 2H2O. a) Antes de la reaccin qumica representada por t. b) Despus de la
reaccin
La fortaleza del modelado de las PN radica en sus propiedades, que se dividen en
dos grandes reas, las dependientes del marcado inicial llamadas propiedades
dinmicas o del comportamiento y las propiedades independientes del marcado,
llamadas estructurales o estticas.
7.3.l.1 Principales propiedades dinmicas
Alcanzabilidad: La alcanzabilidad es la principal propiedad dinmica y
consiste en que cada disparo de una transicin habilitada modifica la
distribucin de los marcados dentro de la red, de acuerdo con las reglas de
disparo. Una secuencia de disparos generar una secuencia de marcados. Se
dice que un marcado Mn es alcanzable desde el macado M0 si y slo si existe
una secuencia de disparos que transforme M0 en Mn. La secuencia de disparos
se denota por sigma:
= M0 t1 M1 t2 M2 tn Mn
En este caso, Mn es alcanzable desde M0 por , lo cual se escribe de la
siguiente forma: M0[> Mn. El conjunto de todos los marcados posibles a partir
de M0 es denotado por R(N,M0) y el conjunto de todos los posibles disparos
desde M0 es denotado como L(N,M0). El problema de alcanzabilidad consiste
en encontrar un Mn R(N,M0).
Limitable o Acotada: una red PN=(N,M0) se dice limitada si el nmero de
marcas de la red en cada lugar no excede un nmero finito k para cualquier
marcado alcanzable desde M0 y existir dentro de todos los posibles marcados
de la red, M(p) k, y M(p) R(N,M0). Se dice que una red es segura si es
43

REDES NEURONALES EN AUTOMATISMOS


acotada a uno, esto es si todos los marcados posibles de los lugares poseern a
lo ms una marca. Vivacidad: Se dice que una red es viva si no importa cul
marcado haya sido alcanzado, siempre ser posible una nueva secuencia de
disparos y alcanzar un nuevo marcado. Esta propiedad lo que indica es que una
red viva garantiza una operacin libre de bloqueos. Esta propiedad es deseable
en la ejecucin de programas.
Reversibilidad y estado inicial: De una Red de Petri (N,M0) se dice que es
reversible si para cada marcado Mn existente dentro de R(N,M 0), M0 es
alcanzable desde Mn. De esta forma una PN reversible es aquella donde
siempre es posible alcanzar nuevamente el marcado inicial o estado inicial del
sistema.
Cobertura: Un marcado M dentro de una Red de Petri (N,M 0) en un conjunto
de marcados cubiertos o contenido, si existe un marcado M dentro de R(N,M 0)
tal que M(p)M(p) para cada lugar p dentro de la Red.
Persistencia: Una Red de Petri es persistente si para cualquiera de dos
transiciones habilitadas, el disparo de una transicin no deshabilitar a la otra
transicin.
Distancia Sincrnica: Es una mtrica asociada al grado de dependencia mutua
entre dos eventos en un sistema condicin/ evento. La distancia sincrnica de
las transiciones t1 y t2 en la PN=(N,M0) est dada por:
donde es una secuencia de disparos iniciando en cualquier marcado M
perteneciente a R(N, M0) y s (ti) es el nmero de veces que una transicin t i es
disparada en .
7.3.1.2 Mtodos de anlisis de propiedades dinmicas:
Los mtodos de anlisis de las propiedades dinmicas son tres:
1. El rbol de cobertura.
2. Matriz de incidencia y ecuacin de estado.
3. Reglas de reduccin.
El rbol de cobertura: Dada la Red de Petri (N,M 0) con marcado inicial M0, se
puede obtener tantos nuevos marcados como transiciones habilitadas
disparadas. Este proceso resulta en un rbol de marcados infinito para una PN
no acotada. Para redes acotadas, el rbol de cobertura es llamado rbol de
alcanzabilidad. El algoritmo para calcular todos los posibles marcados es
descrito en detalle por Murata La figura 11a y b, muestra una PN y su rbol de
alcanzabilidad.
Matriz de Incidencia: Para una Red de Petri N con n transiciones y m lugares,
la matriz de incidencia es una matriz de enteros de nm, llamada A = [aij], y aij
est dada por:

44

REDES NEURONALES EN AUTOMATISMOS


donde aij+ = w(i,j) son los pesos de los arcos de las transiciones i a los lugares
de salida y aij-= w(j,i) son los pesos de los arcos de los lugares de entrada j a la
transicin i. Murata expone la ecuacin de estados de una PN como una
ecuacin matricial que define el estado de la red, dado un marcado inicial y una
secuencia de disparos de transiciones habilitadas. La ecuacin fundamental de
una PN es:

Donde Md es un vector columna de m1, el vector de control o vector de


disparo llamado Uk es un vector tambin columna de n1.
La matriz A es llamada de incidencia por que denota como cambiar el
marcado. La figura 4 muestra la solucin de la ecuacin fundamental de una
PN cuando se dispara la transicin t3 de la PN.

Fig. 26 Red de Petri y la solucin de su ecuacin fundamental. El marcado inicial se presenta


en la PN de la figura donde M0=(2 0 1 0)T, la transicin habilitada disparada es t3, esto hace
que el vector de disparo sea U=(0 0 1)T y el marcado resultante es M1= (3 0 0 2)T
A la sumatoria de todos los vectores de disparo se le nombrar x y se denota:

Igualando a cero el trmino ATX, donde x es la secuencia de disparos que se


busca, el resultado es un vector conformado por nmeros enteros, que reciben
el nombre de invariantes T (transiciones invariantes).
En forma anloga, si buscamos un vector y resolviendo la ecuacin Ay=0, se
obtienen los invariantes P (lugares invariantes, conocidos tambin como
invariantes S).
Las invariantes T y P son tiles para determinar propiedades estructurales de
una PN en forma analtica; adems, son utilizadas para la obtencin de
soluciones mnimas mediante PN.

45

REDES NEURONALES EN AUTOMATISMOS


Reglas de reduccin: Las reglas de reduccin permiten convertir sistemas
complejos en sistemas ms simples de menos lugares y transiciones,
preservando sus propiedades originales. La figura 27 presenta las seis reglas de
reduccin, las cuales son:
a) Fusin de lugares en serie
b) Fusin de transiciones en serie
c) Fusin de transiciones paralelas
d) Fusin de lugares parelelos
e) Eliminacin de auto bucles en lugares
f) Eliminacin de auto bucles en transiciones

Fig. 27 Seis formas de reduccin que preservan vivacidad, seguridad y acotado.


7.3.1.3 Propiedades estticas:
Las propiedades estticas que se plantean a continuacin solo
aplican a PN ordinarias y puras.
Vivacidad Estructural: Una Red de Petri es estructuralmente viva
si tiene un marcado inicial para N.
Controlabilidad: De una PN, se dice que es completamente
controlable si cualquier marcado es alcanzable desde cualquier otro
marcado. Para una red completamente controlable se cumple que
Rango (A) = m
donde m es la cantidad de lugares de la red.
Limitacin o acotado estructural: Una PN es limitada
estructuralmente si es limitada para cualquier conjunto finito de
marcados iniciales M0.

46

REDES NEURONALES EN AUTOMATISMOS


Conservabilidad: Una PN es conservativa si existe un entero
positivo y(p), para cada lugar p tal que la sumatoria de marcas sea
constante para cada M R(N,M0).
Repetibilidad: Una PN es repetible si existe un marcado M 0 y una
secuencia de disparos desde M0, tal que las transiciones se
disparan infinitamente en la secuencia definida por .
Consistencia: Una PN es consistente si existe un marcado M0 y una
secuencia de disparos reversible desde M 0 hacia M0, tal que cada
transicin haya sido disparada al menos una vez en .
7.3.1.4

Clasificacin de PN:

Las clasificaciones realizadas por Murata y Pessen utilizan criterios


estructurales o de topologa, para lo cual se define la siguiente
notacin:
t ={p|(p,t)F} = lugares de entrada antes de t
t ={p|(t,p)F} = lugares de salida posteriores a t
p ={t|(t,p)F}= transiciones de entrada antes de p
p ={t|(p,t)F} = transiciones de salida posteriores a p
Con la notacin anterior, se clasifica las Redes en:
a) Mquinas de estado
b) Grfico de marcados
c) Red de libre escogencia
d) Red de libre escogencia extendida
e) Red de escogencia asimtrica
Las mquinas de estado son una PN ordinaria tal que cada transicin
t tiene exactamente un lugar de entrada y un lugar de salida.
Recordando, una PN es ordinaria si el peso de sus arcos siempre vale
uno:
|t|=|t|= 1 para todos los t T
Un grfico de marcados es una PN ordinaria tal que cada lugar p
tiene exactamente una transicin de entrada y una nica transicin
de salida:
|p|=|p|= 1 para todos los p P
Una Red de libre escogencia es una PN ordinaria tal que cada lugar
de la Red posee un arco de entrada proveniente de una transicin y
posee un arco de salida hacia una transicin:
para todo p P, |p| 1, o (p) o alternativamente
para todo p1, p2 P, p1 p2 => |p1|=|p2|= 1
Una Red de libre escogencia extendida es una PN ordinaria tal que:
p1 p2 => p1=p2= 1 para todo p1, p2 P

47

REDES NEURONALES EN AUTOMATISMOS


Una Red de escogencia asimtrica o red simple es una PN ordinaria
tal que:
p1 p2 => p1 p2 p1 p2 para todo p1, p2 P
7.3.1.5
Evolucin de las pn y su impacto sobre el
modelado:
Las PN tienen ms de 45 aos de existencia desde su formulacin en
1962 y en este periodo se han realizado miles de publicaciones
sobre o relacionadas con: teoras de PN, desarrollo de nuevos tipos
de PN, aplicaciones exitosas de PN, nuevos mbitos de aplicacin,
nuevas formas de implementacin, etc. En esta seccin se
presentan en forma cronolgica distintos trabajos que contribuyen al
desarrollo de programas para PLCs.
Uno de los primeros recuentos sobre PN fue realizado por J. Peterson
y publicado en 1977, y consiste en un repaso histrico de las Redes
de Petri en sus primeros quince aos y cmo stas haban sido
utilizadas en ciencias de la computacin para modelados de
sistemas paralelos. Se expone que las PN son un mecanismo de
modelado matemtico donde los grficos estn constituidos por dos
tipos de nodos y arcos con pesos asociados.
Explica que las Redes de Petri, poseen propiedades estticas y
dinmicas, donde las propiedades estticas se asocian a la topologa
de la Red, mientras que las dinmicas se refieren a la ejecucin y
evolucin de las marcas en la Red. La ejecucin de una Red de Petri
se refiere al movimiento de las marcas dentro de la Red, la cual
requiere de un conjunto de marcas iniciales al que se conoce como
marcado inicial, el cual define el estado de la Red.
El marcado cambia como resultado del disparo de transiciones. En
dicho trabajo aparecen numerosos ejemplos sobre PN aplicados a
algoritmos. La figura 28 modela el problema de mutua exclusin de
dos operaciones independientes mediante un semforo. Peterson
expone por qu las Redes de Petri pueden verse como una
secuencia de eventos discretos cuyo orden de ocurrencia puede ser
una de muchas posibilidades permitidas. Esto brinda la
caracterstica de ser aptas para modelar eventos no deterministicas.
Peterson detalla algunas propiedades de las PN, as como las tres
clases de PN existentes en ese momento: el grfico de marcados, las
redes de simple escogencia y PN simples, pero no utiliza ninguna
notacin matemtica para definirlas, simplemente realiza una
descripcin.

48

REDES NEURONALES EN AUTOMATISMOS

Fig. 28 Red de Petri que representa procesos que comparten recursos. Se muestran los lugares
en forma de crculos, las transiciones como barras, las marcas como puntos negros y los pesos
de los arcos se entienden como unitarios.
En Espaa, J. Martnez y M. Silva, et al. en 1982, plantean que las Redes de
Petri se pueden implementar mediante tres formas: las tcnicas cableadas, las
tcnicas programables con ROM o PLA y las tcnicas programables con PLC.
En esta investigacin, se concentran en las tcnicas cableadas. Para ello
definen el concepto de celda modular sincrnica y asincrnica construidas con
flip-flop J-K, D y compuertas digitales. Las Redes de Petri que construyen son
las llamadas PN binarias, donde los lugares slo almacenan una marca a la vez.
Cabe rescatar que este artculo fue pionero en plantear las PN como alternativa
de diseo para algoritmos de PLC.
En ese mismo ao 1982, T. Murata establece las propiedades de los grficos de
marcados, que es una subclase de las Redes de Petri. Estudia la vivacidad de la
Red, su seguridad, su controlabilidad y el problema de su alcanzabilidad, a la
vez que realiza un ejemplo detallado del modelo de un sistema de cmputo
paralelo
Dada la importancia de las Redes de Petri y su aporte en diversas reas de
investigacin, se publica en 1989, a peticin del Comit de Proceedings of the
IEEE, un tutorial hecho por Murata. En este trabajo se mencionan las reas de
aplicacin ms importantes, donde destacan: medicin de rendimiento,
protocolos de comunicacin, bases de datos distribuidas, software distribuido,
software paralelo, lgica programable VLSI, circuitos sincrnicos, estructuras
asincrnicas, compiladores y sistemas operativos, sistemas informticos de
oficina, lenguajes formales, programas lgicos, redes locales, redes neuronales,
filtros digitales y modelos de decisin. En dicho tutorial, se estudian ms de
310 referencias bibliogrficas por lo que fue el estudio ms preciso hasta
entonces publicado sobre PN, por ejemplo, menciona la existencia de muy
pocos artculos sobre la relacin entre PN y PLC, nombra siete artculos sobre
sistemas de control industrial y cuatro artculos sobre modelado de sistemas de
eventos discretos.
En dicho artculo, se explica que el modelado de PN utiliza el concepto de
condiciones y eventos, los lugares representan las condiciones y las
transiciones los eventos. Una transicin o evento tiene un nmero determinado
de lugares de entrada y lugares de salida. Se establecen varias interpretaciones
49

REDES NEURONALES EN AUTOMATISMOS


de una PN. En el artculo se expone en detalle la teora de las PN y se
demuestra ms de 35 teoremas sobre las Redes de Petri, as como numerosos
problemas. El artculo finaliza con una exposicin terica detallada de las redes
temporizadas utilizadas en la evaluacin de rendimientos de sistemas, de las
redes estocsticas y de las redes de alto nivel conocidas como Redes de Petri
coloreadas, utilizadas para modelar la lgica de programas.
Tambin en ese ao, D. Pessen publica en su libro el mtodo cascada, el cual
permite disear diagramas escalera (acrnimo en ingles, LLD). Los diagramas
escalera son utilizados para disear circuitos lgicos implementados mediante
rels electromecnicos o tambin el diagrama LLD se utiliza como lenguaje de
programacin para controladores lgicos programables. El mtodo propuesto
no garantiza que el circuito sea mnimo en la cantidad de componentes que
utiliza, sino que las soluciones sean fcilmente obtenidas para problemas
complejos. Pessen, sin mencionarlo en su trabajo, desarrolla una
implementacin prctica en contactos y rels de una PN ordinaria, binaria,
segura, acotada, del tipo de libre escogencia, que es fcilmente implementada
en un PLC. En 1990, L. Holloway et al proponen una nueva red llamada Red
de Petri Controlable (CPN), que se utiliza para modelar un sistema dinmico de
eventos discretos. A partir del modelo obtenido con las CPN, se sintetiza el
controlador utilizando un algoritmo cuyo resultado garantiza que el sistema no
entrar en estados prohibidos. En este trabajo, dada una planta y las
especificaciones del comportamiento deseado, el objetivo es sintetizar el
controlador apropiado. Esto es anlogo a los problemas de control automtico,
donde dada una planta continua, se disea el controlador. Antes de este trabajo,
tpicamente la lgica de control era incluida como parte del modelo y la
evaluacin o modificacin de las polticas de control requeran de una
modificacin de la PN. Holloway establece que la lgica de control se puede
separar del modelo del sistema, introduciendo el concepto de lugares de control
externos. Esto es un cambio novedoso de lo realizado hasta entonces con PN.
Para ejemplificar el desarrollo propuesto, se realiza el modelado de una celda
de manufactura flexible (FMC), que utiliza vehculos guiados automatizados
(AGV). Se resalta que la solucin obtenida es compacta y computacionalmente
ms eficiente, si se compara con el procedimiento obtenido mediante la teora
de autmatas finitos. En 1992, L. W. Schruben realiz una revisin de los
modelos grficos existentes para modelar sistemas dinmicos de eventos
discretos (DES). Mencion que los mtodos grficos con pocos tipos de
objetos son ms fciles de aprender que aquellos con muchos tipos de objetos.
Por otro lado, modelos con muchos tipos, de objetos no garantizan que sean
ms poderosos que los mtodos con pocos objetos. Los mtodos estudiados
fueron: las Redes de Petri, los grficos de marcados, las redes de procesos y las
mquinas de estado.
Paralelamente a la bsqueda de mtodos de diseo formales, sencillos y
poderosos, otros investigadores buscaban herramientas para verificar
programas existentes de PLC, tal es el caso de I. Moon en 1994. ste desarroll
un mtodo para verificar la operabilidad y seguridad de los controladores
lgicos programables, inspirado en el mtodo para prueba de protocolos de
comunicacin y de circuitos VLSI de 1986 de E. M. Clarke. Para esto utiliz
una representacin booleana del programa, el cual se someti a una serie de
preguntas lgicas de verificacin. Este mtodo fue desarrollado por la carencia
de mtodos formales para la verificacin de programas en PLC. Moon hizo un
recuento de los distintos lenguajes para programar PLC, entre ellos, el
50

REDES NEURONALES EN AUTOMATISMOS


diagrama escalera y los bloques de funciones; adems, efectu un repaso del
funcionamiento y del ciclo de trabajo o de refrescamiento del PLC.
Y. Cai et al. en 1995 propusieron el diseo de sistemas de control secuencial
utilizando los invariantes p de las Redes de Petri. En este trabajo se encuentra
una definicin de las PN y de esas invariantes. Los autores tomaron una Red de
Petri y la dividieron en mdulos. Cada mdulo debe cumplir la propiedad de
ser invariante p, es decir, que la cantidad de marcas sea constante en un lugar.
Los autores brindan una solucin grfica a un ejemplo de llenado de tanques de
agua. Sin embargo, la solucin obtenida no es corroborada en forma algebraica,
ante lo cual aducen que la realizarn en posteriores trabajos.
S. Pettersson et al. en 1995 propusieron un modelo hbrido general, al separar
la planta a lazo abierto para construir un controlador hbrido. El sistema hbrido
puede ser modelado por una PN hbrida. El artculo desarrolla los conceptos de
los sistemas continuos y de los sistemas de eventos discretos, y propone un
conjunto de ecuaciones para modelar un sistema que combine los sistemas
discretos como hbridos. Asimismo, definieron las propiedades de un
controlador hbrido y cmo sintetizarlo, a la vez que presentaron las Redes de
Petri hbridas como un mecanismo para modelado de sistemas hbridos y
realizaron un ejemplo de modelado de un proceso industrial. La Comisin
Electrotcnica Internacional (IEC), en el ao de 1988, oficializ el estndar
IEC 848, conocido como Sequencial Function Chart (SFC), el cual se basa en
el estndar francs Grafcet de 1977. Ren David en 1995 public un estudio
comparativo entre las PN y el SFC como herramientas paraespecificar
algoritmos para controladores lgicos programables. La importancia del
estudio radica en que presenta la primera comparacin de un formalismo
matemtico con un estndar europeo ampliamente aceptado, publicado en la
IEEE.

51

REDES NEURONALES EN AUTOMATISMOS

Fig. 29 a) Elementos bsicos de SFC. b) Cuatro SFC donde se muestra la evolucin de las
marcas en las etapas, cuando se valida la receptividad de una transicin.
En el estudio se concluye que el Grafcet o SFC se puede ver como una Red de
Petri del tipo binaria, acotadas donde las transiciones son disparadas en forma
determinista. En el artculo se realiza una exposicin del estndar SFC y del
lgebra de eventos, as como la solucin para la automatizacin de unos
tanques de almacenamiento de agua. La solucin es obtenida con los mtodos
de PN, SFC, mquinas de estado y tablas de estado; al final se realiza una
comparacin entre las soluciones para determinar cul mtodo de diseo fue el
menos elaborado. La figura 7 muestra la representacin bsica de un SFC, los
lugares de una PN se interpretan como etapas en los SFC y las transiciones,
como receptividades. En la figura 7b se aprecia la evolucin de un SFC cuando
se disparan las receptividades R1, R2 y R3 en el orden mencionado. En 1997,
L.E. Holloway et al. Hicieron un estudio sobre Redes de Petri utilizadas en el
control de sistemas de eventos discretos. El artculo estudia 107 referencias
bibliogrficas y establece tres importantes corrientes de investigacin para
controladores:
a) Aproximacin de comportamiento controlado.
b) Aproximacin de controlador lgico.
52

REDES NEURONALES EN AUTOMATISMOS


c) Aproximacin terica de control.
La aproximacin de comportamiento controlado se refiere a modelos con
Redes de Petri que describen el comportamiento del sistema a lazo cerrado,
integrando tanto la planta como el controlador y cuando se obtiene el
comportamiento deseado, se extrae la lgica del controlador para su
implementacin. La aproximacin de controlador lgico consiste en disear en
forma directa el controlador de la planta, pero sin modelar la planta. El objetivo
es definir el comportamiento de las entradas
salidas del controlador para obtener un comportamiento controlado del
sistema a lazo cerrado. El mtodo grfico Grafcet, definido en el estndar IEC
60848, es un ejemplo de esta aproximacin.
La aproximacin terica de control proviene del paradigma de control
automtico, donde dado el modelo dinmico de una planta y las
especificaciones deseadas del lazo de control, se sintetiza un controlador que
cumpla con las especificaciones. En este esquema se distingue claramente la
planta, el controlador y el flujo de informacin entre ambos. El control
mediante autmatas finitos brinda un marco de trabajo conceptual para
establecer las propiedades de los DEDS; sin embargo, no son convenientes
debido a la gran cantidad de estados que introducen. En este sentido, las PN
son una alternativa para el modelado de DEDS, pues los modelos con Redes de
Petri son ms compactos que los modelos con autmatas finitos. Holloway,
Krogh y Giua plantearon en su investigacin cmo sintetizar los controladores
para plantas modeladas por Redes de Petri. Exponen dos grandes
aproximaciones: el control retroalimentado de estado o state feedback
control que utiliza las Redes de Petri Controladas (CtlPN) y el control
retroalimentado de eventos event feedback control que utilizan las llamadas
Redes de Petri Etiquetadas (LPN). A continuacin, se presenta la descripcin
formal de las CtlPN, que consiste en una tripleta:
Nc=(N, C ,B)
Donde:
N = (P,T,F) es una PN ordinaria.
C = Es un conjunto finito de lugares de control.
B (CT) es un conjunto de arcos dirigidos que conectan los lugares de
control con las transiciones.
Otro punto tratado en el artculo es la definicin de las LPN, la cual se entiende
como una quntupla:
LPN=(N, , l, m0, F)
Donde:
N = (P,T,F) es una PN ordinaria.
= Conjunto finito de eventos (alfabeto).
l:T es la funcin de etiquetado donde se asigna a cada transicin un evento.
m0 = Marcado inicial.
F = Es un conjunto finito de marcas finales.
Finalmente, los autores desarrollan la teora del control supervisor y el diseo
del supervisor, as como las propiedades de este tipo de control con Redes de
Petri. Los autores resaltan que hasta la fecha no existe una completa y formal
comparacin entre las soluciones obtenidas por mtodos basados en PN y las
53

REDES NEURONALES EN AUTOMATISMOS


basadas en autmatas finitos. En 1997, Taholakian et al. propusieron una
metodologa para disear, simular y codificar sistemas de control basados en
PLC usando Redes de Petri, llamada PNPLC. Debido a la complejidad
creciente de los sistemas de manufactura, especficamente, de las celdas de
manufactura flexible (FMC), los autores proponen cmo implementar la red en
un lenguaje de programacin estndar definido dentro del estndar de
programacin IEC 1131-3, mediante la implementacin con diagramas
escalera. Los autores mencionan que la automatizacin de una FMC o de
sistemas ms complejos no se podra realizar si las tareas de control no se
distribuyeran entre dispositivos de control distribuido (DCS). El mtodo
desarrollado fue dividido en las siguientes partes:
a) Especificacin de requerimientos de los DCS
b) Especificacin funcional de los DCS
c) Diseo de DCS que cumplan los requerimientos
d) Generacin de cdigo para los DCS
e) Implementacin en software
Del mtodo PNPLC, se puede decir que es un mtodo grfico que consiste en
descomponer una PN ordinaria y segura, en secciones que son mapeadas en
forma casi directa a una estructura de contactos de diagrama escalera. Al final,
la unin de las distintas secciones en el diagrama escalera conforma un circuito
cuyo comportamiento es equivalente al descrito en la Red de Petri. G. Mui y
D Matko en 1998 trabajaron la lnea de investigacin de la aproximacin
terica de control definida, donde se establece el controlsupervisor mediante
una PN flexible para un proceso industrial por lotes (figura 30a). Este trabajo
realiza un recuento histrico del control supervisor de sistemas DES que
originalmente se bas en la teora de autmatas finitos, cuya teora de control
supervisor pretende asegurar que la planta nunca alcance ciertos estados, ya
sean inseguros o de bloqueo. El mtodo que plantean se basa en el clculo de
los invariantes p conocidos como S-invariant o P-Invariant. La particularidad
de este trabajo es que implementa el control supervisor con SFC, que es un
lenguaje estandarizado de programacin de PLC definido en IEC 1131-3, lo
cual se aprecia en la figura 30b.

Fig. 30 a) Red de Petri de dos procesos y su respectivo control supervisor b) Implementacin


en SFC de la PN, segn estndar IEC 1131-3.
54

REDES NEURONALES EN AUTOMATISMOS


G.Frey en ese mismo ao propone en la utilizacin de una nueva clase de PN
llamadas Redes de Petri Interpretadas (IPN o SIPN) para la verificacin y
validacin de algoritmos de control. Para esto, parte del hecho de que la
mayora de sistemas lgicos de control industrial utilizan especificaciones
informales. El trmino informal se refiere a todo aquello que no est basado
en un formalismo bien definido semntica y sintcticamente. Detalla los
siguientes conceptos: formalizacin, sntesis, verificacin, implementacin,
validacin y simulacin. Define la formalizacin como el proceso de convertir
una especificacin informal en formal. Menciona ejemplos de especificaciones
formales tales como: PN, SIPN, los sistemas de ecuaciones booleanas o los
autmatas finitos. La sntesis es el proceso de generar el algoritmo de control
de la especificacin formal. La verificacin consiste en aplicar mtodos
formales, con la finalidad de probar si el algoritmo de control cumple las
especificaciones. Finalmente, la implementacin se entiende como la obtencin
del cdigo del sistema o circuito, segn las especificaciones formales. La
validacin muestra si el proceso por controlar se comporta como debera, esto
permite detectar errores en
la especificacin formal. La simulacin es utilizada como un mtodo para
realizar las validaciones. Frey define formalmente las SIPN como una ctupla,
SIPN = (P, T, F, M, I, O, C, A)
Donde:
(P,T,F,M) es una PN ordinaria, libre de auto bucles, con P lugares, T
Transiciones,
F arcos y un marcado inicial M0.
I: conjunto finito de entradas binarias, I.
O: conjunto finito de salidas binarias, O, IO.
C: un mapa que asocia cada transicin ti T con una condicin de disparo
externa, expresin booleana en I.
A: un mapa que asocia cada lugar pi P con una accin.
A(i)={0,1,-} la cual es activada siempre que el lugar est marcado.
A(i)[j] especifica el valor de la seal de salida oj.

Fig. 31 Red de Petri SIPN


55

REDES NEURONALES EN AUTOMATISMOS

Junto a la definicin de SIPN, Frey realiza la automatizacin formal de un


reactor qumico, pero no realiza ni establece lineamientos para la
implementacin. La figura 9 muestra la grfica de una SIPN.
En 1998, M. Uzam realiz el diseo de un sistema de control de eventos
discretos y su implementacin a partir de una nueva clase de PN que define y
llama APN (Automation Petri Nets). Esta nueva clase de Redes de Petri para
automatizar procesos industriales es ms robusta que la de las SIPN, puesto
que no son ordinarias ni binarias, ya que sus arcos pueden tener pesos mayores
a uno y sus lugares pueden acumular ms de una marca, lo cual hace que las
APN no sean acotadas.
El autor realiza un recuento de los cinco lenguajes de programacin
estandarizados por la IEC 1131-3, grfico de funciones secuencial (SFC),
diagrama escalera (LLD), diagrama de bloque de funciones (FBD), lista de
instrucciones o nemotcnico (IL) y texto estructurado (ST). Uzam explica que
tpicamente un sistema de control de eventos discretos (DECS) se compone de
dos bloques, el sistema de eventos discretos (DEDS) anlogo a la planta en
sistemas continuos y el controlador de eventos discretos (DEC) anlogo al
controlador. La figura 10 muestra este esquema.
La definicin de la APN es una tupla de orden nueve definida como,
APN = (P, T, Pre, Post, In, En, , Q, M0)
Donde:
(P,T,M0): P es el conjunto de lugares, T el conjunto de transiciones y M 0 el
marcado inicial.
Pre : (PT) N es una funcin de entradas que define los arcos desde los
lugares y hacia las transiciones, con un peso definido por N.
Post: (TP) N es una funcin de salidas que define los arcos desde las
trasiciones y hacia los lugares, con pesos de N.
In:(PT) N es una funcin de entradas inhibidoras que define los arcos
inhibidores
entre lugares y transiciones, estos son representados como pequeos crculos.
En:(PT) N es una funcin de entradas habilitadoras que define los arcos
habilitadores entre lugares y transiciones, estos son representados como una
flecha, pero sin rellenar.
X= {x1, x1,, xm} se define como un conjunto finito de condiciones de disparo
no vaco, asociado a las transiciones.
Q= {q1, q1,, qm} se define como un conjunto finito de acciones asignadas a
los distintos lugares.

56

REDES NEURONALES EN AUTOMATISMOS

Fig. 32 La figura muestra una Red de Petri del tipo APN, que modela el controlador de
Sistemas de Eventos Discretos (DES)
El modelo APN es apropiado para el manejo de seales de sensores y
actuadores. Este artculo explica cmo modelar con APN y cmo realizar la
implementacin en un PLC S-200 de Siemens, para lo cual desarrolla un
mtodo de transformacin llamado TPL o Token pass logic, el cual permite
obtener la implementacin en el lenguaje estandarizado LLD. Las redes APN
utilizan posiciones de memoria o contadores para representar lugares que
pueden tener ms de una marca o Tokens, clara diferencia entre las APN y
otros tipos de PN utilizadas para automatizar, ya que las APN, como se dijo, no
son acotadas. Finalmente, el autor seala que no se trat el problema de la
verificacin del algoritmo de control. G. Frey en el 2000, hizo una exposicin
de las propiedades de las SIPN, pero expandi el modelo y desarroll sus
propiedades dinmicas y estticas; adems de definir las reglas para la
representacin grfica del modelo.
ste es un modelo sincronizado con el ambiente, cuya mejora respecto al
previo consiste en que las seales de salida son de varios tipos y pueden
activarse segn los marcados de un lugar. La definicin formal de una SIPN se
describe como una 9-tupla tal que:
SIPN = (P, T, F, m0, I, O, , , )
Donde:
(P, T, F, m0) es una PN ordinaria con P lugares, T transiciones, F arcos y un
marcado inicial m0.
I: conjunto lgico de seales de entrada |I|>0.
O: conjunto de seales de salida.
: mapeo de asociacin entre las transiciones ti T y las condiciones de
disparo de la transicin (ti)= funcin booleana dentro de I.
: mapeo que asocia cada lugar piP con una salida (pi) (0,1,-)|O| donde
(-) significa no importa.
: la funcin de salida combina las salidas de todas los lugares marcados :
m (-, 1, 0, c, r0, r1, c0, c1)|O|. La salida combinada puede ser indefinida (-),
57

REDES NEURONALES EN AUTOMATISMOS


uno (1), cero (0), contradictoria (c), reiterativa en cero o en uno (r 0, r1) o una
combinacin entre contradictoria y reiterativa (c0, c1).

Fig. 33 a) SIPN b) rbol de alcanzabilidad para la PN c) rbol de alcanzabilidad para la


SIPN
La figura 33a muestra una Red de Petri tipo SIPN, la 33b muestra todos los
marcados que se puede alcanzar, lo cual es conocido como el rbol de
alcanzabilidad definido en [32], y la 11c muestra el rbol de alcanzabilidad
para SIPN propuesto por Frey.
Frey explica las principales diferencias entre las SIPN y el SFC definido en el
estndar IEC 1131-3. Por ejemplo, seala que en un SFC no existen estados
transitorios, pero debido a los tiempos tan cortos del ciclo de operacin de un
PLC, las etapas de un SFC se comportan como etapas quasi-transitorias. En los
modelos de SFC slo se permite un estado inicial y en un SIPN, no. Dentro de
un SFC, las etapas posteriores no son revisadas con las reglas de disparo.
Adems, seala que las transiciones son activadas por eventos, los cuales por
definicin no son simultneos, mientras que las SIPN son activadas por
seales, lo que permite esta ltima posibilidad. Frey propone en el mismo
Congreso un mtodo automtico que utiliza las SIPN para generar va software
diagramas escalera (LLD) segn la norma IEC 1131-3. La generacin
automtica se logra mediante un programa que toma las especificaciones del
SIPN y genera un cdigo optimizado.
Frey vuelve a expandir el modelo, para poder modelar sistemas hbridos que
permitan trabajar con retardos de tiempos. El modelo ampliado es definido
como tSIPN =( SIPN, , ) donde es la definicin del tipo de dato (booleano,
entero, real) y es un mapeo de cada arco fi (P T) F con el tiempo de
58

REDES NEURONALES EN AUTOMATISMOS


retardo iR+. Es decir, fi=(pj, tk), i es el tiempo que una marca debe
permanecer en el lugar pj antes de que sea removido por la transicin tk. Frey
realiza un anlisis exhaustivo de los mtodos formales para programar PLC y
de los estndares que se han generado para su programacin. El artculo
explica en detalle un modelo genrico para disear algoritmos de control de
procesos industriales, los cuales sern implementados en PLC. Adicionalmente,
el artculo muestra los distintos estndares
generados en el transcurso de los aos para regular la programacin de PLC.
Frey propone el diseo de controladores como los que se aprecia en la figura
34. El proceso de diseo se debe dividir en tres actividades:
a) Reinterpretacin y formalizacin.
b) Sntesis y la implementacin.
c) Verificacin y validacin (V&V).

Fig. 34 Esquema general del mtodo de diseo para algoritmos de control de PLC
La formalizacin es dividida en tres actividades independientes y son
realizadas segn casos particulares. Las tareas que menciona son:
formalizacin de propiedades especficas, modelado formal de procesos sin
controlar modelado formal directo de algoritmos de control. La sntesis y la
implementacin utilizan como insumo la especificacin formal obtenida en las
actividades anteriores. La sntesis del algoritmo pretende obtener un diseo del
algoritmo y la implementacin de un algoritmo codificado de acuerdo con un
lenguaje de programacin de PLC estandarizado. Las corrientes actuales lo que
pretenden es que ese cdigo estndar sea realizado automticamente utilizando
un software especializado.
Las actividades de verificacin y validacin (V&V) son actividades que se
aplican a los resultados de la especificacin formal y al resultado final. La
V&V de especificaciones informales se divide en: basadas en el modelo,
basadas en el no modelo y las basadas en las limitantes. La verificacin de la
especificacin formal puede ser realizada de las siguientes seis formas: Redes
de Petri, sistemas condicin/evento, autmatas finitos e hbridos, lgica de alto
nivel, lenguajes sincronizados, sistemas generales de transicin y ecuaciones
algebraicas. Finalmente, la validacin del resultado final se puede realizar
utilizando: simulacin, anlisis de alcanzabilidad, chequeo del modelo y
mtodos de prueba de axiomas del modelo utilizando lgica matemtica. Por
otra parte, P. Deussen en el 2001, se dedic a verificar formalmente programas
para PLC. Para esto cre una nueva subfamilia de Redes de Petri llamada RN o
Register Net. Con este nuevo tipo de PN, los autores desarrollan un mtodo
para extraer del programa del PLC, una red que ser utilizada para lo siguiente:
verificar la ausencia/presencia de bloqueos, verificar la ausencia de errores de
59

REDES NEURONALES EN AUTOMATISMOS


ejecucin tales como rebases y divisiones entre cero, y verificar la seguridad
del sistema programado. Deussen en su artculo, define la RN como una
ctupla:
RN= (P, T, F, R, , G,P, s)
Donde:
P, T, F son: lugares, transiciones y arcos de una red ordinaria.
R: es un conjunto finito de registros R(PU)=.
: un mapeo T R R.
G: mapeo parcial GT , {GT} t T.
P: mapeo parcial PT , {PT} t T.
s: es un estado inicial, un subconjunto de P.
T. Mertke en el 2001 [28], se apoy en el trabajo de Frey para desarrollar una
propuesta para la verificacin de modelos de algoritmos de control para que
sean utilizados por no especialistas. l define como no especialistas a
ingenieros de control con nulo conocimiento en ciencias de la computacin.
Establece el proceso de verificacin en seis etapas:
a) Diseo de un controlador y generacin de cdigo escalera (LLD)
b) Compilar el programa del PLC a un modelo de red SIPN, usando un
generador de Redes de Petri.
c) Modelado del sistema del PLC.
d) Modelado de la planta por PN.
e) Combinar los tres modelos anteriores y generar un modelo general de todo el
sistema en trminos de PN.
f) Especificar los requerimientos funcionales y de seguridad en la semntica de
la lgica temporal, pues con estas reglas se evala el modelo general.

VIII. PRESPECTIVAS FUTURAS


Diversos autores coinciden en que deben existir metodologas para disear los algoritmos
de control que son programados en automatismos, pero esto ha generado muchas variantes
de Redes neuronales y Redes de Petri. El problema radica en la seleccin adecuada de la
Red neuronal o PN especfica y su metodologa. Por ejemplo, se seala que los estudios
comparativos entre modelos son casi nulos, por lo que se requiere cotejarlos y clasificarlos
para su ptima utilizacin. Es necesario un gran esfuerzo para cerrar la brecha entre los
sectores acadmicos y los sectores industriales que manufacturan automatismos.
Por un lado, los fabricantes europeos han estandarizado un mtodo de diseo para
controladores secuenciales bajo el estndar IEC 848 en 1988 y la respectiva actualizacin
en el 2002, generando el IEC 60848; tambin, casi en forma paralela, estandarizaron los
lenguajes de programacin de Automatismos con la normativa IEC 1131-3 a partir de
1993 y diez aos despus la actualizaron a la norma IEC 61131-3. No obstante, estos
esfuerzos conciernen slo a un mtodo particular derivado de las redes neuronales y PN y
a la implementacin final. Los estndares no proponen mtodos sistemticos e integrales
de diseo, donde la formalizacin, la validacin, la verificacin, etc. del sistema diseado
est contemplados. El sector acadmico ha tratado de cerrar esta brecha utilizando, por
ejemplo, editores grficos que modelan el conjunto sistema-controlador de modo que a
partir de una APN, SIPN o software especializado, se genera cdigo segn la norma
respectiva. Por otro lado, investigaciones como la de J.S. Lee brindan mtodos
60

REDES NEURONALES EN AUTOMATISMOS


sistemticos, pero stos no son vinculantes para la industria. Otro problema que no ha sido
tratado
es cmo desarrollar herramientas computacionales que permitan verificar formalmente los
millones de programas que se ejecutan en los Automatismos industriales.
Esto ltimo brindara informacin sobre el cumplimiento de las especificaciones formales
de cada programa. Un rea prioritaria en el futuro, dada la complejidad creciente de los
procesos productivos, son la utilizacin de sistemas de control distribuido y el desarrollo
de metodologas modulares con Redes Neuronals y Redes de Petri para este tipo de
sistemas. En este sentido, el interbloqueo entre mdulos, como se seala, es un rea
abierta a la investigacin. Se nota a lo largo de este trabajo que las tcnicas algebraicas de
simplificacin y verificacin de algoritmos realizados con Redes neuronales y PN no son
utilizadas mayoritariamente, dado que prevalecen las tcnicas grficas. Se podra realizar
estudios de costos sobre cundo aplicar las tcnicas algebraicas o grficas.

IX.

CONCLUSIONES
El desarrollo de nuevas estrategias de control ha evolucionado desde el
modelamiento matemtico basado en modelos en ecuaciones diferenciales y
funciones de transferencia los cuales tiene sus limitaciones de tipo computacional.
Los modelos de control de ltima generacin los cuales se fundamentan en la
programacin de variables lingsticas buscando en estas soluciones que no tienen
mecanismos sencillos de modelamiento y que su solucin es compleja de desarrollar
basada en modelos matemticos.

Los modelos de control fundados en la I.A(REDES NEURONALES) o modelos


biolgicos que permiten el aprendizaje de tareas especificas, pero que permiten la
solucin de problemas basados en la historia o recuerdos de eventos anteriores como
el de las redes neuronales y sus posibles combinaciones con otros modelos como
lgica difusa entre otros.

La ltima parte de estos desarrollos que se encuentran en investigacin son los


basados en algoritmos genticos y todas las posibles formas, stos desarrollos
permiten una amplia gama de estrategias de control para los automatismos en
general.

Las PN han demostrado desde hace ms de 45 aos su utilidad prctica en muchas


reas y en especial, en el modelado de sistemas complejos. A pesar de la gran
cantidad de publicaciones existentes, su divulgacin en el mbito costarricense es
muy limitada. Este trabajo permite al lector una visin panormica y cronolgica de
las familias de PN vinculadas con los PLCs. Adems, permite generar conciencia en
el lector sobre el impacto de las mismas en el diseo e implementacin de
algoritmos de control para controladores lgicos programables.

X.

RECOMENDACIONES

61

REDES NEURONALES EN AUTOMATISMOS

X1.

En nuestras universidades se debera replantear los cursos de concernientes a la


enseanza del funcionamiento y programacin de Automatismos. En el plan de
estudios se debe prestar mayor atencin al levantamiento formal de los
requerimientos y a su validacin, al modelado formal de la planta y del
controlador, a la validacin de los modelos, a la implementacin del software y a
su verificacin. Adems, es necesario incorporar los criterios de calidad de
software definidos en el ISO/IEC 9126, lo cual es un problema comn.

BIBLIOGRAFIA
http://www.iac.es/sieinvens/SINFIN/Sie_Courses_PDFs/NNets/confiac.pdf
http:// redalyc.uaemex.mx/redalyc/pdf/849/84903731.pdf
http://www.tec.cr/sitios/Vicerrectoria/vie/editorial_tecnologica/Revista_Tecnologia
_Marcha/pdf/tecnologia_marcha_21-4/cap%2012.pdf
http://sisbib.unmsm.edu.pe/Bibvirtual/tesis/Basic/Villanueva_EM/Contenido.htm
http://www.farmacia.unal.edu.co/publicaciones/art/122/35-N1/V35N1-03.pdf
www.revistaavances.co/objects/docs/...5/a5_art2_nuevas_tecno.pdf
http://www.itba.edu.ar/archivos/secciones/del-rio-tesisdemagister.pdf
http://tesis.pucp.edu.pe/repositorio/handle/123456789/138
www.uaemex.mx/Red_Ambientales/docs/congresos
http://campus.usal.es/~comunicacion3punto0/comunicaciones/057.pdf
http://archivos.labcontrol.cl/DOCUML/matich-redesneuronales.pdf
http://sindominio.net/~xabier/textos/biorob/biorob.pdf
www.monografias.com
http://www.aie.cl/files/file/comites/ca/abc/sistemas-de-control-automatico.pdf
http://lbs.fcien.edu.uy/archivos/L6-RedesNeuronalesArtificiales-20101208.pdf

62

También podría gustarte