MONOGRAFIAAMIGO

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 22

CONTENIDO

Pág.

INTRODUCCIÓN......................................................................................................................iii
CAPÍTULO 1..............................................................................................................................4
NECESIDADES Y PROBLEMAS DE LA INGENIERÍA DE SISTEMAS..........................4
1.1 NECESIDADES.............................................................................................................4
1.2 PROBLEMAS................................................................................................................4
CAPÍTULO 2..............................................................................................................................6
ECUACIONES DIFERENCIALES Y LAS APLICACIONES...............................................6
2.1 DEFINIENDO ECUACIÓN DIFERENCIAL................................................................6
2.2 PROCESOS ESTOCÁSTICOS...................................................................................6
2.3 APLICACIÓN EN ECUACIONES DIFERENCIALES..............................................7
CAPÍTULO 3..............................................................................................................................9
EJEMPLOS DE APLICACIONES..........................................................................................9
3.1 APLICACIÓN EN LA MECATRÓNICA......................................................................9
3.2 APLICACIÓN EN MATLAB.......................................................................................14
3.3 APLICACIÓN EN REDES NEURONALES.............................................................16
CONCLUSIONES....................................................................................................................19
BIBLIOGRAFÍA.......................................................................................................................20

ii
3
CAPÍTULO 1
4
ECUACIONES DIFERENCIALES

1.1 INTRODUCCION

El descubrimiento independiente del cálculo por Newton y Leibnitz, en

el siglo XVIII, sentó las bases para el desarrollo de las matemáticas,

ciencias y la ingeniería [1]. Uno de tales avances corresponde a la

rama que las matemáticas denominan ecuaciones diferenciales.

Muchos problemas de matemáticas aplicadas, usan ecuaciones

diferenciales ordinarias o ODE(Ordinary Differential Equation). En el

caso más simple, una función diferencial donde x es una variable real,

con derivada satisface a una ecuación de la forma o simplemente:

que es una ODE. Existe un valor inicial o IVP (Initial Value problem)

en la solución y de (1.1) para los valores , que satisfacen la condición

inicial de la forma:

para un infinito números de funciones diferentes y, que son solución

de (1.1) [2]. Los ingenieros y científicos, frecuentemente hacen uso de

las ecuaciones diferenciales para modelar los efectos del cambio,

movimiento y crecimiento. Por ejemplo, ecuaciones diferenciales que

predicen la dinámica poblacional, la estabilidad de la órbita en los

satélites, o el movimiento de recursos en un mercado financiero [3].

Los modelos más precisos y sofisticados, con efectos aleatorios o

estocásticos, vienen a ser más significativos. Siendo la aleatorización


5
del sistema, la parte de mayor interés en el modelo. La solución de

tales problemas, comprende una nueva área en matemáticas,

denominada cálculo estocástico; y corresponde a una generalización

estocástica del cálculo diferencial clásico. Durante las dos décadas

pasadas, hubo un acelerado interés en el desarrollo de métodos

numéricos para las ecuaciones diferenciales estocásticas o SDE

(Stochastic Differential Equations)[4]. Tal como se usa una ODE para

modelar un sistema ideal sin ruido, se usa una SDE para modelar

sistemas más realistas que incluyan el efecto del ruido. Una SDE es la

generalización de una ODE, cuando el ruido es perceptible o activo.

En un problema de dinámica poblacional, el modelo determinista del

crecimiento de la poblacional es la ecuación exponencial , donde c es

el coeficiente de crecimiento maltusiano. Lo aleatorio del ambiente,

puede ser modelado permitiendo a c, variar aleatoriamente como ,

para un proceso estocástico con media cero; dando una SDE lineal de

la forma:

6
CAPÍTULO 2

APLICACIONES DE LAS ED

2.1 PROBABILIDADES Y PROCESOS ESTOTÁTICOS

Los conceptos de probabilidades y procesos estocásticos, necesarios para la

comprensión de las SDE, son revisados a continuación. Probabilidades y eventos

Cuando se lanza un dado, se observa como resultado una de las seis caras de los

números 1,2,...,6. Estos resultados denotados por respectivamente, generan El

conjunto denominado espacio muestral. Si se lanza un dado un

número de intentos y se contabiliza el número de veces que tiene el resultado, se

obtiene la frecuencia relativa . Cuando N es un número grande, se obtiene el

conocido como la probabilidad del resultado . Cumpliendo que ,

para . Cuando existe interés en un conjunto de resultados en el

espacio muestral; como , el conjunto de las caras con números impares, se conoce

como un evento. La probabilidad del evento denotada como P(A), es calculada desde

sus elementos . En particular el espacio muestral completo es un evento.

La esencia de la información probabilística, puede ser sumarizada en la 3-tupla ,

consistiendo de un espacio muestral , la colección de eventos y la medida de la

probabilidad P; siendo conocida técnicamente la colección de eventos , como álgebra.

2.2 PROCESOS ESTOCÁSTICOS

7
Un proceso estocástico, es una colección parametrizada de variables aleatorias

definidas en un espacio de probabilidad , indexados por un parámetro , que a menudo


se le interpreta como tiempo. Para cada t fijo, se tiene una variable aleatoria.

y para cada , se tiene una trayectoria

El conjunto tiempo está en y asume que es común al espacio de probabilidad . Un


proceso estocástico es una función de dos variables , donde es una variable aleatoria
por cada . Por cada , se denomina una realización o una trayectoria (sample path).

La variable de velocidad , es la velocidad del vehículo en el tiempo t, y la colección es


un proceso estocástico en tiempo continuo con el estado del espacio . La teoría de los
procesos markovianos, fue desarrollada sobre el supuesto que el futuro, está
condicionado por el conocimiento del valor presente. Correspondiendo a uno de los
procesos estándares en el estudio de los procesos estocásticos. Un proceso estocástico
es llamado una cadena de Markov, cuando:

para todo

Existe una clase de procesos estocásticos, con incrementos independientes, esto es


que las variables aleatorias son independientes para cualquier combinación finita de
instantes tiempos . Sea el más pequeño instante tiempo en T, entonces las variables
aleatorias para cualquier en T, también requieren ser independientes. tiene
incrementos independientes, si los incrementos y sobre los intervalos y son
independientes. Si cada incremento tiene una distribución normal, se dice que tiene
una distribución normal o proceso Gaussiano. Los procesos Wiener son un ejemplo de
procesos con incrementos independientes, , esto es un proceso Gaussiano con
incrementos independientes, con

para todo

8
2.3 APLICACIÓN EN ECUACIONES DIFERENCIALES

Una ecuación diferencial no es más que una regla que especifica

un cambio, en específico de la variable dependiente en función de una

variable independiente, en términos de la función y sus derivadas. Una

ecuación diferencial ordinaria del tipo:

dx
1). x= =a(t , x )
dt

Puede entenderse como la forma degenerada de una ecuación

diferencial estocástica en ausencia de aleatoriedad. Podemos reescribir

como:

2). dx=a(t , x )dt

La aplicabilidad de las ecuaciones diferenciales deterministas es

reducida, si queremos describir el comportamiento de sistemas

sometidos a entornos o parámetro que fluctúan. En ese caso debemos

reemplazar la ecuación (1) por la ecuación diferencial estocástico (ede)

3). X =A (t , X ,Y )

Donde y(t) representa explícitamente un proceso estocástico. Por

supuesto, la ecuación (3) es una ecuación más complicada que (1)

desde dos puntos de vista: dado que y(t) es un proceso estocástico, x(t)

lo es también y por tanto, la solución de (3) vendrá dada por el

conocimiento de la distribución de probabilidad de x(t) para cada tiempo

(t), es decir, la solución de (3) es una familia de las funciones, mientras

que la de (1) es solo una función

9
CAPÍTULO 3

EJEMPLOS DE APLICACIONES

3.1 APLICACIÓN EN LA MECATRÓNICA

Se quiere mantener la temperatura de un cuarto con el propósito

de que este dispositivo sea utilizado en automóviles, aviones,

laboratorios, hoteles y muchos otros lugares en los cuales la temperatura


10
del medio ambiente es hostil o inadecuada. Necesita que este dispositivo

sea automático, de tal forma que si la temperatura exterior sufre un

cambio nadie tenga que estar recalibrándolo.

FIGURA N.º 01
“Diagrama.”

 Primer diseño de automatización:

En los primeros trabajos teóricos en automatización se

trabajó sobre dispositivos determinísticos. Muchos científicos de

principios del siglo XVIII creían que se podía construir un

dispositivo que a través de correctas mediciones iniciales podría

mantener las condiciones deseadas por mucho tiempo. El diseño

aún sigue en pie, pero es muy poco práctico, porque funciona solo

para sistemas en los cuales un dispositivo tenga que controlar un

pequeño número de variables y en condiciones ideales. Además,

la mayoría de veces lleva más esfuerzo idealizar el sistema que lo

que cuesta el dispositivo controlador.

 Segundo diseño de automatización:

Digamos que la temperatura que se desea son 10 C. Si la

temperatura ambiente es de 20 C entonces el dispositivo tendría

11
que extraer calor a una tasa constante hasta que la temperatura

llegue a 10 C. Esto lo sabría mediante un sensor de temperatura.

Este diseño de automatización se muestra en la Fig 2 y sus

construcciones en serie corresponden a principios del siglo XVIII.

Tuvo sus orígenes en el trabajo de James Clerk Maxwell en 1868

con la construcción de un controlador de centrífuga.

FIGURA N.º 02

Rápidamente usted se dará cuenta que es un diseño

ineficiente, puesto que si la diferencia de temperatura entre el

ambiente y la deseada es grande el dispositivo tardaría mucho

tiempo en lograrla como se muestra entre las unidades de tiempo

2 y 3 de la Fig 2. Podría pasar que, en el transcurso, el ambiente

cambie y la trayectoria del dispositivo sea incorrecta,

desestabilizando todo el sistema. Los primeros estudios de

estabilidad fueron hechos por Edward John Routh siendo

discípulo de Maxwell y por Adolf Hurwitz. Esto tendría grandes

implicaciones en el camino de la automatización.


12
 Tercer diseño de automatización:

Se podría pensar en un diseño en el cual la taza de

extracción de calor sea proporcional a la diferencia de

temperatura entre el ambiente y la temperatura deseada. Este

diseño es denominado PI, y su implementación corresponde a

mediados del siglo XIX. Uno de los principales problemas que se

observó es que los dispositivos PI son extremadamente difíciles

de calibrar. Porque un pequeño cambio en su calibración los

vuelve muy sensibles a los cambios de temperatura, esto

ocasiona una persecución del ideal, como se puede observar en

la Fig 3.

FIGURA N.º 03

13
Es decir, el dispositivo constantemente está cambiando su

taza de extracción de calor lo que ocasiona una gráfica oscilante.

Este constante cambio aplica mucho estrés a los mecanismos que

terminan fallando o en necesidad de recalibración cada pequeño

período de tiempo. José Alberto Morán Tobar carne 07054

Ecuaciones Diferenciales

 Cuarto Diseño de automatización:

Aquí entra el concepto de ecuaciones integro-diferenciales

y el criterio de estabilidad. Por sistema estable entendemos aquel

que tiene una respuesta natural que decae de manera

exponencial hacia cero conforme el tiempo tiende al infinito. Para

introducir este diseño comencemos analizando su forma general:

Kp: ganancia proporcional del dispositivo

Ki: ganancia integral del dispositivo

Kd: ganancia diferencial del dispositivo

α: desviación proporcional al nivel deseado

En términos simples es un sistema en el cual la salida es

controlada por tres términos. Uno proporcional uno integral y uno

diferencial. Es denominado PID. El término que contiene la

integral revisa a la desviación acumulada sobre el tiempo y ajusta

la salida del dispositivo para tratar de eliminarla como se observa

en la Fig 4 (comparada con un sistema con solo el primer

término).
14
FIGURA N.º 04

En nuestro caso si la temperatura se aleja el sistema este

trata de acercarse lo más rápido posible hacia la temperatura

objetivo. El término que contiene la derivada revisa la taza a la

que la desviación cambia con el tiempo y ajusta la salida del

dispositivo para minimizarla. En nuestro caso minimizaría cambios

abruptos en la extracción de calor si el ambiente cambia drástica y

repentinamente, dándole un suave aterrizaje hacia la temperatura

deseada. Esto se observa en la figura 5 (comparada con un

sistema sólo con el primer término).

FIGURA N.º 05

15
3.2 APLICACIÓN EN MATLAB

Los modernos lenguajes de programación hacen uso de la teoría

de Lehmer para implementar funciones que generan números seudo

aleatorios, como sucede con la función rand en Matlab.

Considere la situación de lanzar una moneda, si cae cara vale 1,

en otro caso -1, este proceso es conocido como random walk(caminata

al azar), tiene: E ( Xn )=0 y Var ( Xn )=1

En la figura 1, se presenta una simulación haciendo uso de los

números aleatorios

FIGURA N.º 01

16
FIGURA N.º 02

Se puede apreciar el código en este algoritmo el cual genera la

aleatoriedad necesaria para analizar las variables, este se modela a

partir de la ecuación diferencial estocástica, de la misma manera

diferentes programas de análisis financiero, basan sus algoritmos en

modelos de ecuaciones diferenciales estocásticas para hacer

predicciones, proyecciones de riegos, compra de ciertos productos y

asegurar a las empresas.

17
Este es uno de los métodos más acertados ya que en los que

respecta el futuro, solo existen variables aleatorias que nunca podrán ser

definidas antes de tiempo.

3.3 APLICACIÓN EN REDES NEURONALES

Las ecuaciones de redes neuronales diferenciales que describen

la dinámica lenta y rápida de un sistema perturbado singularmente o en

escalas de dos tiempos, en forma de ecuación de estado son:

donde: x ∈ Rn, z ∈ Rn son las variables de estado, A ∈ Rn×n, B ∈

Rn×n son las matrices de estabilidad (Hurwitz). W1 ∈ Rn×2n, W2 ∈

Rn×2n, σ1 (x, z) ∈ R2n, σk (x, z) = [σk (x1)··· σk (xn), σk (z1)··· σk (zn)]T

∈ R2n , φ(·) es R2n×2n matriz diagonal, φk (x, z) = diag [φk (x1)··· φk

(xn), φk (z1)··· φk (zn)] , k = 1, 2. En la figura (3.1), se muestra la

estructura de red neuronal diferencial recurrente, que modela la

ecuación de red neuronal con perturbación singular (3.1). Y también se

muestra en la figura (3.2) la misma estructura de red neuronal diferncial

recurrente, pero sin entrada u y puede tener o no, capas de neuronas

ocultas. Comentario 3.1 La red neuronal dinámica (3.1) ya ha sido

dicutida por mucho autores, por ejemplo, [12],[8],[10] y [17]. Se puede

observar que el modelo de Hopfield es una caso especial de esta red

neuronal con A = diag {ai} , ai := − 1 RiCi , Ri > 0 y Ci > 0. Ri y Ci son la

resistencia y capacitancia en el i − esimo ´ nodo de la red,

respectivamente. Comentario 3.2 Un caso general, de redes neuronales

18
diferenciales con entrada de control con y sin capas de neuronas ocultas

son:

donde u(k)=[u1, u2 ··· um, 0, ··· 0]T ∈ R2n, W1 ∈ Rn×2n, W2 ∈

Rn×2n, W3 ∈ Rn×2n y W4 ∈ Rn×2n son las matrices de pesos, σk (x,

z)=[σk (x1)··· σk (xn), σk (z1)··· σk (zn)]T ∈ 3.1 Estuctura de redes

neuronales con diferentes escalas de tiempo

19
R2n , φ(·) es R2n×2n matriz diagonal, φk (x, z) = diag [φk (x1)···

φk (xn), φk (z1)··· φk (zn)] , k = 1, 2. El análisis de estabilidad de estas

redes neuronales diferenciales pueden fácilmente ser extendidas de los

resultados de investigaciones realizadas en esta tesis. Pero también es

posible considerar una muy semejante red neuronal dinámica de

Hopfield con capas de neuronas ocultas:

donde: x, z son las variables de estado de la red neuronal, A, B

son las matrices de estabilidad Hurwitz, W1, W3 son las matrices de

salida de los pesos de las capas externas, W2, W4 son las matrices de

salida de los pesos de las capas externas, V1, V2, V3, V4 son las

matrices de los pesos de las capas ocultas, σ1, σ2, φ1, φ2 son las

funciones de activación generalmente no lineales y u es la entrada de la

red. Pero también es posible modelarla, agregando las variables de

estado involucradas en un sistema sometido a perturbaciones

singulares:

20
CONCLUSIONES

Aparte de los ejemplos mencionados en la monografía, existen muchas

más aplicaciones, pero todas tienen un mismo fin, hallarle una ecuación a todo

lo que vemos a diario, para así poder tener objetos de estudio.

Concluyendo se puede decir que es necesario tener los conocimientos

en el cálculo superior para poder ser un buen Ingeniero de Sistemas, ya que es

muy necesario en el campo de investigación y aplicación de los métodos

aprendidos durante la carrera.

21
BIBLIOGRAFÍA

 Real Academia Española. Diccionario. XXII Edición. España. 2001.

[consultado Nov 2008] http://buscon.rae.es/draeI/SrvltConsulta?

TIPO_BUS=3&LEMA=autom%E1tica

 Agarwal Anat, Foundations of Analog and Digital Electronic Circuits (The

Morgan Kaufmann Series in Computer Architecture and Design). II Edición.

MIT. 2005.

 Lewin Walter PhD. Electricity and Magnetism. OpenCourseWare. Code 6.02.

Massachusetts Institute of Technology. Estados Unidos. 1999.

 Mattuck, Arthut Prf. Miller, Haynes Prf. Differential Equations.

OpenCourseWare. Code 18.03. Massachusetts Institute of Technology.

Estados Unidos. 2006.

 Barbastahis, George, et al. Systems, Modeling, and Control II.

OpenCourseWare. 2.004. Massachusetts Institute of Technology. Estados

Unidos. 2007.

 Sellers David Eng. An Overview of Proportional plus Integral plus Derivative

Control and Suggestions for Its Successful Application and Implementation.

Portland Energy Conservation Inc, Portland, Oregon. Estados Unidos. 2005

 Stauffer Yves. Analog PID module . Semester Project. Autonomous System

Lab, ETH Zurich. 2004

 Raymond, Serway. Fisica para ingenieros. VI Edición. Thomson Learning.

México. 2005

 Kilian Christopher. 2005. Modern Control Technology. Thompson Delmar

Learning. 10.Imagenes tomadas bajo licencia FairUse, o CreativeCommons

22
según el caso. 11.HowStuffWorks. Discovery Communications. 2008.

[consultado Nov 08] http://computer.howstuffworks.com/inkjet-printer.htm

 12.Wikipedia. Control Theory. Nov 2008.

http://en.wikipedia.org/wiki/Control_Theory

23

También podría gustarte