Opti
Opti
Opti
Solución Ejecicios. 1
En la página 7, dentro del ejemplo 1b, se pregunta que significa que la derivada de una función de
una sola variable, tome el valor cero en un punto dado, y que en consecuencia la recta tangente
a la gráfica de la función sea horizontal en dicho punto, como recuerdan de sus cursos de cálculo
esto significa que en ese punto la función, tiene una variación instantánea igual a cero y que la
curva que la grafica se encuntra en un punto crı́tico, que puede ser un máximo, un mı́nimo o un
punto de inflexión.
Al incio de la página 10, se te pide indiques cual piensas que es el óptimo de un funcional que
a toda las función dos veces diferenciables, definida sobre un intervalo fijo [a, b], le asocia el
número real que mide la longitud de la curva definida por su gráfica, cuando los puntos inicial
y final están determinados; como es intuitivo, no puede haber una curva de longitud máxima,
pero hay una sola de longitud mı́nima, a saber la recta que une los puntos inicial y final antes
mencionados, en esta entrega veremos que hay una forma de identificar dicha función como el
“punto” que minimiza al funcional.
2. Para las siguientes funciones de una variable, encuentra su mejor aproximación lineal, recta tangente,
y su mejor aproximación cuadrática, en los puntos indicados.
Recordemos que la existencia de derivada en un punto t0 del dominio de una función de una variable
real, significa que se cumple la igualdad:
Como en este caso Dft0 [h] = f 0 (t0 )h, entonces, haciendo t = t0 + h y considerando que los dos
primeros sumandos de la identidad anterior representan la ecuación de la recta buscada, se tiene que
tal ecuación es:
fl (t) = f (t0 ) + f 0 (t0 )(t − t0 )
Por otro lado la mejor aproximación cuadrática, se obtiene de sumar a la expresión anterior el término:
1 (2) 1 00 2
2 D ft0 [h, h] = 2 f (t0 )(t − to ) , obteniendo:
1
fc (t) = f (t0 ) + f 0 (t0 )(t − t0 ) + f 00 (t0 )(t − to )2
2
Para resolver los casos de este ejercicio, consideramos las diferentes funciones x(t).
1
Si t0 = 2: xl (t) = −7 + 0 · (t − 2) = −7 y xc (t) = −7 + 21 · 0(t − 2)2 = −7.
Si t0 = −2: xl (t) = −71 + 48(t + 2) = 25 + 48t y xc (t) = 25 + 48t − 12(t + 2)2 = −23 − 12t2 .
b) x(t) = t3 − 3t2 − 45t + 6 para t = −5 y t = 3.
Se tiene: ẋ(t) = 3t2 − 6t − 45 y ẍ = 6t − 6.
Si t0 = −5: xl (t) = 31 + 60(t + 5) = 331 + 60t
xc (t) = 331 + 60t − 18(t + 5)2 = −119 − 120t − 18t2 .
Si t0 = 3: xl (t) = −129−36(t−3) = −21−36t y xc (t) = −21−36t+6(t−3)2 = 33−72t+6t2 .
3
c) x(t) = 2t 2 − 6t + 3 para t = 4 y t = 9.
1 1
Se tiene: ẋ(t) = 3t 2 − 6 y ẍ = 23 t− 2 .
Si t0 = 4: xl (t) = −5 + 0 · (t − 4) = −5 y xc (t) = −5 + 83 (t − 4)2 = 1 − 3t + 38 t2 .
Si t0 = 9: xl (t) = 3 + 3(t − 9) = −24 + 3t y xc (t) = −24 + 3t + 41 (t − 9)2 = − 15 3 1 2
4 − 2t + 4t .
3. Para las siguientes funciones de dos variables, encuentra su mejor aproximación lineal, plano tangente,
y su mejor aproximación cuadrática, en los puntos indicados.
2
c) x(u, v) = 5u2 + 5v 2 − 8uv + 10 para (u, v) = (2, 1) y (u, v) = (0, 0).
Se tiene: xu = 10u − 8v, xv = 10v − 8u, xu,u = 10, xv,v = 10 y xu,v = −8
Si (u0 , v0 ) = (2, 1): xl (u, v) = 19 + 12(u − 2) − 6(v − 1) = 12u − 6v + 1
xc (u, v) = 12u − 6v + 1 + 5(u − 2)2 + 5(v − 1)2 − 8(u − 2)(v − 1) = 5u2 + 5v 2 − 8uv + 10
Si (u0 , v0 ) = (0, 0): xl (u, v) = 10 + 0 · (u − 0) + 0 · (v − 0) = 10
xc (u, v) = 10 + 5(u − 0)2 + 5(v − 0)2 − 8(u − 0)(v − 0) = 5u2 + 5v 2 − 8uv + 10
a) Espacio vectorial.
b) Vectores linealmente independientes.
c) Base de un espacio vectorial.
d) Punto crı́tico de una función diferenciable de una o varias variables reales.
3
3c) Las primeras derivadas parciales son xu = 10u − 8v y xv = 10v − 8u, contando nuevamente
con un único punto crı́tico (u0 , v0 ) = (0, 0), con matriz Hessiana definida positiva, de done
se trata de un mı́nimo.
10 −8
−8 10
1. Cálculo de Variaciones.
En el archivo anterior, se indicó que el objetivo fundamental del curso es presentar y aplicar herramientas
para optimizar funcionales cuyo dominio se encuentra dentro de espacios, como el definido por el siguiente
conjunto.
C (2) [a, b] = {x : x es una función dos veces diferenciable en el dominio [a, b]}
Se presentó como ejemplo el siguiente problema, donde la variable x toma valores dentro del conjunto
C (2) [a, b], arriba definido, y la integral que define el valor que toma cada x en nuestro dominio, le asocia
la longitud de la curva definida por la función x.
Rb√
optimizar Γ[x] = a 1 + ẋ2 dt
Donde sup I significa, en este caso, el valor máximo del conjunto I, se puede ver que || || cumple las
propiedades de ser una norma, según la definición (1) abajo anotada, y que todo lo anterior nos permite
definir la derivada de funcionales del tipo de Γ.
Recordemos primero que un espacio vectorial se puede ver como una cuadrupla (V, +.·, K), donde V
y K son un par de conjuntos de vectores y escalares, respectivamente, en nuestro caso los escalares son
números reales, + es una operación que suma a dos vectores, teniendo como resultado un nuevo vector, su
vector suma, mientras · es una operación que multiplica un escalar por un vector, obteniendo ası́ un nuevo
vector, ya habrán recordado los detalles de su curso de Álgebra Lineal, al resolver el ejercicio cuatro de la
lista anterior; en todo caso rcordando tus cursos de cálculo no es difı́cil ver, que con la suma natural entre
funciones y el producto de estas por números reales, conjuntos como C (2) [a, b], forman un espacio vectorial
real; la diferencia esencial de este tipo de espacios con los Rn que han usado tanto en álgebra lineal como
en cálculo de varias variables, es que estos últimos son de dimensión finita, mientras que C (2) [a, b], es de
dimensión infinita, en particular el conjunto infinito de funciones pn (t) = tn con n ∈ N y t ∈ [a, b], todas
ellas pertenecientes a C (2) [a, b], es un conjunto linealmente independiente, pues para cualquier subconjunto
finito de él, la única forma de que una combinación lineal de los elementos que lo integran, sea igual alvector
cero, es que todos los escalares sean a su vez cero; por ejemplo: si consideramos el conjunto {t3 , t5 , t7 }, la
4
única forma de que α · t3 + β · t5 + γ · t7 sea la función constante cero, es que todos los escalares sean iguales
a cero.
Pero aún mas C (2) [a, b], resulta ser un espacio vectorial normado segun la definición (2).
|| || : V → R
x 7→ ||x||
Definición 2 Si V es un espacio vectorial real, dotado de una función norma: || ||, se dice un espacio
vectorial normado.
Como anotamos la norma de un vector mide su magnitud, y ası́ podemos decir que la distancia entre
dos vectores x y y es el número real: ||x − y||, con lo cual en todo espacio vectorial normado, de dimensión
finita o no, se pueden definir los conceptos de: bola abierta, bola cerrada, lı́mite y derivada, a continuación
presentamos las dos que necesitamos para continuar nuestro curso, puedes ver que en este caso las dos
definiciones, son esencialmente las que anotamos en la entrega anterior para Rn , sólo que a ahora se
dan para un espacio vectorial normado general, que puede ser de dimensión infinita, como con los que
trabajamos en nuestro curso.
Definición 3 Dado V un espacio vectorial normado, para cada x ∈ V y cada real positivo, se define la
bola abierta con centro en x y de radio , como sigue:
◦(||h||)
lı́m =0
h→O ||h||
5
En este caso decimos que el funcional lineal DΓx0 , es la primera drivada de Γ en x0 .
Si además existe una transformación bilineal, simétrica y contı́nua D(2) Γx0 : V × V → R, tal que ahora
se cumple:
1
Γ[x0 + h] = Γ[x0 ] + DΓx0 [h] + D(2) Γx0 [h, h] + ◦(||h||2 )
2
2
con ◦(||h|| ) función de error cuadrático que cumple:
◦(||h||)2
lı́m =0
h→O ||h||2
Puedes ver que ademas del cambio de notación, respecto de la definición que dimos de derivada en la
entrega anterior, se agrega el adjetivo contı́nua a la transformaciones DΓx0 y D(2) Γx0 , esto se debe a que
necesitamos que nuestra definición funcione aún en el caso de espacios de dimensión infinita, y mientras
toda transformación lineal o bilineal, con dominio un espacio de dimensión finita, es contı́nua, este no es
el caso si la dimensión es infinita, de ahı́ la necesidad de agregar dicho adjetivo, otra diferencia, si bien
sólo de nomenclatura, es que en el caso de dimensión infinita las transformaciones se acostumbran llamar
primera variación y segunda variación, en lugar de derivada y segunda derivada, a las transformaciones
DΓx0 y D(2) Γx0 , de donde el nombre de cálculo de variaciones.
La forma en que presentamos las definiciones anteriores y los resultados que presentamos a continuación,
ası́ como los ejemplos siguen la presentada en [2] y [1], el primero de los textos antes citados es como ya
comentamos el texto base de nuestro curso.
Aceptando que en los espacios vectoriales de dimensión infinita, las derivadas primera y segunda nos
informan sobre la existencia de óptimos en los funcionales, ası́ como de su tipo, de la misma manero que
lo hacen en el caso de dimensión finita, necesitamos ver como estimar tales derivadas, variaciones, para los
casos a estudiar, iniciamos entonces planteando el que es nuestro caso básico del problema del cálculo de
variaciones.
6
Para poder resolver el problema planteado, es necesario ver como son las variaciones de Γ, iniciando
con la primera variación, nos gustarı́a tener una relación como la siguiente:
Γ[x + h] = Γ[x] + DΓx [h] + ◦(||h||)
con DΓx : C (2) [a, b] → R transformación lineal y donde ◦(||h||) cumple:
◦(||h||)
lı́m =0
h→O ||h||
Ahora usando las caracterı́sticas de la función f , tenemos que para x ∈ C (2) [a, b] dado y h ∈ C (2) [a, b], con
h(a) = 0 y h(b) = 0, para que x + h ∈ C (2) [a, b], se cumple:
f (x(t) + h(t), ẋ(t) + ḣ(t), t) = f (x, ẋ, t) + fx (x, ẋ, t)h + fẋ (x, ẋ, t)ḣ + o(||(h, ḣ, 0)||) (1)
Recuerda que en un caso como el que tenemos de tres variables reales para f , se tiene:
Df(x,ẋ,t) (h, ḣ, 0) = fx h + fẋ ḣ + ft · 0
ahora usando la definición de Γ(x), podemos observar que:
Z b Z b
Γ[x + h] = f (x + h, ẋ + ḣ, t)dt = (f (x, ẋ, t) + fx (x, ẋ, t)h + fẋ (x, ẋ, t)ḣ + o(||(h, ḣ, 0)||))dt (2)
a a
la última integral anotada, se reduce a calcular la suma de cuatro integrales, la aplicada al primer sumando
toma el valor de Γ[x], si ahora usamos en el tercer sumando la fórmula de integración por partes obtenemos:
Z b Z b Z b Z b
b d
fẋ ḣ dt = fẋ dh = fẋ h]a − h dfẋ = − fẋ h dt
a a a a dt
recuerda que h(a) = 0 y h(b) = 0, y que si u(t) es diferenciable respecto de t entonces se cumple
du = dudt dt, podemos entonces, estimar la integral de los sumandos segundo y tercero como sigue:
Z b Z b
d
fx h + fẋ ḣ dt = fx − fẋ h dt
a a dt
Rb d
fẋ h dt define una transformación lineal continua de C (2) [a, b]
Se puede verificar que Dx Γ[h] = a fx − dt
Rb
en R y que a o(||(h, ḣ, 0)||) dt es una función de tipo 0(||h||), luego la primera variación de Γ en x es la
transformación definida como: Z b
d
Dx Γ[h] = fx − fẋ h dt
a dt
Ası́ para aquellas x ∈ C (2) [a, b], para las que esta transformación lineal sea identicamente cero, el funcional
Γ será practicamente constante en la cercanı́a de tales x y estos puntos serán, potencialmente, nuestros
óptimos, ahora bien para que tal transformación sea la transformación nula, debe mandar a cero a todo
z ∈ C (2) [a, b], y esto paso sólo si se cumple:
d
fx −
fẋ = 0 (3)
dt
Esta ecuación, resulta ser una ecuación diferencial, conocida como Ecuación de Eüler, y entre sus soluciones,
aquella que satisfaga las condiciones x(a) = A y x(b) = B, será nuestro candidato a óptimo.
7
Ejemplo 1
Rb√
optimizar Γ[x] = a 1 + ẋ2 dt
ẋ2
= c2
1 + ẋ2
ẋ2 + 1 − 1
= c2
1 + ẋ2
1
1− = c2
1 + ẋ2
Para que el término anotado a la izquierda de al última igualdad sea constante, el sustraendo, y por lo
tanto ẋ deben serlo también, ası́ tendremos x = m, integrando esta igualdad se obtiene que:
x = mt + r
es la solución general de la ecuación diferencial, aplicando ahora las condiciones inicial y final, se obtiene
el sistema de ecuaciones:
ma + r = A
mb + r = B
Restando la primera de estas ecuaciones a la segunda se obtine m(b − a) = B − A, luego:
B−A
m=
b−a
sustituyendo el cociente de esta expresión por m en cualquiera de las ecuaciones del sistema y haciendo
álgebra se obtiene:
Ab − aB
r=
b−a
y ası́ la ecuación de la función que optimiza el problema es la ecuación de la recta que une a los puntos
inicial y final:
B−A Ab − aB
x= t+
b−a b−a
8
Ejemplo 2 R1
optimizar Γ[x] = 0 (x2 + ẋ2 + 2xet ) dt
1
sujeta a: x(0) = 0 y x(1) = 2
Ahora se tiene:
f (x, ẋ, t) = x2 + ẋ2 + 2xet
luego:
fx = 2x + 2et , fẋ = 2ẋ
ası́ la ecuación de Eüler queda:
d
(2x + 2et ) − 2ẋ = 0
dt
ẍ − x = et
cuya solución general es:
1
x = αet + βe−t + tet
2
Un par de generalizaciones del problema básico, se presenta en los siguientes problemas, de los cuales se
presentran las ecuaciones diferenciales que deben resolverse para encontrar los óptimos, la justificación de el
porqué de tales ecuaciones es semejante al antes presentado, pero más engorrosa, ası́ que sólo presentamos
las ecuaciones sin justificarlas.
Problema. 2 Rb
optimizar Γ[x] = a f (x(t), ẋ(t), ẍ, t) dt
d
fy − dt fẏ =0
9
Ejemplo 3 R1
optimizar Γ[x] = 0 (ẍ2 + ẋ(t) + 2t2 ) dt
d d2
0− 1 + 2 2 ẍ = 0
dt dt
αt3 + βt2 + γt + δ
Ejemplo 4 R2
optimizar Γ[x, y] = 0 (x + y + ẋ2 + ẏ 2 ) dt
1 − 2ẍ = 0
1 − 2ÿ = 0
el cual por ser desacoplado nos permite resolver cada una por separado, obteniendo:
x(t) = 41 t2 + α1 t + β1
y(t) = 14 t2 + α2 t + β2
finalmente se aplican las condiciones y se obtiene:
x(t) = 41 t2 + 2t
y(t) = 14 t2 + 3t + 1
10
Ejecicios. 1
1. En el ejemplo uno encontramos la ecuación de la curva que optimiza la longitud de las curvas que
unen a los puntos (a, A) y (b, B), la cual es la ecuación de una recta, además de que intuitivamente
esto nos da un mı́nimo, para las longitudes, ¿Cómo lo podrı́as esplicar?, hazlo.
a) .
R 10
Γ[x] = 0 −(2xẋ + ẋ2 )dt
con x(0) = 10 y x(10) = 100
b) .
R2
Γ[x] = 0 (12tx + ẋ2 )dt
con x(0) = 1 y x(2) = 17
c) .
R2
Γ[x] = 0 (x + ẋ2 )dt
con x(0) = 1 y x(2) = 10
d) .
R2
Γ[x] = 0 (x2 + t2 ẋ)dt
con x(0) = 0 y x(2) = 2
e) .
R π/2
Γ[x, y] = 0 (ẋ2 + ẏ 2 + 2xy)dt
con x(0) = 0, y(0) = 0,
x(π/2) = 1 y y(π/2) = 1
f) .
R 10
Γ[x, y] = 0 (ẋ2 + ẏ 2 + et )dt
con x(0) = 0, y(0) = 2,
x(10) = 11 y y(10) = 6
g) .
R1
Γ[x] = 0 (1 + ẍ2 )dt
con x(0) = 0
y ẋ(0) = x(1) = ẋ(1) = 1
h) .
R1
Γ[x] = 0 (x + ẋ2 )dt
con x(0) = 0 y x(1) = e2 − 1
11
i) .
R π/2
Γ[x] = 0 (ẍ2 + 5ẋ − 16x2 )dt
con x(0) = 2, x(π/2) = eπ − 1
ẋ(0) = 2 y ẋ(π/2) = 2eπ
j) .
R π/2
Γ[x] = 0 (ẍ2 + 5xẋ − 16x2 )dt
con x(0) = 1, x(π/2) = e−π
ẋ(0) = 0 y ẋ(π/2) = −2e−π − 2
Referencias
[1] E. Cerda, Optimizacón Dinámica, Prentice Hall, Pearson Educación, Madrid, 2001.
[2] H. Lomelı́, B. Rumbos, Métodos Dinámicoa en Economı́a, Thomson Editores, México 2003.
12