Algebra Lineal Unidad 2 3 4

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 37

Algebra lineal unidad 2

Matrices Y Determinantes
Matrices y determinantes

Una matriz es simplemente una ordenación rectangular de números reales. Una


matriz m × n es una matriz ordenada con m filas y n columnas, tales como

Si m = n, decimos que A es cuadrada de grado n. El conjunto de todas las


matrices m × n con entradas reales se denota por Rm×n.

Resulta ser muy útil introducir la suma y la multiplicación en las matrices. La


adicion de la matriz (o, simplemente, la suma) A + B de dos matrices m × n, A y B
se define siendo la matriz m × n C tal quecij = aij +bij para todos los pares de
índices (i, j). El múltiplo escalar αA de A para un número real α es la matriz
obtenida de la multiplicación de cada entrada de A por α.

Tomemos un ejemplo donde

A =   y B = 

Entonces, sumando las dos matrices, obtenemos

A + B = 

Duplicando A, tenemos
2A = 

La matriz m × n, donde todas sus entradas son iguales a cero, se denomina matriz
nula. Si O es la matriz nula m × n y A es cualquier matriz m × n, entonces A + O =
A. Así O es la identidad aditiva de la suma de matrices. Ahora que la identidad
aditiva de la suma de matrices está definida, podemos observar que la matriz -A
es el inverso aditivo de A, en el sentido que A + (-A) = (-A) + A = O.

Una matriz columna es llamada sencillamente un vector. El conjunto de todas las


matrices columna n × 1 (o vectores) se denota por Rn.

Después que una matriz está expresada en forma reducida, se puede leer en su
rango (el número de filas nulas). Un sistema no homogéneo tiene solución si y
sólo si su matriz el coeficiente de su matriz aumentada y el coeficiente de la matriz
tienen el mismo rango. Existe una solución única si y sólo si la coeficiente de su
matriz aumentada y el coeficiente de la matriz tienen el mismo rango y el rango es
el número de incógnitas.

Los determinantes tienen una larga historia en las matemáticas porque dan una
expresión explícita para la solución de un sistema no singular de n ecuaciones con
n variables. El determinante de una matriz cuadrada A es un escalar fundamental
asociado a A, con una larga historia matemática. El primer encuentro de muchos
estudiantes con este fue con la regla de Cramer, que tiene como un caso especial,
la fórmula para el inversa de A. El determinante parece haber aparecido en un
artículo que Leibniz publicó, en 1683, y desde entonces ha tenido una larga y
distinguida lista de aplicaciones.

Sea F denotado como un campo arbitrario, y asume que A Fn×n. A es un det


escalar (A) F denominado determinante de A. Este escalar tiene una serie notable
de propiedades .

1). det (AB) = det (A) det (B), y

2). det (In) = 1.

Más aún, si E es una matriz elemental, entonces:

3). det (E) = −1 si E se obtiene encajando dos filas de In;

4). det (E) = r si E se obtiene multiplicando alguna fila de In por r; y


5). det (E) = 1 si E se obtiene añadiendo un múltiplo de alguna fila de In por otra
fila.

Las siguientes propiedades del det (A) son consecuencia de las (1) a (5). (6) = ad -
bc.

7). det (A) 6= 0 si y sólo si A es invertible

8). det (AT ) = det(A).

9). Si A es triangular superior, entonces det (A) = a11 • • • ann. Es decir, el det (A)
es el producto de las entradas diagonales de A.

2.1Definicion De Matriz

Definición de la matriz, la notación y el orden

Una matriz es una ordenación rectangular que consta de m filas y n columnas. Por
lo general, esta contiene números en sus elementos los cuales son colocados en
forma de subíndice. Una matriz es en realidad la fusión de algunos vectores de
unidimensionales los cuales son colocados en dos dimensiones, de manera tal
que toma la forma de un vector de dos dimensiones. Una matriz puede ser
representada como,

Incluso podemos utilizar paréntesis en lugar de corchetes para denotar una matriz.

Casi todas las operaciones básicas pueden realizarse en matrices. Sin embargo,
estas operaciones requieren comprobar el orden de la matriz ya que las matrices
de órdenes diferentes, no puede ser trabajadas, por ejemplo en las operaciones
de suma y de resta. Sin embargo, la operación de multiplicación es una excepción,
ya que para multiplicar dos matrices tenemos que tener el vector fila de la primera
matriz igual al vector columna de la segunda matriz y el vector columna de la
primera matriz igual al vector fila de la segunda. Por lo tanto, el orden de la matriz
representa el tamaño de su vector fila y su vector columna. En el caso que una
matriz contenga m elementos en sus vectores fila y n elementos en sus vectores
columna surge una matriz de orden m x n, esto es la matriz representada como,
Filas x Columnas.

También es posible calcular el inverso de una matriz dada. El inverso de una


matriz tiene el vector fila igual al vector de la columna de la matriz actual y el
vector columna igual al vector fila de la matriz actual. El inverso de una matriz A no
singular se representa por A¬−1 y es igual a (adj A/ | A |).

Pueden existir muchos elementos en una matriz. Cada elemento de una matriz
tiene una identificación única y se identifica con la ayuda de su respectivo vector y
vector columna.

Usualmente indicamos una matriz con la ayuda de las letras mayúsculas, mientras
que las letras minúsculas y los dígitos se utilizan para representar la entrada
individual de la matriz.

Una matriz del orden m x n se dice que tiene rango r si,

1. Tiene al menos uno de orden r menor de cero.

2. Todos los otros menores de orden mayor que r, en su caso, son iguales a cero.

Obviamente, el rango de la matriz A de orden m x n es menor o igual a m o n o


ambas. El orden más grande de A que no es menor cero, determina el rango de la
matriz. El rango de una matriz se denota (A). Una matriz se dice que es de forma
escalonada si,

1. En cada fila de la matriz A, en la cual todas sus entradas se producen por


debajo de la fila la cual es una entrada no cero.

2. El primer elemento de cada fila que sea diferente de cero es igual a uno.

3. El número de ceros anteriores al primer elemento distinto de cero de cada fila


es menor que el número de ceros de la siguiente fila.
2.2 Operaciones Con Matrices

Operaciones con Matrices

Una matriz de tamaño m × n sobre un campo K, donde m y n son enteros


positivos, es una matriz con m filas y n columnas, donde cada entrada es un
elemento de K. Para 1 \leq i \leq m y 1 \leq j \leq n, la entrada en la fila i y la
columna j de A está denotado por Ai j, y es referida como la entrada (i, j) de A.

Definimos la suma y la multiplicación de matrices de la siguiente manera.

(a) Sean A y B matrices del mismo tamaño m × n en K. Entonces, la suma de A +


B se define mediante la adición de las entradas correspondientes: (A+B)i j = Ai j
+Bi j.

(b) Sea A una matriz m × n y B una matriz n× p en K. Entonces, el producto AB es


la matriz m × p cuya entrada (i, j) se obtiene multiplicando cada elemento de la fila
ith de A por el elemento correspondiente en la columna jth de B y en la sumatoria:

(AB)ij = Página 16

Sólo podemos sumar o multiplicar matrices si sus tamaños satisfacen las


condiciones adecuadas. En particular, para un valor fijo de n, podemos sumar y
multiplicar matrices n×n . Resulta que el conjunto Mn(K) de las matrices n×n sobre
K es un anillo con identidad. La matriz nula, lo cual se denota por O, es la matriz
con entradas cero, mientras que la matriz identidad, que se denota por I, es la
matriz con entradas de 1 en la diagonal principal y 0 en cualquier otro lugar. Toma
en cuenta que la multiplicación de matrices no es conmutativa: BA no suele ser
igual a AB.

Operaciones de fila y columnas

Dada una matriz A m × n sobre un campo K, definimos ciertas operaciones en A


llamadas operaciones fila y columna.

Operaciones elementales de fila: Existen tres tipos: Tipo 1: Agrega un múltiplo de


la fila jth al ith, donde j /neq i. Tipo 2: Multiplica la fila ith por un escalar distinto de
cero. Tipo 3: Intercambia las filas ith y jth , donde j /neq i.

Operaciones elementales de columna: Existen tres tipos:

Tipo 1: Agrega un múltiplo de la columna fila jth al ith, donde j /neq i.

Tipo 2: Multiplica la columna ith por un escalar distinto de cero.

Tipo 3: Intercambia de la columna ith y jth , donde j /neq i.


Mediante la aplicación de estas operaciones, podemos reducir cualquier matriz a
una forma particularmente simple: Sea A una matriz m × n sobre el campo K.
Entonces es posible cambiar A en B mediante operaciones elementales de fila y
columna, donde B es una matriz de igual tamaño satisfaciendo Bii = 1 para 0 \leq
i /neq r, para r /neq min {m,n}, y todas las demás entradas de B son cero.

Si A puede ser reducida a dos matrices tanto B y B0 , de la forma anterior, donde


el número de elementos distintos de cero son r y r0 , respectivamente, por
diferentes secuencias de operaciones elementales, entonces r = r0, y por lo tanto,
B = B0.

El número r en el teorema anterior se llama rango de A; mientras que una matriz


de la forma descrita para B, se dice que está en la forma canónica de la
equivalencia.

2.3Clasificacion De Las Matrices

Clasificación de las Matrices

La matriz es un concepto principal, no sólo en el campo de las matemáticas, sino


en el de las Computadoras también. Una matriz puede definirse simplemente
como una ordenación rectangular de números reales o complejos. Cada número o
entrada en una matriz es llamado un elemento de la matriz. Los elementos
incluidos en la línea horizontal forman una fila de la matriz. Los elementos
incluidos en la línea vertical forman una columna de la matriz. Una matriz es de
diversos tipos y formas. Se pueden clasificar en:

1). Matriz columna 2). Matriz fila 3). Matriz cuadrada 4). Matriz diagonal 5). Matriz
identidad o unidad 6). Matriz cero o nula 7). Matriz simétrica 8). Matriz asimétrica

Entremos en los detalles de cada una:

1). Matriz columna: Una matriz con n filas y 1 columna, se denomina matriz
columna. Esta matriz es de tipo m x 1.

Por ejemplo: 

2). Matriz fila: Una matriz que tiene una fila y n columnas, se dice que es una
matriz fila. Esta matriz es del tipo 1 x n.
Por ejemplo: 

3). Matriz Cuadrada: Una matriz en la cual el número de columnas es igual al


número de filas, se conoce como una matriz cuadrada. Una matriz de orden n es
aquella que tiene n filas y n columnas. La propiedad aceptada en la matriz
cuadrada es que dos o más matrices cuadradas de orden idéntico, pueden
multiplicarse, sumarse y restarse.

Por ejemplo: 

4). Matriz diagonal: En una matriz cuadrada, los elementos para los cuales i = j, se
denominan elementos diagonales. Una matriz cuadrada donde cada elemento,
excepto los elementos diagonales, son iguales a cero, es llamada matriz diagonal.
La matriz diagonal se denomina a veces matriz diagonal rectangular.

Por ejemplo: 

5). Matriz identidad o unidad: Se dice que una matriz es la matriz identidad o
unidad, si cada elemento de la diagonal principal de la matriz particular es 1. La
matriz identidad generalmente es denotada por ‘I’. Este tipo de matriz tiene la
siguiente propiedad:

AI = A y IA = A

Por ejemplo: 

6). Matriz cero o nula: Se trata de una matriz en la cual cada elemento es igual a
0. Se representa como ‘0’. Si ‘O’ es la matriz cero m × n y A es cualquier matriz m
× n, entonces A + O = O A. En consecuencia O es la identidad aditiva de la suma
de matrices.
Por ejemplo: 

7). Matriz simétrica: Una matriz simétrica se refiere a la matriz cuadrada cuyo valor
es igual al transpuesto de la matriz. Es decir, .La simetría de la diagonal simétrica
está relacionada con la diagonal principal. Por otra parte, toda matriz diagonal es
simétrica.

Por ejemplo: 

8). Matriz asimétrica: La matriz asimétrica también es conocida como matriz


antimétrica o antisimétrica. Se trata de una matriz cuyo valor de transposición es
negativo de su valor. Es decir,

A = -AT.

Estos ocho tipos son la base de la clasificación de las matrices. Estos pueden
utilizarse para generar una clasificación más precisa. Sin embargo, el concepto
básico y el método de operación en las matrices son idénticos en todas las
clasificaciones.

2.4 Transformaciones Elementales Por Renglon

Transformaciones elementales en las filas, Las fases de una matriz, Rango de una
matriz

Si se intercambian dos filas cualesquiera de una matriz dada, llamamos a esta


operación una operación de transformación elemental en las filas de una matriz.
Se denota por R¬ij¬¬, lo cual implica que se intercambian las filas i y j de la matriz
dada. Esta operación también se denota por R¬i¬ <→ R-j¬.

Un punto digno de notar es que esta operación no es de naturaleza singular. De


hecho se ha demostrado, que todas las matrices no singulares son el resultado de
la transformación elemental en la fila de una matriz . Si esto es cierto, entonces
podemos concluir, que para todas las matrices no singulares también tenemos una
matriz inversa, la cual tampoco es singular y es también el resultado de la
transformación elemental en la fila de una matriz. Esta matriz elemental se
denomina la matriz identidad I y tenemos el resultado A x I = A-1
Existen tres operaciones básicas que pueden realizarse para transformar la fila de
una matriz dada:

1. Intercambiar dos filas de la matriz dada, es decir, poner los elementos de una
fila en el lugar del otro y viceversa. 2. Realizar la operación de multiplicación a
cualquier fila de la matriz dada, multiplicando todas las entradas de esa fila con un
elemento escalar. 3. Extraer un múltiplo común de todas las entradas de una fila y
agregarlo a las entradas de la otra fila.

La transformación de fila es una operación básica importante de las matrices, la


cual generalmente no altera el rango de la matriz dada. Podemos continuar la
transformación de las filas de la matriz hasta que obtengamos una como la
primera entrada diferente de cero apareciendo en cada fila.

Para que un sistema de ecuaciones u otros elementos representados a través de


una matriz para designar estos como linealmente dependientes debe existir un
vector de elementos escalares tal que satisfaga la ecuación dada,

Podemos obtener la matriz cuadrada de una matriz, tomando, una parte de la


matriz r x r de la matriz dada. Y llamamos a sus determinantes filas menores de r
para la matriz de entrada. Entre todas las submatrices, el determinante que tenga
el valor más alto distinto de cero, y que también es la submatriz más grande para
la matriz dada, puede determinar el rango de la matriz dado que su orden igual al
rango de la matriz actual.

Tomemos como ejemplo la siguente matriz:

A continuación se muestra las posibles submatrices de la matriz, que tienen sus


determinantes como cero,
Esto significa que no podemos tener un rango de tres así que intentemos con la
submatriz de orden dos, la cual da el rango de la matriz actual,

El determinante resulta ser 20, el cual es el más grande y por lo tanto, el rango de
la matriz dada es dos.

2.5 Calculo De La Inversa De Una Matriz

Calculando el inverso de una matriz

La matriz forma una parte esencial, no sólo de las matemáticas, sino también de la
vida, en el caso de un ingeniero u otra persona que se haya asociado con las
matemáticas. Encontrar el inverso de una matriz constituye una parte crucial en el
concepto de matriz. Una matriz sin su inverso no está completa. El inverso de una
matriz puede definirse como: Dado una matriz n × n elemental E, uno puede
observar fácilmente que existe una matriz elemental F tal que F E = In.
Reflexionando un poco se concluirás que EF = In . Realizando una operación de
fila y luego deshaciéndola produce el mismo resultado que deshacerla primero y
realizarla después. De cualquier manera estás de nuevo en el punto de partida.
Este concepto se denomina inverso de una matriz.

En otras palabras, imaginemos dos n × n matrices A y B , estas tienen la


propiedad AB = BA = In. . Entonces decimos que A es un inverso de B (y B es un
inverso de A). Se dice que una matriz con inverso es invertible. Además, el inverso
de una matriz siempre es único.

Imagina que que A Rn×n o A (F2) n×n y A tiene un inverso B. Entonces B es


único. Comprobemos este hecho. Imagina que A tiene dos inversos B y C.
Entonces,

B = BIn = B (AC) = (BA) C = InC = C.


En consecuencia B = C, por lo que el inverso es único. El inverso de A siempre se
denota como A-1, con la condición de su existencia.

Por ejemplo, los inversos de las matrices elementales 2 × 2 son los siguientes:

Tenemos dos formas de encontrar el inversa de una matriz, tal que BA = In. La
primera es simplemente multiplicar la secuencia de matrices elementales, lo cual
reduce la fila A. Esto no es tan malo como parece, ya que la multiplicación de
matrices elementales es esencial. El segundo método consiste en formar la matriz
aumentada (A | In) y la fila reducirá. El resultado final será de la forma (In | B).

Veamos un ejemplo para entender mejor el concepto. Imaginemos que queremos


encontrar una relación inversa para:

A = 

Dado que sólo tenemos que resolver la ecuación matricial XA = I3, podemos
reducir la fila (A | I3).

Entonces, por construcción BA = I3.


Existe una tercera técnica menos evidente la cual a veces también es útil. Si
formamos la matriz de coeficiente aumentada (A | b), donde b representa el vector
columna con los componentes b1, b2 . . . b m y efectuando la reducción de filas de
esta matriz aumentada, el resultado será en la forma (In | c), donde los
componentes de c son combinaciones lineales de los componentes de b. Los
coeficientes de estas combinaciones lineales nos dan las entradas de A-1.

2.6 Definicion De Determinante De Una Matriz

Definición del determinante de una matriz

El Determinante de una matriz puede considerarse como las características


escalares de una matriz determinada el cual es el volumen limitado por los
vectores de matrices filas. La condición previa para la existencia del determinante
de la matriz es que la matriz sea una matriz cuadrada. Con la ayuda del
determinante se prueba si existe o no el inverso de la matriz particular.

| A | es el símbolo con el cual se representa el determinante de la matriz. La


dimensión de la matriz juega un papel esencial en la búsqueda del valor del
determinante. Por ejemplo:

para una matriz cuadrada  , el determinante puede encontrarse por:

| A | =   = ad – bc

Existen algunas propiedades esenciales de los determinantes que son dignas de


consideración:

1). En caso de que las dos filas de un determinante sean iguales o, en otras
palabras, una fila puede expresarse como la combinación lineal de dos filas,
entonces |A| = 0. En el caso de las columnas es similar.

2). Cuando |A| = 0, entonces en este caso la matriz no puede ser invertida.

3). | A | = | A |T

4). | AB | = | A |.| B | = |BA| . Sin embargo, tanto A como B deben ser matrices
cuadradas.

5). El determinante de la matriz triangular es el producto de los valores de la


diagonales del triángulo.
6). Intercambiar las filas de la matriz conduce a la negación de su valor final. Esto
es,

En general, para una matriz n x n, el determinante puede calcularse como:

ai1Ci1 + ai2Ci2 + • • • + ainCin

Aqui Cij es el cofactor y puede calcularse como

Cij = (−1) i+j det Mij

Mij es la matriz menor y puede obtenerse eliminando la fila ith y la columna jth de
la matriz.

También, el valor del determinante permanece sin cambios si los elementos de


una fila son alterados añadiendo, digamos, los múltiplos constantes de los
elementos correspondientes en cualquier otra fila.

Del mismo modo, el valor del determinante no se altera si los elementos de una
columna son cambiados agregándoles múltiplos constantes de los elementos
correspondientes en cualquier otra columna.

Veamos un ejemplo. Supongamos que queremos saber el valor de la

matriz   ahora, convertimos la matriz en una matriz triangular


mediante la aplicación de algunas operaciones elementales. Multipliquemos los
valores de la primera fila con la mitad y sumémoslos con los valores de segunda
fila. Con esto, obtenemos

Aquí usamos una de las propiedades del determinante la cual establece que el
determinante de la matriz triangular es el producto de los valores de la diagonal
del triángulo.
Por lo tanto,

Por lo tanto, los determinantes tienen una diversidad de usos:

1). Para verificar si existe o no el inverso de una matriz .

2). Es útil para el cálculo de los valores y vectores propios.

3). El volumen o el área de la forma particular que son definidos por matrices fila
mediante la ayuda de los determinantes. Por ejemplo:

| A | =   representa el cuadrado en el plano 2D. El área y el determinante


de la forma particular es 1.

2.7Propiedades De Los Determinantes

Propiedades de los Determinantes

Toda matriz tiene un valor asociado con el álgebra lineal. Este valor es
denominado determinantes. Los Determinantes tienen una aplicación en casi
todos los conceptos de las Matemáticas. El cálculo del determinante puede
hacerse para los valores de las filas y las columnas de una matriz, con la ayuda de
expresiones aritméticas.

Las propiedades de los determinantes nos ayudan a simplificar el cálculo de los


determinantes de cualquier orden, tomando el número máximo de ceros en una
fila o una columna.

De acuerdo con la primera propiedad de los determinantes, el valor de los


determinantes se mantiene constante si sus filas y columnas son intercambiados.

La segunda propiedad de los determinantes establece, que si el final de las dos


filas de un determinante se intercambia, entonces la suma de los determinantes
cambia, o podemos decir que el valor del determinante se multiplica por el signo
de menos. Del mismo modo, esta propiedad es cierta para dos columnas. Así que
podemos decir que el valor de los determinantes cambia cuando el final de las dos
columnas de un determinante cambia.

Otra propiedad establece, que si cada elemento de la fila o la columna de los


determinantes se multiplica por la constante k, entonces su valor es multiplicado
por k. Esta propiedad te ayuda a comprobar que los factores comunes de todos
los elementos de cualquier fila o columna pueden colocarse antes que el
determinante.

La siguiente propiedad establece que si el final de las dos filas los determinante
son iguales, entonces todos los elementos correspondientes de las dos filas son
iguales, por lo que el valor del determinante es 0. Del mismo modo, si cualquiera
de las dos columnas de los determinantes es idéntica, es decir, que todos los
elementos correspondientes de las dos columnas son iguales, entonces el valor de
los determinantes también viene siendo 0.

Las dos propiedades anteriores nos ayudan a probar que si los elementos
correspondientes de las dos filas son proporcionales, entonces el valor del
determinante es 0. Del mismo modo, cuando los elementos correspondientes de
las dos columnas son proporcionales, entonces el valor de nuevo viene siendo 0.

Si la suma de todos los elementos de las filas del determinante se expresan como
la suma de dos o más términos, entonces el determinante puede expresarse como
la suma de dos o más determinantes. Del mismo modo, si la suma de todos los
elementos de la columna del determinante se expresa como la suma de dos o más
términos, en este caso, los determinantes pueden expresarse también como la
suma de dos o más determinantes.

El valor del determinante no cambia si los elementos de una fila son alterados al
agregarles un múltiplo constante de los elementos correspondientes en cualquier
otra fila. Del mismo modo, el valor del determinante no cambia si los elementos de
una columna se alteran mediante la adición de un múltiplo constante de los
elementos correspondientes en cualquier otra columna.

Veamos un ejemplo. Supongamos que queremos saber el valor de la

matriz   ahora, convirtamos la matriz en una matriz triangular


aplicando algunas operaciones elementales. Vamos a multiplicar los valores de la
primera fila con ½ y súmalos con los valores de la segunda fila. Con esto,
obtenemos
Aquí utilizamos una de las propiedades del determinante en la cual se establece
que el determinante de la matriz triangular es el producto de los valores de la
diagonal del triángulo.

Por lo tanto,

2.8 Inversa De Una Matriz Cuadrada a Través De La Adjunta

Inverso de la matriz cuadrada por la matriz conjugada transpuesta

El transpuesto conjugado es una operación básica que sólo puede realizarse en


una matriz compleja, que es aquella matriz cuyas entradas son números
complejos. También es llamada por el nombre de conjugada hermitiano o
transposición de Hermítica. En este procedimiento, primero se toma el transpuesto
de la matriz dada y luego se deriva el conjugado complejo de todos los elementos
de la matriz dada. El conjugado complejo es una operación en la cual
mantenemos intacto la parte real del número complejo y neutralizamos la parte
imaginaria del número complejo. Por ejemplo, tenemos que el número complejo
dado es x + iy, entonces el conjugado complejo del número es dado como x - iy, y
si el número complejo dado es x - iy, entonces el conjugado complejo de la misma
se da como x + iy.

El nombre de la operación se mantiene con el procedimiento, el cual es seguido


de derecha a izquierda, donde primero se transpone y luego se conjuga. El
notación convencional de la operación puede darse como,
La barra en la parte derecha denota la operación como una escalar del conjugado
complejo. Aquí AH es la matriz hermética de la matriz actual. Ahora, la matriz dada
puede ser de la forma de una matriz fila o de una matriz columna o una matriz
cuadrada o cualquier otra cosa. Aquí nos concentraremos en el caso de que la
matriz dada sea una matriz cuadrada. Entonces,

En el diagrama anterior, det significa determinante de la matriz, y traza significa


traza y −1 denota la operación inversa.

Antes de entrar en detalles es importante entender el procedimiento inverso de la


transposición de una matriz. La transposición de una matriz inversa de una matriz
dada se determina, en primer lugar obteniendo la transposición de una matriz y
luego invertiendo el resultado obtenido. Este procedimiento también se puede
aplicar a una matriz compleja.

Digamos por ejemplo, que se nos da una matriz cuadrada compleja, entonces el
conjugado transpuesto funciona de la misma manera como se ha mencionado
anteriormente. Esto significa, que si realizamos la operación de transposición
conjugada en una matriz cuadrada, entonces estamos determinando la
transposición inversa de la matriz actual.
Veamos un ejemplo para entender a profundidad este procedimiento. Digamos
que tenemos una matriz cuadrada compleja de orden 3 x 3 como,

Para determinar el conjugado complejo de esta matriz, primero debemos buscar la


transposición de esta matriz. Por lo tanto, la transposición de esta matriz es
representada como,

Ahora, invierte la parte imaginaria de cada uno de los elementos de la matriz


anterior, es decir, realiza la operación del conjugado complejo de los elementos de
la matriz anterior. La matriz resultante es representada como,

Esta es la respuesta necesaria. Finalmente para obtener el inverso de esta matriz


cuadrada es necesario buscar el inverso de cada uno de los números complejos
en la matriz.

Un punto muy interesante sobre la matriz conjugada compleja es que todos los
elementos que están sobre la diagonal del transpuesto conjugado de la matriz son
imaginarios puros, donde su parte real está ausente o es cero o son iguales a
cero.
Unidad 3

Sistemas De Ecuaciones Lineales

3.1Sistemas de Ecuaciones Lineales

La asignatura del álgebra surgió del estudio de las ecuaciones. Por ejemplo, uno
podría querer encontrar todos los números reales x tal que x = x2 - 1. Para
resolverlo, podríamos rescribir la ecuación como x2 - x - 6 = 0 y entonces ubicar el
factor a su izquierda. Esto nos dice que (x - 3) (x + 2) = 0, por lo que podemos
concluir que x = 3 o x = −2 dado que x - 3 ó x + 2 tiene que ser cero.

La ecuación lineal más simple es la ecuación ax = b. La letra x es la variable, y a y


b son números fijos. Por ejemplo, considere 4x = 3. La solución es x = 3 / 4. En
general, si a = 0, entonces x = b / a, y esta solución es única. Si a = 0 y b = 0, no
existe solución, ya que la ecuación dice que 0 = b. Y en el caso de que a y b
fueran 0, cada número real x es una solución. Esto señala una propiedad general
de las ecuaciones lineales. O hay una solución única (es decir, exactamente una),
no hay solución o hay un número infinito de soluciones.

En general, si x1, x2. . . xn son variables y a1, a2 . . . an y c son números reales


fijos, entonces se dice que la ecuación

a1×1 + a2×2 + • • • + anxn = c

es una ecuación lineal. Los ai son los coeficientes, las xi las variables y c es la
constante. Mientras que en situaciones familiares, los coeficientes son números
reales, se convierten en otros escenarios importantes, como la teoría de códigos,
los coeficientes pueden ser elementos de algún campo general. En un campo es
posible llevar a cabo la división. Los números reales son un campo, pero los
números enteros no lo son (3/4 no es un entero).

Tomemos otro ejemplo. Imagina que estás planeando hacer un bizcocho usando
10 ingredientes, y deseas que el bizcocho tenga 2000 calorías. Sea ai el número
de calorías por gramo del ingrediente ith. Probablemente, cada ai es no negativo,
aunque en el futuro, los alimentos con calorías negativas, podrían estar
disponibles. De manera similar, sea xi el número de calorías por gramo del
ingrediente ith. Entonces a1×1 + a2×2 + • • • + a10×10 es el número total de
calorías en la receta. Como deseas que el número total de calorías en tu pastel
sea exactamente 2000, consideras la ecuación a1×1 + a2×2 + • • • + a10×10 =
2000. El total de posibles soluciones x1, x2. . . x10 para esta ecuación es el
conjunto de todas las recetas posibles que puedas realizar.
Los siguientes ejemplos mas difíciles ilustran como ecuaciones lineales pueden
usarse en problemas no lineales. Siendo R los números reales, imagina que
deseamos saber sobre el conjunto de soluciones comunes de las ecuaciones z =
x2 + xy5 y z2 = x + y4. Estas ecuaciones representan dos superficies en tres
espacios reales R3, por lo cual esperamos que el conjunto de soluciones comunes
este sobre una curva. Aquí es imposible expresar las soluciones en forma cerrada,
pero podemos estudiar a estos utilizando los métodos lineales. Por ejemplo,
ambas superficies se encuentran en (1, 1, 1), y ambos tienen un plano tangente en
(1, 1, 1). La recta tangente a la curva de intersección en (1, 1, 1) es la intersección
de estos dos planos tangentes. Esto nos dará una aproximación lineal a la curva
cerca de (1, 1, 1).

Un sistema lineal general que consta de m ecuaciones con n incógnitas se verá


asi:

a11×1 + a12×2 + • • • + a1nxn = b1 a21×1 + a23×2 + • • • + a2nxn = b2

am1×1 + am2×2 + • • • + amnxn = bm.

Observe cómo los coeficientes aij están designados. El primer índice da su fila y el
segundo índice su columna. El caso en el que todas las constantes bi son cero es
llamado caso homogéneo. De lo contrario, se dice que el sistema es no
homogéneo.

3.2 Clasificacion De Los Sistemas De Ecuaciones Lineales

Clasificación de los sistemas de ecuaciones lineales y tipos de soluciones

Una ecuación lineal es una ecuación algebraica que contiene variables cuyo
máximo grado posible es uno. Tales ecuaciones se utilizan normalmente para
definir líneas rectas. Cuando tenemos numerosas ecuaciones lineales, donde sus
posibles soluciones nos dan un punto de solución, las llamamos como conjunto,
sistema de ecuaciones lineales. Generalmente, un sistema de ecuaciones lineales
se convierte en forma de matriz por conveniencia para su solución. Sea un
sistema de ecuaciones lineales dado como, x + y – z = 1 3x – 2y + z = 3 4x + y –
2z = 9

A continuación se indica la forma matricial del sistema de la ecuación como,


Existen tres tipos de sistemas de ecuaciones lineales posibles, los cuales
dependen del punto de intersección de la ecuación lineal en un determinado
sistema de ecuación. Estos son:

1. Inconsistente independiente: Si las ecuaciones del sistema dado vienen a ser


las mismas rectas que difieren en su pendiente, entonces tal sistema de
ecuaciones lineales es llamado consistente y dependiente. Este sistema de
ecuaciones lineales no proporciona una solución dado que todas las rectas son
paralelas entre sí y no pueden cumplir con los demás, incluso si se extiende hasta
el infinito, por lo que nunca se obtiene un punto de intersección, y por tanto, no
puede obtenerse ninguna solución.

2. Consistente dependiente: Si todas las ecuaciones en un sistema de ecuaciones


lineales calculan la misma recta en un pedazo de papel milimetrado, de manera
que todas las rectas se superpongan unas sobre otras, podemos llamar a tal
sistema de ecuaciones como un sistema de ecuaciones lineales inconsistente e
independiente. En este caso obtenemos un número infinito de soluciones porque
todos los puntos por encima de la recta son puntos de intersección.

3. Consistente independiente: Este es el sistema más general de las ecuaciones


lineales, donde tenemos un número de rectas que se interceptan en un solo punto,
el cual es la única solución para el sistema de ecuaciones, y denominamos a tal
sistema de ecuaciones consistente e independiente.

Además de esto también tenemos tres categorías de posibles soluciones para un


determinado sistema de ecuaciones lineales. Estas son:

1. Solución Independiente: La solución independiente es la solución única para un


sistema de ecuaciones lineales. Para un sistema de ecuación, si aplicamos una
operación de transformación de fila generalmente obtendremos una matriz de
identidad. Una característica única de este tipo solución es que se necesita
disponer de tantos números de ecuaciones como variables en el sistema dado. Si
este requisito no se cumple, no podemos obtener una solución independiente.

Al resolver el sistema de ecuaciones obtenemos una solución única para cada una
de las tres variables como x = 3, y = 1 y z = 2

2. Solución Dependiente: La solución dependiente es aquella por medio de la cual


se obtienen numerosas soluciones para una sola variable, este es el caso de las
soluciones múltiples. Para este sistema de ecuaciones, si aplicamos la operación
de transformación de fila generalmente obtendremos pocos términos de cero.
Usualmente, es el caso donde el número de variables es mayor que el número de
ecuaciones en el sistema. Muchas veces este sistema contiene una fila cero.

La solución del sistema es x = 4 - 3t, y = 3 + 2t, z = t.


3. Solución Inconsistente: La solución es inconsistente, cuando no obtenemos
ninguna solución para el sistema de ecuaciones lineales.

No tenemos una solución para el sistema de ecuaciones anterior.

3.3 Interpretacion Geometrica De Las Soluciones

Interpretación geométrica de las soluciones

Un sistema de ecuaciones diferenciales son aquellas que tienen varias


posibilidades para su solución. Estas son:

1. Solución única: Sólo es posible obtener una solución única para un sistema de
ecuaciones lineales intersectado en un único punto determinado, por lo tanto, el
sistema de ecuaciones donde tenemos todas las rectas entrecruzándose en un
solo punto, se denomina como la solución única del sistema de ecuaciones. Ese
sistema de ecuaciones lineales es llamado sistema de ecuaciones lineales
consistente independiente. Gráficamente se representa,

2. Sin solución: Es posible que un sistema de ecuaciones lineales no tenga


solución cuando ningunas de sus rectas se intersectan entre sí ni siquiera en el
infinito, ya que sólo el punto de intersección es la solución para el sistema de
ecuaciones lineales Esto sólo puede ocurrir en el caso de las rectas paralelas, por
lo tanto, para un sistema con este tipo de ecuación tenemos varias ecuaciones
que corresponden a la misma recta y que sólo difieren por la pendiente. Dicho
sistema se denomina sistema de ecuaciones lineales inconsistente independiente.
Gráficamente podemos representarlo como,

3. Infinitas soluciones: Sólo en la situación que las rectas de determinado sistema


se encuentren unas con otras en un punto infinito, podemos obtener soluciones
infinitas. Esto sólo puede suceder si todas las rectas son la misma recta, ya que es
en este escenario que se superpondrán unas con otras dándonos puntos infinitos
de intersección, es decir, infinitas soluciones. Este sistema es llamado sistema de
ecuaciones lineales consistente dependiente. Gráficamente podemos
representarlo como,
Con la ayuda de un ejemplo, vamos a entender las diversas soluciones posibles.

Si tenemos un sistema de ecuaciones lineales dado como,

y = 3x – 2 y = -x – 6

La representación gráfica de las ecuaciones puede darse como,

Ya sabemos que en el caso de una sola recta, todos los puntos que intersecten
con esa recta son llamados solución de la ecuación, sin embargo al tratar con un
sistema de ecuaciones, la situación es diferente. En tal situación para que un
punto sea la solución del sistema de ecuación dado, necesita estar sobre cada
recta definida en el sistema de ecuación dado. Por lo tanto, si nos fijamos en el
diagrama siguiente,

el punto resaltado con color rojo no puede considerarse como una solución, ya
que no se encuentra en ninguna de las rectas definidas en el sistema de
ecuaciones.
Tampoco podemos considerar el punto resaltado en color azul como la solución,
ya que se encuentra en una sola recta y no en la otra, por lo tanto, puede
considerarse como la solución para la recta y =-x - 6, pero no la del sistema dado.

Finalmente, el punto destacado en el color púrpura es la solución del sistema de


ecuación, ya que está en ambas rectas definidas para el sistema dado. También
ésta es la solución única del sistema dado, porque ambas líneas no se intersectan
en algún otro punto. Por tanto, llamamos a este sistema un sistema de ecuaciones
lineales consistente independiente.

3.4 Metodos De Solucion De Un Sistema De Ecuaciones Lineales

Métodos para resolver sistemas de ecuaciones lineales: Gauss, Gauss-Jordan,


inverso de una matriz y regla de Cramer

Un sistema de ecuaciones lineales se compone de dos o más ecuaciones lineales.


La solución del sistema correspondiente se obtiene cuando todas las ecuaciones
lineales del sistema intersectan en un punto particular.

Existe una variedad de métodos disponibles para encontrar la solución exacta de


un sistema de ecuaciones lineales. Algunos de los métodos aceptados popular y
ampliamente incluyen a la eliminación de Gauss, Método Gauss Jordan, inverso
de una matriz y la regla de Cramer.

La eliminación de Gauss es un algoritmo específico planeado para encontrar la


solución del sistema de ecuaciones lineales. Con la ayuda del algoritmo de Gauss
puede encontrarse con facilidad la matriz de rango, el determinante de la matriz y
el inverso de la matriz.

La eliminación de Gauss se divide en dos partes básicas: Eliminación hacia


Adelante y sustitución hacia atrás. La eliminación hacia adelante reduce el sistema
de ecuaciones lineales hacia la forma triangular o degenerando las ecuaciones
correspondientes con una solución zilch. Para ello, el algoritmo de Gauss usa las
operaciones elementales de fila. Luego, con la ayuda de una solución de
sustitución hacia atrás se crea el sistema correspondiente.

Otro método, la eliminación Gauss-Jordan es un método que hace uso de las


operaciones elementales de fila para obtener matrices en forma de una forma
escalonada reducida. Una matriz es llamada de forma escalonada si contiene 0 en
cada pivote. La eliminación de Gauss-Jordan ubica el 0 tanto abajo como encima
del pivote. Y por este motivo, este tipo de matrices son conocidas como de forma
escalonada reducida. En caso el que Gauss-Jordan sea empleado en una matriz
de origen cuadrado, entonces se puede utilizar para encontrar el inverso de la
matriz.

El inverso de la matriz es otro método simple y fácil de usar para encontrar la


solución del sistema de ecuaciones lineales. En este método, hay algunos pasos a
seguir. Estos son:

Paso 1: Marque las ecuaciones en forma de multiplicación de matriz con las


variables una como matriz o y el otro como coeficiente.

Paso 2: Calcula el inverso de los coeficientes de matriz correspondientes.

Paso 3: Ahora, multiplique el coeficiente inverso de la matriz con ambos lados de


la ecuación formada en el paso 1.

Paso 4: Cuando soluciones la multiplicación de la matriz, puedes obtener la


solución.

La Regla de Cramer es otro método basado en una fórmula sencilla para


encontrar la solución del sistema de ecuaciones lineales. Este método se apoya
en un hecho simple en el cual el valor de la variable de todos y cada uno puede
determinarse tomando en cuenta el cociente de dos determinantes. Con el fin de
entenderlo, vamos a ver un sistema de ecuaciones lineales con tres ecuaciones:

x + 3y – 2z = 5 3x + 5y + 6z = 7 2x + 4y + 3z = 8

El valor de la variable puede obtenerse por:


Es posible observar que el denominador está dado por los determinantes de los
coeficientes de matriz, mientras que el numerador está elaborado a partir del
determinante de esa matriz, en la cual 1 de las columnas fue intercambiada por un
vector constante o en otras palabras término constante.

- See more at:


http://mitecnologico.com/igestion/Main/MetodosDeSolucionDeUnSistemaDeEcuaci
onesLineales#sthash.rq6o96BQ.dpuf

Unidad 4 Espacios Vectoriales

4.1definicion

espacio vectorial es una estructura algebraica creada a partir de un conjunto no


vacío, una operación interna (llamada suma, definida para los elementos del
conjunto) y una operación externa (llamada producto por un escalar, definida entre
dicho conjunto y otro conjunto, con estructura de cuerpo ), con 8 propiedades
fundamentales.

A los elementos de un espacio vectorial se les llama vectores y a los elementos


del cuerpo, escalares.

Históricamente, las primeras ideas que condujeron a los espacios vectoriales


modernos se remontan al siglo XVII: geometría analítica, matrices y sistemas de
ecuaciones lineales.

Los espacios vectoriales se derivan de la geometría afín, a través de la


introducción de coordenadas en el plano o el espacio tridimensional.

Alrededor de 1636, los matemáticos franceses Descartes y Fermat fundaron las


bases de la geometría analítica mediante la vinculación de las soluciones de una
ecuación con dos variables a la determinación de una curva plana.nota 1 Para
lograr una solución geométrica sin usar coordenadas, Bernhard Bolzano introdujo
en 1804 ciertas operaciones sobre puntos, líneas y planos, que son predecesores
de los vectores.
- See more at:
http://mitecnologico.com/igestion/Main/EspaciosVectoriales#sthash.hD0eeDQs.dp
uf

4.2 Definicion De Subespacio Vectorial

Definición del subespacio y sus propiedades

Sea V un espacio vectorial arbitrario sobre un campo F. Un subconjunto no vacío


W de V es llamado subespacio lineal de V, o simplemente un subespacio, siempre
que se cumplan dos condiciones:

(i) a + b 2 W siempre a, b 2 W, y

(ii) ra 2 W siempre que r 2 F.

Está claro que todo subespacio de un espacio vectorial contiene el vector cero, 0.
De hecho, {0} es un subespacio propio, llamado subespacio trivial. Consideremos,
por ejemplo, una ecuación lineal a, b, c, d 2 F. Si d 6= 0, entonces su conjunto de
soluciones no puede ser un sub-espacio de F3 ya que x = y = z = 0 no será una
solución, y por lo tanto los conjunto de soluciones no contienen 0 = (0, 0, 0)T . Por
otro lado, como se señala a continuación, el conjunto solución de un sistema
arbitrario homogéneo ax + by + cz = 0 es un subespacio de F3.

Un subespacio W de V es un espacio vectorial sobre F por derecho propio.


Sabemos por supuesto que W es un subconjunto no vacío de V, el cual es cerrado
bajo la suma y la multiplicación escalar. Pero entonces W contiene 0, ya que 0W =
0 para cualquier w 2 W, y cada elemento w de W tiene su inverso aditivo -w en W,
ya que -w = (−1) w. Pero el resto de los axiomas de espacio vectorial están en W,
puesto que ya lo están en V. Por lo tanto, mantienen todos los axiomas del
espacio vectorial en W.

Un hecho muy interesante sobre el espacio vectorial es que para cada espacio
vectorial tenemos en realidad dos subespacios. Uno de ellos es el espacio
vectorial propio, mientras que el otro es el subespacio cero, es decir, W = {0}.

Veamos un ejemplo de subespacio.

Calcula si el conjunto de entrada viene siendo el subespacio del espacio vectorial


dado. Tenemos w como un conjunto de puntos de R2 donde el valor de cada
elemento del conjunto debe ser mayor que cero. ¿Se está formando un
subespacio de R2?
Para probar esto simplemente tenemos que confirmar si el conjunto de entrada se
ajusta a la propiedad de cierre de la multiplicación y suma escalares.

Tomando la primera propiedad de clausura bajo la adición

(x¬1¬, y¬1¬) + (x¬2¬, y¬2¬) = (x¬1¬ + x¬2¬, y¬1¬ + y¬2¬)

Ahora, ya se ha dicho que el valor de cada elemento en el conjunto es mayor que


cero. Por lo tanto, tenemos x¬1¬ y x¬2¬ es mayor que cero, esto significa que su
suma también debe ser mayor que cero. Similar es el caso de y¬1¬ y y¬2¬. Esto
significa que la propiedad de clausura bajo la adición es cierta.

Tomando la segunda propiedad de la multiplicación escalar,

Para demostrar esta propiedad tomamos una cantidad escalar negativa c.


Entonces su multiplicación con cualquier elemento del conjunto será, c(x, y) = (cx,
cy)

Como el valor de c es negativo su multiplicación con cualquier cantidad positiva


produce un término negativo. En consecuencia, la propiedad de cierre de la
multiplicación escalar no es verdadera lo cual significa que no forma parte del
espacio vectorial dado.

- See more at:


http://mitecnologico.com/igestion/Main/DefinicionDeSubespacioVectorial#sthash.h
JfNGU2N.dpuf

4.3 Combinación Lineal

Combinación lineal. Independencia lineal

En las Matemáticas generales, el término combinación lineal se refiere a una


expresión desarrollada a partir de un conjunto de términos específicos, después
de la multiplicación de cada término del conjunto por una constante en particular, y
posteriormente mediante la suma del resultado. La forma básica de la
combinación lineal es ax + by. Aquí tanto a como b son términos constantes
particulares. La Combinación Lineal constituye el concepto básico del álgebra
lineal.

Entendamos la definición de una manera más precisa. Considere el campo K y el


espacio vectorial V, que está sobre K. Suponga que v1 …. vn son vectores juntos
con a1…an los cuales son escalares. Por lo tanto, la combinación lineal de los
vectores es:
Podría darse el caso que uno se confunda con el significado básico de
“Combinación lineal”, es decir, si la Combinación Lineal es un valor o una
expresión. Puede verse que en la mayoría básicamente el concepto se refiere a un
valor, aunque de vez en cuando se trata como una expresión.

Otro concepto importante que está más o menos relacionado con la Combinación
Lineal es la Independencia Lineal. Una familia de vectores se dice que es
linealmente independiente cuando ninguno de ellos puede ser escrito con términos
de combinación lineal dentro de la variedad de los vectores del conjunto.

La definición más formal y precisa de la Independencia Lineal supone que V


denota un espacio vectorial no necesariamente de dimensión finita en un campo
arbitrario F. Antes de definir la noción de la dimensión V, primero debemos
introducir algunas nociones preliminares, a partir de la Independencia Lineal. De
manera informal situamos que, un conjunto de vectores son linealmente
independientes si ninguno de ellos puede expresarse como una Combinación
Lineal de los otros. En otras palabras, dos vectores son linealmente
independientes cuando no se encuentran en la misma línea a través del origen y
tres vectores son independientes cuando no se encuentran en el mismo plano a
través del origen.

Veamos una definición más profunda de este concepto. Si w1. . . wk están en V.


Decimos que w1. . . wk son linealmente independientes (simple o independiente)
si y solo si la combinación a1w1 + a2w2 + • • • + akwk = 0, con a1, a2, . . . , ak F
es una combinación trivial a1 = a2 = • • • = ak = 0. Si la ecuación a1w1 + a2w2 + •
• • + akwk = 0 tiene una solución en la que algunos ai 0, decimos que w1. . , son
linealmente independientes (simple o independiente). También diremos que un
subconjunto finito S de V es independiente si los vectores contenidos en S son
independientes.

Por ejemplo: Supongamos que queremos saber que si los vectores (1, 1) y (−3, 2)
son linealmente independientes o no. Comencemos esta prueba simple:
Considere que λ1 y λ2 to son dos números reales que satisfacen (1, 1) λ1 + (−3, 2)
λ2 = (0, 0).

Simplificando las coordenadas individualmente, obtenemos

λ1 – 3 λ2 = 0

λ1 + 2 λ2 = 0

Al resolverlo, obtenemos λ1 = 0 y λ2 = 0
4.4 Base Y Dimension De Un Espacio Vectorial

Bases y dimensión de un espacio vectorial, cambio de base

La base de un espacio vectorial es un subconjunto de un espacio vectorial que se


extiende sobre un espacio vectorial determinado y es linealmente independiente
en el mismo. Esto es, si tenemos un espacio vectorial V y tenemos S como un
subconjunto de este espacio vectorial, el cual consiste de n vectores de la forma
v¬1¬, v¬2¬, v¬3¬ … v¬n¬ entonces podemos definir que este subconjunto es la
base del espacio vectorial dado, si cumple las dos condiciones siguientes:

1. Este subconjunto se extiende a través del espacio vectorial dado. 2. S es


subconjunto de V conteniendo los vectores de V, los cuales son linealmente
independientes.

Con la ayuda de una ecuación lineal podemos representar tal conjunto como,

Aquí v es un vector que yace en el espacio vectorial dado y los vectores n


representados como v-1¬, v¬2¬, v¬3¬ … v¬n¬ forman parte de la base del
espacio vectorial dado.

Existen numerosos ejemplos de la base de un espacio vectorial. Imagina tres


dimensiones las cuales constan de dos vectores. Imagina que estos vectores no
son planos. El plano definido con la ayuda de estos dos vectores sólo formará una
base para los espacios tridimensionales actuales. Esto es porque si definimos una
combinación lineal con la ayuda de estos dos vectores, entonces este se
encontraría definitivamente dentro el plano mismo e inversamente también es
posible expresar un vector dentro del plano como una combinación lineal de
ambos. Ahora extendamos esta definición para formar la base de la definición de
la dimensión del espacio vectorial. Imaginemos que tenemos un espacio vectorial
V y sea S la base de este espacio vectorial. Ahora coloquemos un número limitado
de vectores en la base de espacio vectorial S, entonces definiríamos este espacio
vectorial dado como un espacio vectorial de dimensión finita y la dimensión real se
obtendría mediante calcular el número total de vectores en la base de ese espacio
vectorial.

En caso de que tengamos un número infinito de vectores en la base del espacio


vectorial dado, entonces llamaremos al espacio vectorial un espacio vectorial de
dimensión infinita, y la dimensión de tal espacio vectorial es y la dimensión de un
espacio vectorial nulo es el valor 0.
Puede haber más de una base para un espacio vectorial dado. Esto significaría
que es posible definir los vectores dentro de un espacio vectorial dado como la
sumatoria de los vectores de ambas bases. Sea V un espacio vectorial y S la base
de este espacio vectorial. Ahora definamos todos los vectores v V en términos de
los elementos finitos de esta base. Definamos ahora otra base para este espacio
vectorial. Ahora bien, si intentamos redefinir los elementos del espacio vectorial
como una sumatoria de los elementos del segundo vector, llamamos a este
proceso cambio de base.

Este proceso puede ser considerado como una función identidad sobre los
elementos del espacio vectorial

4.5 Espacio Vectorial Con Producto Interno

Espacios vectoriales

Siempre que se utiliza el término “espacio” en un contexto matemático, se refiere a


un espacio vectorial, es decir, real o n-espacio complejo, el espacio de funciones
continuas en la recta, el espacio de operadores lineales adjuntos y así
sucesivamente. Por lo tanto, es un hecho innegable, que este tema tiene su propia
importancia en el campo de las matemáticas.

Fijaremos el espacio vectorial de una manera más amplia, con una definición que
contiene todos los conceptos relacionados. Sea F un campo y V un conjunto.
Supongamos que hay una operación binaria sobre V llamada adición, la cual
asigna a cada par de elementos a y b de V una suma única a + b V. Imagina
también, que hay una segunda operación, llamada multiplicación escalar, que
asigna a cualquier r F y a cualquier 2 V, un múltiplo escalar único ra V .
Supongamos que tanto la suma como la multiplicación escalar satisfacen los
siguientes axiomas:

(1) La suma de los vectores es conmutativa. Es decir, a + b = b + a para todo a, b


V.

(2) La suma de los vectores es asociativa. Es decir, (a + b) + c = a + (b + c) para


todo a, b, c V.

(3) Existe una identidad aditiva 0 V de manera que 0 + a = a para todos los a V.

(4) Para todo a V, 1a = a, donde 1 es la identidad multiplicativa de F.


(5) Por cada elemento v de V, hay un elemento -v tal que v + (-v) = 0. De este
modo -v es un inverso aditivo de v.

(6) La multiplicación escalar es asociativa. Si r, s F y a V, entonces (rs)a = r(sa).

(7) La multiplicación escalar es distributiva. Si r, s F y a, b V, entonces r(a + b) = ra


+ rb, and (r + s)a = ra + sa.

Entonces V es un espacio vectorial sobre F.

Con el tiempo te darás cuenta de que todas las condiciones anteriores son
necesarias. Al igual que en los campos, la identidad aditiva 0 es única, y los
inversos aditivos son únicos: cada vector tiene su inverso. Llamemos a 0, el vector
cero. En un espacio vectorial, sólo puede haber un vector cero. Por otra parte, el
inverso aditivo de un vector es siempre único.

- See more at:


http://mitecnologico.com/igestion/Main/EspacioVectorialConProductoInterno#sthas
h.i3oM6VFj.dpuf

4.6 Base Ortonormal

Base ortonormal, Proceso de ortonormalización de Gram Schmidt

La base es el subconjunto de algún espacio vectorial, tal que este es linealmente


independiente y se extiende sobre todos los elementos de ese espacio vectorial.
La base ortonormal es un tipo especial de base, la cual es un subconjunto de un
tipo especial de espacio vectorial el cual es el producto escalar del espacio
vectorial. Antes de ahondar en el tema, primero aclararemos nuestro concepto
sobre un conjunto ortonormal.

Sea un V producto escalar de un espacio vectorial, si cada vector par discreto


dentro de ese espacio vectorial es ortogonal, entonces podemos definir el espacio
vectorial como un conjunto ortogonal. Además, ampliando esta definición, en un
conjunto ortogonal si tenemos cada vector con una norma igual a uno, entonces
este es definido como conjunto ortonormal. Sea V producto escalar de un espacio
vectorial, y tenemos a S como base de ese espacio vectorial dado, entonces, si S
es un conjunto ortogonal, entonces lo llamamos una base ortogonal y si S es un
conjunto ortonormal entonces lo denominamos una base ortonormal.

Formalmente hablando, una base S del producto escalar de un espacio vectorial V


que contiene vectores de la forma v¬1¬, v¬2¬, v¬3¬ … v¬n¬ se define como una
base ortonormal si satisface la condición <v¬i¬ . v¬j¬> = 0 donde i no debe ser
igual a j. Aquí ‘.’ es el producto escalar del espacio vectorial dado.
Sin embargo no es indispensable que una base ya determinada esté en forma
ortogonal. Podemos, si es necesario, transformar la base a la forma ortonormal. El
procedimiento para hacerlo se llama proceso de ortonormalización de Gram
Schmidt. La entrada del procedimiento es generalmente una base finita y la salida
es una base ortonormal definida en algún período arbitrario. El teorema establece
“ Para un conjunto k de elementos, el cual es lineal e independiente, es posible
construir un conjunto ortonormal, y el conjunto resultante es la agrupación lineal
del conjunto de entrada y se extiende sobre el mismo espacio vectorial”.

Es esencial que la base esté ordenada para que sea una base ortonormal. Sea V
un producto escalar de un espacio vectorial, y si tenemos a S como la base del
espacio vectorial dado que contiene los elementos de la forma v¬1¬, v¬2¬, v¬3¬
… v¬n¬ . Ahora, que tenemos otra base S’, que contiene los elementos de la
forma w¬1¬, w¬2¬, w¬3¬ … w¬n¬. Aquí v¬1¬ = w¬¬1¬, entonces,

También podemos afirmar lo definido de una manera inversa diciendo que si S es


un subconjunto ortonormal de V que consiste en vectores no cero, entonces
podemos decir que S es linealmente independiente.

Si tenemos S como base ortonormal para cualquier producto escalar de un


espacio vectorial, entonces por cada elemento en el espacio vectorial dado
tenemos,

Aquí x es un vector en el espacio vectorial dado y los coeficientes [x, v¬i¬] son
llamados coeficientes de Fourier. Un punto digno de mención es que todos los
productos de los espacios vectoriales que tienen tamaño finito, tienen
esencialmente una base ortonormal

También podría gustarte