Espaço vetorial

estrutura matemática formada por uma coleção de elementos chamados de vetores
 Nota: Não confundir com Campo vetorial.

Um espaço vetorial (também chamado de espaço linear) é uma coleção de objetos chamada vetores, que podem ser somados um a outro e multiplicados ("escalonados") por números, denominados escalares. Os números reais são escalares frequentemente utilizados, mas também existem espaços vetoriais com multiplicação por números complexos, números racionais; em geral, por qualquer corpo.[1] As operações de adição de vetores e multiplicação por escalar precisam satisfazer certas propriedades, denominadas axiomas (listados abaixo, em § Definição). Para explicitar se os escalares são números reais ou complexo, os termos espaço vetorial real e espaço vetorial complexo são frequentemente utilizados.

Adição vetorial e multiplicação por escalar: um vetor v (azul) é adicionado a outro vetor w (vermelho, ilustração superior). Na imagem inferior, w está esticado por um fator de 2, acarretando a soma v + 2w.

Vetores euclidianos são um exemplo de espaço vetorial. Eles representam quantidades físicas como forças: quaisquer duas forças (do mesmo tipo) podem ser somadas para resultar em uma terceira, enquanto que a multiplicação de um vetor de força por um número real gera outro vetor de força. De forma semelhante, porém com um sentido mais geométrico, vetores que representam deslocamentos em um plano ou em um espaço tridimensional também formam espaços vetoriais. Vetores em espaços vetoriais não necessitam ser objetos do tipo seta, como aparecem nos exemplos mencionados acima; vetores são tratados como entidades matemáticas abstratas com propriedades particulares, que, em alguns casos, podem ser visualizados por setas.

Espaços vetoriais são o objeto de estudo da álgebra linear e são bem caracterizados pela sua dimensão, que, grosso modo, especifica o número de direções independentes no espaço. Espaços vetoriais de dimensão infinita surgem naturalmente em análise matemática, como em espaços funcionais, cujos vetores são funções. Esses espaços vetoriais são munidos em geral de uma estrutura adicional, que pode ser uma topologia, permitindo a consideração de conceitos como proximidade e continuidade. Dentre essas topologias, aquelas que são definidas por uma norma ou um produto interno são mais frequentemente utilizadas, por possuírem uma noção de distância entre dois vetores. Esse é o caso particularmente com os espaços de Banach e os espaços de Hilbert, que são fundamentais em análise matemática.

Historicamente, as primeiras ideias que levaram ao conceito de espaços vetoriais podem ser associadas aos avanços, durante o século XVII, nas áreas de geometria analítica, matrizes, sistemas de equações lineares, e vetores euclidianos. O tratamento moderno e mais abstrato, formulado pela primeira vez por Giuseppe Peano em 1888, contém objetos mais gerais que o espaço euclidiano, mas muito da teoria pode ser visto como uma extensão de ideias da geometria clássica como retas, planos, e seus análogos de dimensão mais alta. Atualmente, os espaços vetoriais permeiam a matemática, a ciência e a engenharia. Eles são a noção apropriada da álgebra linear para lidar com sistemas de equações lineares. Eles oferecem um escopo para as séries de Fourier, que são utilizadas em métodos de compressão de imagens, e eles fornecem um ambiente que pode ser utilizado para técnicas de solução de equações diferenciais parciais. Ademais, espaços vetoriais fornecem uma maneira abstrata, livre de coordenadas, de lidar com objetos geométricos e físicos como tensores. Isso por sua vez permite a análise de propriedades locais variedades por técnicas de linearização. Espaços vetoriais podem ser generalizados de diversas maneiras, acarretando noções mais avançadas em geometria e em álgebra abstrata.

Não é necessário que os vetores tenham interpretação geométrica, mas podem ser quaisquer objetos que satisfaçam os axiomas abaixo. Polinômios de grau menor ou igual a () formam um espaço vetorial,[2] por exemplo, assim como grupos de matrizes [3] e o espaço de todas as funções de um conjunto no conjunto R dos números reais.


Introdução e definição

editar

O conceito de espaço vetorial será primeiramente explicado pela descrição de dois exemplos específicos:

Primeiro exemplo: setas em um plano

editar

O primeiro exemplo de um espaço vetorial consiste de setas em um plano fixo, começando por um ponto fixo. Isso é usado em física para descrever forças ou velocidades. Dadas duas setas deste tipo, v e w, o paralelogramo formado por elas contém uma seta diagonal que também começa na origem. Essa nova seta é chamada de soma das setas anteriores e é denotada por v + w. No caso especial de duas setas na mesma linha, a soma delas é a seta na mesma linha cujo comprimento é a soma ou a diferença dos comprimentos, dependendo se as setas possuem mesmo sentido ou sentidos opostos. Uma outra operação que pode ser feita com setas é o seu escalonamento: dado qualquer número real positivo a, a seta que tem a mesma direção que v, mas está dilatada ou contraída ao multiplicar seu comprimento por a, é chamada multiplicação de v por a. É denotada por av. Quando a for negativo, av é definido como a seta apontando no sentido oposto.

A seguir estão alguns exemplos: se a = 2, o vetor resultante aw tem a mesma direção que w, mas está esticado, tendo um comprimento que é o dobro de w (imagem abaixo, à direita). De forma equivalente, 2w é a soma de w + w. Além disso, (−1)v = −v tem o sentido oposto e o mesmo comprimento que v (vetor azul apontando para baixo, na imagem à direita).

   

Segundo exemplo: pares ordenados de números

editar

Um segundo exemplo chave de um espaço vetorial é fornecido por pares de números reais x e y. (A ordem das componentes x e y é importante, de modo que um par também seja chamado de par ordenado.) Tal par é escrito como (x, y). A soma de dois desses pares e a multiplicação de um par por um número são definidas da seguinte maneira:

(x1, y1) + (x2, y2) = (x1 + x2, y1 + y2)

e

a (x, y) = (ax, ay).

O primeiro exemplo acima reduz-se a esse se as setas forem representadas por um par de coordenadas cartesianas do seus pontos finais.

Definição

editar

Neste artigo, os vetores são representados em negrito para distingui-los de escalares.[nota 1]

Um espaço vetorial sobre um corpo K é um conjunto V munido de duas operações que satisfazem os oito axiomas abaixo.

  • A primeira operação, chamada de adição de vetores ou simplesmente adição + : V × VV, leva quaisquer dois vetores v e w e associa a eles um terceiro vetor, normalmente escrito como v + w, e chamado de soma dos dois vetores iniciais. (O vetor resultante também é um elemento de V.)
  • A segunda operação, chamada de multiplicação por escalar · : K × VV, toma qualquer escalar a e qualquer vetor v e fornece um outro vetor av. (Similarmente, um vetor av é um elemento do conjunto V.)

Elementos de V são normalmente denominados vetores. Elementos de K são comumente denominados escalares.

Nos dois exemplos acima, o corpo utilizado é o corpo dos números reais e o conjunto de vetores consiste das setas planas com um ponto fixo de início e de pares de números reais, respectivamente.

Para qualificar um conjunto como sendo um espaço vetorial, ele V e suas operações de adição e multiplicação devem obedecer às condições impostas a seguir, denominadas axiomas.[4] Na lista abaixo, sejam u, v e w vetores arbitrários de V, e a e b escalares em K.

Axioma Significado
Associatividade da adição u + (v + w) = (u + v) + w.
Comutatividade da adição u + v = v + u.
Elemento identidade da adição Existe um elemento 0V, denominado vetor nulo, tal que v + 0 = v para todo vV.
Elemento inverso da adição Para todo vV, existe um elemento vV, chamado de inverso aditivo de v, tal que v + (−v) = 0.
Compatibilidade da multiplicação por escalar com a multiplicação do corpo a(bv) = (ab)v. [nota 2]
Elemento identidade da multiplicação por escalar 1v = v, em que 1 denota a identidade multiplicativa em K.
Distributividade da multiplicação por escalar em relação à adição de vetores   a(u + v) = au + av.
Distributividade da multiplicação por escalar em relação a adição do corpo (a + b)v = av + bv.

Esses axiomas generalizam as propriedades dos vetores introduzidos nos exemplos acima. De fato, o resultado da adição de dois pares ordenados (como no segundo exemplo acima) não depende da ordem dos somandos:

(xv, yv) + (xw, yw) = (xw, yw) + (xv, yv).

Da mesma forma, no exemplo geométrico de vetores como setas, v + w = w + v como o paralelogramo que define a soma dos vetores é independente da ordem dos vetores. Todos os outros axiomas podem ser verificados de forma semelhante nos outros exemplos. Portanto, ao ignorar a natureza concreta desse tipo particular de vetores, a definição incorpora esses dois exemplos e muitos outros em uma noção unificadora de espaço vetorial.

A subtração de dois vetores e a divisão por escalar (não nulo) pode ser definido como

 .

Quando o corpo dos escalares K é o dos números reais R, o espaço vetorial é chamado de espaço vetorial real; quando for o dos números complexos C, o espaço vetorial é chamado de espaço vetorial complexo. Esses dois casos são aqueles mais frequentemente utilizados em engenharia. A definição geral de espaço vetorial permite que os escalares sejam elementos de qualquer corpo fixo K. A noção é então abstraída para um espaço vetorial sobre K. Um corpo é, essencialmente, um conjunto de números que possui as operações de adição, subtração, multiplicação e divisão.[nota 3] Por exemplo, os números racionais formam um corpo.

Em contraste com a intuição provinda de vetores em um plano ou em outros objetos de dimensão maior, existe, em espaços vetoriais gerais, a noção de vizinhanças, ângulos e distâncias. Para lidar com essas questões, tipos particulares de espaços vetoriais são introduzidos.

Formulações alternativas e consequências elementares

editar

A adição de vetores e a multiplicação por escalar são operações que satisfazem a propriedade de fechamento: u + v e av pertencem a V para todo a em K, e u, v em V. Algumas referências mais antigas mencionam essas propriedades como axiomas separados.[5]

No linguajar da álgebra abstrata, os primeiros quatro axiomas são equivalentes a requerer que o conjunto de vetores seja um grupo abeliano sob adição. Os axiomas restantes dão a esse a estrutura de módulo sobre K. Em outras palavras, existe um homomorfismo de anéis f do corpo K para o anel de endomorfismo do grupo de vetores. A multiplicação por escalar av é então definida como (f(a))(v).[6]

Há várias outras consequências diretas dos axiomas de espaço vetorial. Algumas delas são derivadas teoria dos grupos elementar, aplicada ao grupo aditivo de vetores: por exemplo, o vetor nulo 0 de V e o inverso aditivo v de um vetor v são únicos. Outras propriedades seguem ao empregar também a lei de distributividade da multiplicação por escalar; por exemplo, av é igual a 0 se e somente se a é igual a 0 ou v é igual a 0.

História

editar
 Ver artigo principal: História da álgebra

Espaços vetoriais têm sua origem no ramo da geometria afim, surgindo a partir da introdução de coordenadas no plano ou no espaço tridimensional. Por volta de 1636, os matemáticos franceses René Descartes e Pierre de Fermat forneceram as bases da geometria analítica ao identificar soluções de uma equação a duas variáveis com pontos em uma curva plana.[7] Para obter soluções geométricas sem utilizar-se de coordenadas, Bolzano introduziu, em 1804, certas operações com pontos, linhas e planos; hoje, esses objetos podem ser vistos como antecessores de vetores.[8] Esse trabalho foi utilizado por Möbius em 1827 para introduzir o conceito de coordenadas baricêntricas.[9] A fundação para a definição de vetores foi a noção de Bellavitis de um "duplo ponto" ("bipoint"), um segmento orientado em que uma das extremidades é a origem e a outra é um alvo. Vetores foram repensados com a apresentação de números complexos por Argand e Hamilton, e pela criação dos quaterniões pelo último.[10] Eles são elementos em R2 e R4; o tratamento deles utilizando combinações lineares remete a Laguerre em 1867, que também definiu sistema de equações lineares.

Em 1857, Cayley introduziu a notação matricial que permitiu a harmonização e a simplificação de mapas lineares. Na mesma época, Grassmann estudou o cálculo baricêntrico iniciado por Möbius. Ele vislumbrou conjuntos de objetos abstratos munidos de certas operações.[11] Em seu trabalho, os conceitos de independência linear e dimensão, bem como o de produtos escalares, estavam presentes. De fato, a obra de Grassmann de 1844 excede o escopo dos espaços vetoriais atuais, já que ele também considera multiplicação entre vetores, o que caracteriza o conceito moderno de álgebra. O matemático italiano Peano foi o primeiro a fornecer uma definição moderna de espaços vetoriais e de transformações lineares em 1888.[12]

Um desenvolvimento importante dos espaços vetoriais foi a construção de espaços funcionais por Henri Lebesgue. Isso foi posteriormente formalizado por Banach e Hilbert, por volta de 1920.[13] À época, a álgebra e o novo ramo da análise funcional começaram a interagir, notavelmente com conceitos-chave como os espaços de funções p-integráveis e os espaços de Hilbert.[14] Também nessa época, iniciaram-se os primeiros estudos de espaços vetoriais de dimensão infinita.

Exemplos

editar
 Ver artigo principal: Exemplos de espaços vetoriais

Espaço do vetor nulo

editar

Seja   formado por um único elemento   Então, definindo-se   e   para todo elemento   de um corpo   temos que   é um espaço vetorial com   como corpo de escalares. Obviamente, como   é o elemento neutro de   isto é,   este espaço vetorial é representado por  

Espaços de coordenada

editar
 Ver artigo principal: Espaço de coordenadas

O exemplo mais simples de um espaço vetorial sobre um corpo K é o próprio corpo, equipado com suas adição e multiplicação padrão. De forma mais geral, todas n-uplas (sequências de comprimento n)

(a1, a2, ..., an)

de elementos do corpo K formam um espaço vetorial que é usualmente denotado por Kn e chamado de espaço de coordenadas.[15] O caso n = 1 é o caso mais simples mencionado acima, no qual o corpo K também é percebido como um espaço vetorial sobre si mesmo. O caso K = R e n = 2 foi discutido na introdução acima.

Números complexos e outras extensões de corpos

editar

O conjunto de números complexos C (isto é, números que podem ser escritos na forma x + iy, para números reais x e y, em que i é a unidade imaginária) formam um espaço vetorial sobre os reais com a adição e a multiplicação definidas usualmente: (x + iy) + (a + ib) = (x + a) + i(y + b) e c ⋅ (x + iy) = (cx) + i(cy) para números reais x, y, a, b e c. Os vários axiomas de um espaço vetorial seguem do fato de que as mesmas regras se mantêm para a aritmética dos números complexos.

De fato, o exemplo dos números complexos é essencialmente o mesmo (isto é, é isomórfico) ao espaço vetorial de pares ordenados de números reais mencionado acima: se pensarmos no número complexo x + i y como uma representação do par ordenado (x, y) no plano complexo, então percebe-se que as regras de soma e multiplicação de escalares correspondem exatamente ao exemplo anterior.

De modo mais geral, extensões de corpo fornecem uma outra classe de exemplos de espaços vetoriais, particularmente em álgebras e em teoria algébrica dos números: um corpo K que contém um corpo menor E é um espaço vetorial em E, pelas mesmas operações de adição e multiplicação definidas para K.[16] Por exemplo, os números complexos são um espaço vetorial sobre R, e a extensão de corpo   é um espaço vetorial sobre Q.

Espaços funcionais

editar
 Ver artigo principal: Espaço funcional
 
Adição de funções: a soma das funções seno e exponencial é   com  

Funções de qualquer conjunto fixo Ω para um corpo K também formam espaços vetoriais, ao realizar adição e multiplicação por escalar ponto a ponto. Ou seja, a soma de duas funções f e g é a função (f + g) dada por

(f + g)(w) = f(w) + g(w),

e de modo semelhante para a multiplicação. Espaços funcionais desse tipo surgem em várias situações geométricas, quando Ω é a reta real ou um intervalo, ou outros subconjuntos de R. Muitas noções em topologia e análise, como continuidade, integrabilidade ou diferenciabilidade são bem comportadas em relação à linearidade: somas e múltiplos escalares de funções com essas propriedades ainda as preservam.[17] Portanto, o conjunto dessas funções é um espaço vetorial. Elas são estudadas em maior detalhe usando métodos de análise funcional. Restrições algébricas também geram espaços vetoriais: o espaço vetorial K[x] é dado por funções polinomiais:

f(x) = r0 + r1x + ... + rn−1xn−1 + rnxn, em que os coeficientes r0, ..., rn estão em K.[18]

Equações lineares

editar

Sistemas de equações lineares homogêneas estão proximamente relacionados com os espaços vetoriais vector spaces.[19] Por exemplo, as soluções de

a + 3b + c = 0
4a + 2b + 2c = 0

são dadas por triplas com a arbitrário, de modo que b = a/2 e c = −5a/2. Elas formam um espaço vetorial: somas e múltiplos escalares de tais triplas precisam também satisfazer às mesmas razões entre as três variáveis; logo, elas também são soluções. Matrizes podem ser usadas para condensar várias equações lineares como acima em uma equação vetorial, a saber

Ax = 0,

em que A =   é a matriz que contém os coeficientes das equações que compõem o sistema, x é o vetor (a, b, c), Ax denota um produto matricial, e 0 = (0, 0) é o vetor nulo. De forma semelhante, as soluções de equações diferenciais lineares homogêneas formam espaços vetoriais. Por exemplo,

f′′(x) + 2f′(x) + f(x) = 0

implica que f(x) = a ex + bx ex, em que a e b são constantes arbitrárias, e ex é a função exponencial.

Base e dimensão

editar
 Ver artigos principais: Base e Dimensão
 
Um vetor v em R2 (azul) expressado em termos de duas bases distintas: usando a base canônica de R2 v = xe1 + ye2 (preto), e usando uma base não ortogonal: v = f1 + f2 (vermelho).

Bases permitem representar vetores como uma sequência de escalares denominados coordenadas ou componentes. Uma base é um conjunto (finito ou infinito) B = {bi}iI de vetores bi, que por conveniência são frequentemente indexados por um conjunto de índices I, que gera todo o espaço é linearmente independente. "Gerar todo o espaço" significa que qualquer vetor v pode ser expresso por uma soma finita (chamada de combinação linear) dos elementos da base:

 

 

 

 

 

(1)

em que ak são escalares, chamados de coordenadas (ou de componentes) do vetor v em relação à base B, e bik (k = 1, ..., n) são os elementos de B. Independência linear significa que as coordenadas ak são univocamente determinadas para qualquer vetor no espaço vetorial.

Por exemplo, os vetores de coordenadas e1 = (1, 0, ..., 0), e2 = (0, 1, 0, ..., 0), até en = (0, 0, ..., 0, 1), formam uma base de Kn, chamada de base canônica, já que qualquer vetor (x1, x2, ..., xn) pode ser expresso de forma única como uma combinação linear desses vetores:

(x1, x2, ..., xn) = x1(1, 0, ..., 0) + x2(0, 1, 0, ..., 0) + ... + xn(0, ..., 0, 1) = x1e1 + x2e2 + ... + xnen.

As coordenadas correspondentes x1, x2, ..., xn são exatamente as coordenadas cartesianas de um vetor.

Todo espaço vetorial possui uma base. Isso é uma consequência do lema de Zorn, uma formulação equivalente do axioma da escolha.[20] Dados os outros axiomas da teoria de conjuntos de Zermelo–Fraenkel, a existência de bases é equivalente ao axioma da escolha.[21] O teorema do ultrafiltro, que é mais fraco do que o axioma da escolha, implica que todas as bases de um determinado espaço vetorial têm o mesmo número de elementos, ou cardinalidade (ver Teorema da dimensão para espaços vetoriais).[22] Ela é chamada de dimensão do espaço vetorial, e é denotada por dim V. Se o espaço for gerado por um número finito de vetores, os enunciados acima podem ser provados sem um enfoque tão fundamental quanto o da teoria de conjuntos.[23]

A dimensão do espaço de coordenadas Kn é n, pelo que foi exibido acima. A dimensão do anel de polinômios K[x] introduzida acima é enumeravelmente infinita, sendo que uma base é 1, x, x2, ... A fortiori, a dimensão de espaços funcionais mais gerais, tal como o espaço de funções em um intervalo (limitado ou ilimitado), é infinita.[nota 4] Sob suposições adequadas de regularidade dos coeficientes envolvidos, a dimensão do espaço de solução de uma equação diferencial ordinária homogênea é igual ao grau da equação.[24] Por exemplo, os espaço de soluções da equação acima é gerado por ex e {{xex}}. Essas duas funções são linearmente independentes sobre os reais R, de modo que a dimensão do espaço gerado seja 2, assim como o grau da equação.

Uma extensão de corpo sobre os racionais Q pode ser pensada como um espaço vetorial sobre Q (ao definir a soma de vetores como a soma de elementos do corpo, e definir a multiplicação por escalar como a multiplicação por elementos de Q, e por outro lado ignorando a multiplicação do corpo). A dimensão (ou grau) da extensão de corpo Q(α) sobre Q depende de α. Se α satisfaz algumas equação polinomial   com coeficientes racionais qn, ..., q0 (em outras palavras, se α é um número algébrico), a dimensão é finita. Mais precisamente, é igual ao grau do polinômio mínimo que tem α como raiz.[25] Por exemplo, os números complexos C são um espaço vetorial real bidimensional, gerados por 1 e pela unidade imaginária i. A unidade imaginária satisfaz i2 + 1 = 0, uma equação de grau 2. Portanto, C é um espaço vetorial bidimensional sobre R (e, como qualquer corpo, unidimensional como um espaço vetorial sobre si mesmo, C). Se α não for algébrico, a dimensão de Q(α) sobre Q é infinita. De fato, para α = π não existe tal equação; em outras palavras, π é um número transcendental.[26]

Aplicações lineares e matrizes

editar
 Ver artigo principal: Transformação linear

A relação entre dois espaços vetoriais pode ser expressa como um mapeamento linear ou uma transformação linear. Elas são funções que refletem a estrutura do espaço vetorial — isto é, elas preservam soma e multiplicação por escalar:

  e f(a · v)   a · f(v) para todo v e w em V, e todo a em K.[27]

Um isomorfismo é uma transformação linear f : VW tal que exista uma função inversa g : WV, a qual é um mapeamento tal que as duas possíveis composições fg : WW e gf : VV sejam a função identidade. De forma equivalente, f é um-pra-um (injetora) e é sobre o contradomínio (sobrejetora).[28] Se existir um isomorfismo entre V e W, os dois espaços são ditos isomórficos; eles então são essencialmente o mesmo espaço vetorial, já que todas as identidades válidas em V são, através de f, levadas a identidades semelhantes em W, e vice-versa através de g.

 
Descrever um vetor de seta v pelas suas coordenadas x e y acarreta um isomorfismo de espaços vetoriais.

Por exemplo, as "setas em um plano" e os "pares ordenados de números", que são cada qual um espaço vetorial, são isomórficos: uma seta v em um plano que sai da origem de algum sistema (fixo) de coordenadas pode ser expresso por um par ordenado de números ao considerar as componentes x e y da seta, como mostrado na imagem ao lado. Por outro lado, dado um par (x, y), a seta que está à direita pela quantidade x (ou à esquerda, se x for negativo), e está para cima pela quantidade y (ou para baixo, se y for negativo) retorna a seta v.

As transformações lineares VW entre dois espaços vetoriais formam um espaço vetorial HomK(V, W), também denotado por L(V, W).[29] O espaço das transformações lineares de V para o corpo K é chamado de espaço dual, e é denotado por V.[30] Através do mapa natural injetivo VV∗∗, qualquer espaço vetorial pode ser embutido no seu bidual; o mapeamento é um isoformismo se e somente se o espaço tem dimensão finita.[31]

Uma vez que uma base de V é escolhida, as transformações lineares f : VW ficam completamente determinadas ao se especificar a imagem dos vetores da base, já que qualquer elemento de V é escrito de forma única como combinação linear desses vetores.[32] Se dim V = dim W, uma correspondência 1-para-1 entre as bases fixadas de V e W acarreta uma aplicação linear que mapeia qualquer elemento da base de V ao elemento correspondente da base de W; isto é, por definição, um isomorfismo.[33] Logo, dois espaços vetoriais são isomórficos se as suas dimensões são as mesmas. Outra forma de expressar isso é que qualquer espaço vetorial é completamente classificado (a menos de um isomorfismo) pela sua dimensão, um único número. Em particular, qualquer espaço vetorial n-dimensional V de tipo K é isomórfico a Kn. Não existe, no entanto, nenhum isomorfismo "canônico" ou preferencial; de fato, um isomorfismo φ : KnV é equivalente à escolha da base de V, ao mapear os vetores da base canônica de Kn para V, através de φ. A liberdade em escolher uma base conveniente é particularmente útil no contexto de dimensão infinita.

Matrizes

editar
 Ver artigos principais: Matriz e Determinante
 
Uma matriz típica.

Matrizes são uma noção útil para representar transformações lineares.[34] Elas são escritas como uma tabela retangular de escalares (imagem ao lado). Qualquer matriz A m-por-n gera um mapeamento linear de Kn para Km da seguinte maneira:

 , em que   denota um somatório,

ou, usando multiplicação de matrizes de A com o vetor de coordenadas x:

xAx.

Ademais, após escolher bases de V e de W, qualquer transformação linear f : VW é representada de forma única por uma matriz através desse procedimento.[35]

 
O volume desse paralelepípedo é o valor absoluto do determinante da matriz 3-por-3 formada pelos vetores r1, r2, e r3.

O determinante det (A) de uma matriz quadrada A é um escalar que diz se o mapeamento associado à matriz é um isomorfismo ou não: para isso, é suficiente e necessário que o determinante seja não nulo.[36] A transformação linear de Rn que corresponde a uma matriz n-by-n real preserva a orientação se e somente se seu determinante for positivo.

Autovetores e autovalores

editar
 Ver artigo principal: Autovalores e autovetores

Endomorfismos, aplicações lineares do tipo f : VV, são particularmente importantes já que nesse caso vetores v podem ser comparados com a sua imagem sob f, f(v). Qualquer vetor não nulo v que satisfaz a condição λv = f(v), em que λ é um escalar, é denominado autovetor de f com autovalor λ.[37] De maneira equivalente, v é um elemento do núcleo da diferença fλ · Id (em que Id é a função identidade VV). Se V tem dimensão finita, essa afirmação pode ser reformulada usando determinantes: f ter um autovalor λ é equivalente a

det(fλ · Id) = 0.

Ao desenvolvê-la através da definição de determinante, a expressão à esquerda pode ser analisada enquanto função polinomial de variável λ, chamada de polinômio característico de f.[38] Se o corpo K for abrangente o suficiente para conter uma raiz desse polinômio (o que acontece automaticamente quando K for algebricamente fechado, tal como K = C), qualquer aplicação linear tem pelo menos um autovetor. O espaço vetorial V pode ou não possuir uma base de autovetores. Esse fenômeno é regido pela forma canônica de Jordan da aplicação.[39][nota 5] O conjunto de todos os autovetores associados a um certo autovalor de f forma um espaço vetorial conhecido como autoespaço. Para alcançar o teorema espectral, a afirmação correspondente do caso em que a dimensão é infinita, as ferramentas da análise funcional são necessárias.

Construções básicas

editar

Além dos exemplos concretos citados anteriormente, existem várias construções de álgebra linear padrão que acarretam espaços vetoriais a outros previamente fornecidos. Eles também são caracterizados pelas propriedades universais, que determinam um objeto X ao especificar as transformações lineares dele para qualquer outro espaço vetorial.

Subespaços e espaços quociente

editar
 Ver artigos principais: Subespaço vetorial e Espaço quociente
 
Uma linha que passa pela origem (em azul, linha mais grossa) em R3 é um subespaço vetorial. Ela é a interseção de dois planos (verde e amarelo).

Um subconjunto não-vazio W de um espaço vetorial V que é fechado sob adição e multiplicação por escalar (e portanto contém o vetor nulo 0 de V) é chamado de subespaço vetorial de V, ou simplesmente um subespaço de V, quando o objeto em questão for, de forma não ambígua, um espaço vetorial.[40][nota 6] Subespaços de V são espaços vetoriais próprios (sobre o mesmo corpo). A interseção de todos os subespaços contendo um determinado conjunto S de vetores é denominado como seu espaço vetorial gerado (ou, ainda, ger ou span), e é o menor subespaço de V contendo o conjunto S. Expressado em termos de elementos, o span é o subespaço que contém todas as combinações lineares dos elementos de S.[41]

Um subespaço vetorial de dimensão 1 é uma linha vetorial. Um subespaço de dimensão 2 é um plano vetorial. Um subespaço vetorial que contém todos a menos de um dos elementos de uma base do espaço principal é um hiperplano vetorial. Em um espaço vetorial de dimensão finita n, um hiperplano de vetores é portanto um subespaço de dimensão n – 1.

A contrapartida dos subespaços são os espaços vetoriais quocientes.[42] Dado qualquer subespaço WV, o espaço quociente V/W ("V módulo W") é definido da seguinte maneira: enquanto conjunto, ele consiste de v + W = {v + w : wW}, em que v é um vetor arbitrário em V; enquanto espaço vetorial, a soma de dois elementos desse tipo v1 + W e v2 + W é dada por (v1 + v2) + W, e a multiplicação por escalar obedece a relação a · (v + W) = (a · v) + W. A questão chave dessa definição é que v1 + W = v2 + W se e somente se a diferença de v1 e v2 estiver em W.[nota 7] Dessa maneira, o espaço quociente "esquece" da informação contida no subespaço W.

O núcleo ker(f) (do inglês, kernel) de uma transformação linear f : VW consiste em vetores v que são mapeados para o vetor 0 em W (o vetor nulo de W).[43] Tanto o núcleo quanto a imagem im(f) = {f(v) : vV} são subespaços de V e W, respectivamente.[44] A existência de núcleos e imagens é parte do enunciado de que a categoria de espaços vetoriais (sobre um corpo fixo K) é uma categoria abeliana, isto é, um corpo de objetos matemáticos e de transformações que preservem a estrutura entre eles (uma categoria), que se comporta de forma muito semelhante a uma categoria de grupos abelianos.[45] Por causa disso, enunciados como o teorema do núcleo e da imagem (também chamado de teorema do posto e da nulidade, no contexto de matrizes),

V / ker(f) ≡ im(f),

podem ser formulados e provados de uma maneira similar ao que se faria para demonstrar enunciados equivalentes para grupos.

Um exemplo importante é o do núcleo da transformação linear xAx para alguma matriz fixa A. O núcleo dessa aplicação é o subespaço dos vetores x tais que Ax = 0, que é exatamente o conjunto das soluções do sistema de equações lineares homogêneas associadas a A. Esse conceito também se estende para equações diferenciais lineares, cuja forma geral é

 , em que os coeficientes ai são também funções de x.

Na transformação linear correspondente

 ,

as derivadas da função f aparecem de forma linear (ao contrário de f′′(x)2, por exemplo). Como a diferenciação é um procedimento linear (isto é, (f + g)′ = f′ + g ′ e (c·f)′ = c·f para uma constante c), essa transformação também é linear, denominada um operador diferencial linear. Em particular, as soluções da equação diferencial D(f) = 0 formam um espaço vetorial (sobre R ou sobre C).

Produto direto e soma direta

editar
 Ver artigos principais: Produto direto e Soma direta

O produto direto de espaços vetoriais e a soma direta de espaços vetoriais são duas maneiras de combinar uma família indexada de espaços vetoriais em um novo espaço vetorial.

O produto direto   de uma família de espaços vetoriais Vi consiste em um conjunto de todas as ênuplas (vi)iI, que especificam para cada índice i em algum conjunto de índices I um elemento vi de Vi.[46] Adição e multiplicação por escalar são realizadas componente a componente. Uma variação dessa construção é a soma direta   (também chamada coproduto e denotada por  ), em que somente as ênuplas com um número finito de vetores nulos são permitidas. Se o conjunto de índices I é finito, as duas construções são a mesma; porém, de forma mais geral, elas são distintas.

Produto tensorial

editar
 Ver artigo principal: Produto tensorial

O produto tensorial VF W, ou simplesmente VW, de dois espaços vetoriais V e W é uma das noções centrais da álgebra multilinear, que lida com noções estendidas como a de transformações lineares a várias variáveis. Um mapeamento g : V × WX é chamado de bilinear se g é linear em ambas as variáveis v e w. Isto é, para um w fixo o mapa vg(v, w) é linear no sentido acima; isso então também é válido para um v fixo.

O produto tensorial é um espaço vetorial particular que é um receptor universal de mapeamentos bilineares g, como a seguir. Ele é definido como um espaço vetorial que consiste de somas (formais) finitas de símbolos chamados de tensores

v1w1 + v2w2 + ... + vnwn,

sujeitos às regras

a · (vw) = (a · v) ⊗ w = v ⊗ (a · w), em que a é um escalar,
(v1 + v2) ⊗ w = v1w + v2w, e
v ⊗ (w1 + w2) = vw1 + vw2.[47]
 
Diagrama comutativo evidenciando a propriedade universal do produto tensorial.

Essas regras garantem que o mapa f de V × W para VW, que envia a ênupla (v, w) para vw, seja bilinear. A universalidade enuncia que dado qualquer espaço vetorial X e qualquer mapa bilinear g : V × WX, existe um mapa único u, mostrado no diagrama com uma seta pontilhada, cuja composição com f é igual a g: u(vw) = g(v, w).[48] Isso é chamado de propriedade universal do produto tensorial, uma ocorrência do método — muito utilizado em álgebra abstrata avançada — de indiretamente definir objetos ao especificar mapas de ou para esse objeto.

Espaços vetoriais com estrutura adicional

editar

Do ponto de vista da álgebra linear, os espaços vetoriais são completamente compreendidos na medida em que qualquer espaço vetorial é caracterizado, de modo isomórfico, pela sua dimensão. Contudo, espaços vetoriais por si só não oferecem um escopo no qual é possível responder à questão — essencial para análise — de quando, ou se, uma série de funções converge para outra função. Da mesma forma, a álgebra linear não é adaptada para lidar com séries infinitas, já que a operação de adição permite somente a soma de um número finito de termos. Assim, as demandas do ramo da análise funcional fazem com que sejam considerados espaços vetoriais com estrutura adicional.

Um espaço vetorial pode ser parcialmente ordenado ≤, de modo que certos vetores possam ser comparados.[49] Por exemplo, um espaço vetorial real n-dimensional Rn pode ser ordenado ao se comparar os vetores componente à componente. Espaços vetoriais ordenados, como os espaços de Riesz, são fundamentais para a formulação da integral de Lebesgue, que requer que uma função qualquer seja expressa como a diferença de duas funções positivas

f = f+f,

em que f+ denota a parte positiva de f e f a parte negativa.[50]

Espaços vetoriais normados e com produto interno

editar

O processo de "medida" de vetores é feito ao se especificar uma norma, uma função que mede o comprimento de um vetor, ou definindo um produto interno, que mede ângulos entre vetores. Normas e produtos internos são denotados por   e  , respectivamente. Espaços vetoriais dotados dessa estrutura são denominados espaços vetoriais normados e espaços com produto interno, respectivamente.[51] É possível obter uma norma a partir de um produto interno, definindo-a como  .

O espaço de coordenadas Kn pode ser equipado com o produto escalar canônico:

 

Em R2, isso reflete a noção comum de ângulo entre dois vetores x e y, pela lei dos cossenos:

 

Por causa disso, dois vetores que satisfaçam   são chamados de ortogonais. Uma variante importante do produto interno padrão é usado no espaço de Minkowski; isto é, o espaço R4 dotado do produto de Lorentz

 [52]

Em contraste com o produto escalar padrão, ele não é positivo definido:   também pode assumir valores negativos, como por exemplo para  . Isolar a quarta temporada — correspondente ao tempo, em vez das três dimensões espaciais — é útil para o tratamento matemático da relatividade restrita.

Espaços vetoriais topológicos

editar
 Ver artigo principal: Espaço vetorial topológico

Questões de convergência são tratadas ao considerar espaços vetoriais que comportem uma topologia compatível, uma estrutura que permite descrever pontos como sendo próximos uns dos outros.[53][54] A compatibilidade significa que a adição e a multiplicação por escalar precisam ser mapas contínuos. Em resumo, se x e y em um espaço vetorial V e a no corpo K variarem por uma quantidade limitada, então x + y e ax variam limitadamente.[nota 8] Para dar sentido em especificar o quanto um escalar varia, o corpo K também precisa carregar uma topologia nesse contexto; opções comuns de corpos são o dos números reais e o dos números complexos.

Nesses espaços vetoriais topológicos é possível considerar série de vetores. A soma infinita

 

denota o limite das somas parciais finitas correspondentes da sequência (fi)iN de elementos de V. Por exemplo, os elementos fi podem ser funções (reais ou complexas) pertencentes a algum espaço funcional V, de modo que a soma infinita seja uma série de funções. O modo de convergência da série é dependente da topologia imposta ao espaço funcional. Nesses casos, convergência pontual e convergência uniforme são dois exemplos proeminentes.

 
"Esferas" unitárias no R2 consistindo de vetores planos de norma 1. Estão ilustradas esferas em diferentes p-normas, para p = 1, 2, e ∞. O diamante maior representa pontos com 1-norma igual a 2.

Uma maneira de garantir a existência de limites de certas séries infinitas é restringir o estudo a espaços onde qualquer sequência de Cauchy possui limite; tais espaços vetoriais são denominados completos. Simplificadamente, um espaço vetorial é dito completo contanto que contenha todos os limites necessários; o espaço vetorial dos polinômios nos intervalo unitário [0,1], equipado com a topologia de convergência uniforme, não é completo, pois qualquer função contínua em [0,1] pode ser uniformemente aproximada por uma sequência de polinômios (Teorema de Stone-Weierstrass).[55] Em contraste, o espaço de todas as funções contínuas em [0,1] equipado com a mesma topologia é completo.[56] Uma norma acarreta uma topologia ao definir que uma sequência de vetores vn convirja para v se e somente se

 

Espaços de Banach e Hilbert são espaços vetoriais topológicos completos cujas topologias são fornecidas, respectivamente, por uma norma e por um produto interno. O estudo deles — uma peça-chave da análise funcional — tem como foco espaços vetoriais de dimensão infinita, já que todas as normas em espaços topológicos de dimensão finita fornecem a mesma noção de convergência.[57] A imagem à direita mostra a equivalência da 1-norma e da ∞-norma no R2: com as "bolas" unitárias englobando-se umas às outras, uma sequência converge a zero em uma norma se e somente se o fizer em uma outra norma. No caso de dimensão infinita, entretanto, em geral existirão topologias não equivalentes, o que faz com que o estudo espaços vetoriais topológicos seja mais rico do que o de espaços vetoriais sem essa estrutura adicional.

De um ponto de vista conceitual, todas as noções relacionadas a espaços vetoriais topológicos devem ser compatíveis com a topologia associada. Por exemplo, ao invés de considerar todas as transformações lineares (também chamadas de funcionais) VW, exige-se que mapas entre espaços vetoriais topológicos sejam contínuos.[58] Em particular, o espaço dual (topológico) V consiste dos funcionais contínuos VR (ou para C). O teorema de Hahn-Banach tem por objetivo a separação de subespaços de espaços vetoriais topológicos adequados por funcionais contínuos.[59]

Espaços de Banach

editar
 Ver artigo principal: Espaço de Banach

Espaços de Banach, introduzidos por Stefan Banach, são espaços vetoriais normados completos.[60]

Um primeiro exemplo é o espaço vetorial   composto de vetores com infinitas entradas reais  , cuja  -norma   dado por

  para     e     .

As topologias do espaço   de dimensão infinita não são equivalentes para diferentes valores de  . Como exemplo, a sequência de vetores  , em que as primeiras   componentes são   e as seguintes são  , converge para o vetor nulo para  , mas não para  :

 , mas  

De forma mais geral do que sequências de números reais, funções   são equipados com uma norma que substitui a soma acima pela integral de Lebesgue

 

O espaço das funções integráveis em um dado domínio   (por exemplo um intervalo) satisfazendo  , e equipado com essa norma são chamados de espaços de Lebesgue, denotados como  .[nota 9]

Esses espaços são completos.[61] (Se, ao invés disso, a integral de Riemann for utilizada, o espaço não é completo, o que pode ser percebido como uma justificativa para a teoria de integração de Lebesgue.) Concretamente, isso significa que para qualquer sequência de funções do integráveis por Lebesgue        com  , satisfazendo a condição

 .

Existe uma função   pertencente ao espaço vetorial   tal que

 

Impondo condições de limitação não somente à função, mas também às suas derivadas resulta nos espaços de Sobolev.[62]

Espaços de Hilbert

editar
 Ver artigo principal: Espaço de Hilbert
 
As imagens sucessivas mostram a soma de 1 a 5 termos na aproximação de uma função periódica (azul) por uma soma finita de funções seno (vermelho).

Espaços com produto interno completo são conhecidos como espaços de Hilbert, em homenagem a David Hilbert.[63] O espaço de Hilbert L2(Ω), com produto interno dado por

 

em que   denota o conjugado complexo de g(x),[64][nota 10] é um caso chave.

Por definição, em um espaço de Hilbert qualquer sequência de Cauchy converge para um limite. Dessa forma, encontrar uma sequência de funções fn com propriedades desejáveis que aproxime uma dada função limite torna-se crucial. O início da análise, na forma da aproximação de Taylor, estabeleceu uma aproximação de funções diferenciáveis por polinômios.[65] Pelo teorema de Stone-Weierstrass, toda função contínua em um intervalo [a, b] pode ser aproximada tão bem quanto desejado por um polinômio.[66] Uma técnica de aproximação semelhante feita com funções trigonométricas é comumente chamada de expansão de Fourier, e é muito aplicada em engenharia. De forma mais geral, e mais conceitual, o teorema permite uma descrição simples de quais "funções básicas", ou, no contexto de espaços abstratos de Hilbert, quais vetores básicos são suficientes para gerar o espaço de Hilbert H, no sentido de que o fecho do span desses vetores (isto é, combinações lineares finitas e seus limites) é o espaço inteiro. Tal conjunto de funções é chamada de uma base de H, sua cardinalidade é conhecida como a dimensão do espaço de Hilbert.[nota 11] O teorema não apenas mostra funções adequadas para uma base como suficiente para fazer aproximações, mas também, aliado ao processo de Gram-Schmidt, permite a construção de uma base ortogonal de vetores.[67] Tais bases ortogonais são a generalização em espaços de Hilbert dos eixos de coordenadas em espaços euclidianos, de dimensão finita.

As soluções para várias equações diferenciais podem ser interpretadas em termos de espaços de Hilbert. Por exemplo, muitas áreas da física e da engenharia deparam-se com tais equações e frequentemente soluções com propriedades físicas particulares são utilizadas como funções de uma base, por vezes ortogonal.[68] Na física quântica, a equação de Schrödinger dependente do tempo descreve a mudança de propriedades físicas como função do tempo através de uma equação diferencial parcial, cujas soluções são chamadas de funções de onda.[69] Valores definidos de grandezas físicas como energia e momento correspondem a autovalores de um certo operador diferencial linear e as funções de onda associadas são chamadas de autoestados. O teorema espectral decompõe um operador linear compacto que atua sobre uma função em termos dessas autofunções e desses autovalores.[70]

Propriedades

editar
  • Se   então  [71] Isto é assim porque
     
  • Se   ∈     Isto é assim porque
     
  • Se   ∈   e   ∈   então  [71] Isto é assim porque
     

Terminologia

editar
  • Um espaço vetorial sobre   o conjuntos dos números reais, é chamado espaço vetorial real.
  • Um espaço vetorial sobre   o conjuntos dos números complexos, é chamado espaço vetorial complexo.
  • Um espaço vetorial com um conceito definido de comprimento, isto é uma norma definida, é chamado espaço vectorial normado.

Tipos de espaços vectoriais

editar

Ver também

editar

Notas

  1. Também é comum, especialmente na física, denotar vetores com uma seta superior à letra:  .
  2. Esse axioma e o próximo se referem a duas operações distintas: a multiplicação por escalar: bv; e a multiplicação do corpo: ab. Eles não afirmam a associatividade de nenhuma das operações. Mais formalmente, a multiplicação por escalar é uma ação monoide do monoide multiplicativo do corpo K sobre o espaço vetorial V.
  3. Alguns autores (como Brown 1991) restringem sua atenção aos corpos R ou C, mas a maior parte da teoria permanece inalterada para um corpo qualquer.
  4. As funções indicadoras de intervalos (das quais há um número infinito) são linearmente independentes, por exemplo.
  5. Ver também o artigo Decomposição de Jordan–Chevalley.
  6. Esse é o caso típico quando um espaço vetorial também é considerado como um espaço afim. Neste caso, um subespaço vetorial contém o vetor nulo, enquanto um subespaço afim não o contém necessariamente.
  7. Alguns autores (tais como Roman 2005) escolhem começar por essa relação de equivalência e derivar a forma concreta de V/W a partir dela.
  8. Essa exigência implica que a topologia acarreta uma estrutura uniforme, Bourbaki 1989, cap. II.
  9. A desigualdade triangular para   é provida pela desigualdade de Minkowski. Por razões técnicas, no contexto de funções, é preciso identificar funções que concordem em quase todo lugar para se ter uma norma, e não só uma seminorma.
  10. Para p ≠2, Lp(Ω) não é um espaço de Hilbert.
  11. Uma base de um espaço de Hilbert não é o mesmo que uma base no contexto da álgebra linear, como exposto acima. Por distinção, a última é então chamada de base de Hamel.

Referências

  1. Noble & Daniel, 1986, p. 85–86
  2. Callioli, Domingues & Costa, 1990, p. 46
  3. Callioli, Domingues & Costa, 1990, p. 45
  4. Roman 2005, cap. 1, p. 27
  5. van der Waerden 1993, Cap. 19
  6. Bourbaki 1998, §II.1.1. Bourbaki chamava os homomorfismos de grupo f(a) homotetias.
  7. Bourbaki 1969, cap. "Algèbre linéaire et algèbre multilinéaire", pp. 78–91.
  8. Bolzano 1804.
  9. Möbius 1827.
  10. Hamilton 1853.
  11. Grassmann 2000.
  12. Peano 1888, cap. IX.
  13. Banach 1922.
  14. Dorier 1995, Moore 1995.
  15. Lang 1987, cap. I.1
  16. Lang 2002, cap. V.1
  17. Lang 1993, cap. XII.3., p. 335
  18. Lang 1987, cap. IX.1
  19. Lang 1987, cap. VI.3.
  20. Roman 2005, Teorema 1.9, p. 43
  21. Blass 1984
  22. Halpern 1966, pp. 670–673
  23. Artin 1991, Teorema 3.3.13
  24. Braun 1993, Th. 3.4.5, p. 291
  25. Stewart 1975, Proposition 4.3, p. 52
  26. Stewart 1975, Teorema 6.5, p. 74
  27. Roman 2005, cap. 2, p. 45
  28. Lang 1987, cap. IV.4, Corolário, p. 106
  29. Lang 1987, Exemplo IV.2.6
  30. Lang 1987, cap. VI.6
  31. Halmos 1974, p. 28, Ex. 9
  32. Lang 1987, Teorema IV.2.1, p. 95
  33. Roman 2005, Teorema 2.5 e 2.6, p. 49
  34. Lang 1987, cap. V.1
  35. Lang 1987, cap. V.3., Corolário, p. 106
  36. Lang 1987, Teorema VII.9.8, p. 198
  37. Roman 2005, cap. 8, p. 135–156
  38. Lang 1987, cap. IX.4
  39. Roman 2005, cap. 8, p. 140.
  40. Roman 2005, cap. 1, p. 29
  41. Roman 2005, cap. 1, p. 35
  42. Roman 2005, cap. 3, p. 64
  43. Lang 1987, cap. IV.3.
  44. Roman 2005, cap. 2, p. 48
  45. Mac Lane 1998
  46. Roman 2005, cap. 1, pp. 31–32
  47. Lang 2002, cap. XVI.1
  48. Roman 2005, Teorema 14.3. Ver também Lema de Yoneda.
  49. Schaefer & Wolff 1999, pp. 204–205
  50. Bourbaki 2004, cap. 2, p. 48
  51. Roman 2005, cap. 9
  52. Naber 2003, cap. 1.2
  53. Treves 1967
  54. Bourbaki 1987
  55. Kreyszig 1989, §4.11-5
  56. Kreyszig 1989, §1.5-5
  57. Choquet 1966, Proposição III.7.2
  58. Treves 1967, p. 34–36
  59. Lang 1983, Cor. 4.1.2, p. 69
  60. Treves 1967, cap. 11
  61. Treves 1967, Teorema 11.2, p. 102
  62. Evans 1998, cap. 5
  63. Treves 1967, cap. 12
  64. Dennery 1996, p.190
  65. Lang 1993, Teorema XIII.6, p. 349
  66. Lang 1993, Teorema III.1.1
  67. Choquet 1966, Lema III.16.11
  68. Kreyszig & 1999 Capítulo 11
  69. Griffiths & 1995 Capítulo 1
  70. Lang 1993, cap. XVII.3
  71. a b Callioli, Domingues & Costa, 1990, p. 50
  72. Callioli, Domingues & Costa, 1990, p. 159

Bibliografia

editar

Álgebra

editar

Análise

editar

Referências históricas

editar

Referências extras

editar

Ligações externas

editar
Outros projetos Wikimedia também contêm material sobre este tema:
  Definições no Wikcionário
  Livros e manuais no Wikilivros