Espaço vetorial: diferenças entre revisões

Conteúdo apagado Conteúdo adicionado
m
 
(Há 44 revisões intermédias de 9 utilizadores que não estão a ser apresentadas)
Linha 8:
[[Vetor (matemática)|Vetores euclidianos]] são um exemplo de espaço vetorial. Eles representam [[Grandeza física|quantidades físicas]] como [[força]]s: quaisquer duas forças (do mesmo tipo) podem ser somadas para resultar em uma terceira, enquanto que a multiplicação de um vetor de força por um número real gera outro vetor de força. De forma semelhante, porém com um sentido mais [[geometria|geométrico]], vetores que representam deslocamentos em um plano ou em um [[espaço tridimensional]] também formam espaços vetoriais. Vetores em espaços vetoriais não necessitam ser objetos do tipo [[Flecha|seta]], como aparecem nos exemplos mencionados acima; vetores são tratados como entidades matemáticas abstratas com propriedades particulares, que, em alguns casos, podem ser visualizados por setas.
 
Espaços vetoriais são o objeto de estudo da [[álgebra linear]] e são bem caracterizados pela sua [[Dimensão (espaço vetorial)|dimensão]], que, a grosso modo, especifica o número de direções independentes no espaço. Espaços vetoriais de dimensão infinita surgem naturalmente em [[análise matemática]], como em [[Espaço funcional|espaços funcionais]], cujos vetores são [[Função (matemática)|funções]]. Esses espaços vetoriais são munidos em geral de uma estrutura adicional, que pode ser uma [[Topologia (matemática)|topologia]], permitindo a consideração de conceitos como proximidade e [[Função contínua|continuidade]]. Dentre essas topologias, aquelas que são definidas por uma [[Norma (matemática)|norma]] ou um [[produto interno]] são mais frequentemente utilizadas, por possuírem uma noção de [[Métrica (matemática)|distância]] entre dois vetores. Esse é o caso particularmente com os [[Espaço de Banach|espaços de Banach]] e os [[Espaço de Hilbert|espaços de Hilbert]], que são fundamentais em análise matemática.
 
Historicamente, as primeiras ideias que levaram ao conceito de espaços vetoriais podem ser associadas aos avanços, durante o [[século XVII]], nas áreas de [[geometria analítica]], [[Matriz (matemática)|matrizes]], [[Sistema de equações lineares|sistemas de equações lineares]], e vetores euclidianos. O tratamento moderno e mais abstrato, formulado pela primeira vez por [[Giuseppe Peano]] em 1888, contém objetos mais gerais que o [[espaço euclidiano]], mas muito da teoria pode ser visto como uma extensão de ideias da geometria clássica como [[reta]]s, [[Plano (geometria)|planos]], e seus análogos de dimensão mais alta. Atualmente, os espaços vetoriais permeiam a [[matemática]], a [[ciência]] e a [[engenharia]]. Eles são a noção apropriada da álgebra linear para lidar com [[Sistema de equações lineares|sistemas de equações lineares]]. Eles oferecem um escopo para as [[Série de Fourier|séries de Fourier]], que são utilizadas em métodos de [[compressão de imagens]], e eles fornecem um ambiente que pode ser utilizado para técnicas de solução de [[Equação diferencial parcial|equações diferenciais parciais]]. Ademais, espaços vetoriais fornecem uma maneira abstrata, [[livre de coordenadas]], de lidar com objetos geométricos e físicos como [[tensor]]es. Isso por sua vez permite a análise de propriedades locais [[Variedade (matemática)|variedades]] por técnicas de linearização. Espaços vetoriais podem ser generalizados de diversas maneiras, acarretando noções mais avançadas em geometria e em [[álgebra abstrata]].
 
Não é necessário que os vetores tenham interpretação geométrica, mas podem ser quaisquer objetos que satisfaçam os axiomas abaixo. [[Polinômio]]s de grau menor ou igual a <math>n</math> (<math>n \in \mathbb{N}</math>) formam um espaço vetorial,<ref name="callioli-46">Callioli, Domingues & Costa, 1990, p. 46</ref> por exemplo, assim como grupos de [[Matriz (matemática)|matrizes]] <math>m \times n</math><ref name="callioli-45">Callioli, Domingues & Costa, 1990, p. 45</ref> e o espaço de todas as [[Função (matemática)|funções]] de um conjunto no conjunto '''R''' dos números reais.
{{Estruturas algébricas}}
 
== Introdução e definição ==
Linha 37 ⟶ 38:
 
=== Definição ===
Neste artigo, os vetores são representados em negrito para distingui-los de escalares.{{nota de rodapé|Também é comum, especialmente na física, denotar vetores com uma seta superior à letra: <math> \vec{v} </math>.}}
Um espaço vetorial é uma entidade formada pelos seguinte elementos:
 
Um espaço vetorial sobre um [[Corpo (matemática)|corpo]] {{mvar|K}} é um [[conjunto]]&nbsp;{{mvar|V}} munido de duas operações que satisfazem os oito axiomas abaixo.
# Um ''[[corpo (matemática)|corpo]]'' <math>K,</math> ou seja, um [[conjunto]] dotado de duas operações internas com propriedades distributivas, [[elemento inverso]], etc. cujos elementos serão chamados de ''[[escalar]]es''.<ref name="callioli-47">Callioli, Domingues & Costa, 1990, p. 47</ref><ref name="Noble-85–86"/> Os números reais, em relação à adição e multiplicação, são um exemplo de ''corpo''.
# Um [[conjunto]] <math>V</math> dotado de uma [[operação binária]] (representada aqui pelo sinal <math>+</math>) de <math>V\times V</math> em <math>V.</math> Os elementos de <math>V</math> serão chamados de ''vetores''.<ref name="callioli-47" /><ref name="Noble-85–86"/>
# Uma operação <math>\cdot</math> de <math>K \times V</math> em <math>V.</math>
 
* A primeira operação, chamada de '''adição de vetores''' ou simplesmente '''adição''' {{math| + : ''V'' × ''V'' → ''V''}}, leva quaisquer dois vetores&nbsp;{{math|'''v'''}} e {{math|'''w'''}} e associa a eles um terceiro vetor, normalmente escrito como {{math|'''v''' + '''w'''}}, e chamado de soma dos dois vetores iniciais. (O vetor resultante também é um elemento de {{mvar|V}}.)
Observação: na definição acima e nas propriedades abaixo, são usados os símbolos de soma (<math>+</math>) e produto (<math>\cdot</math>) para representar, em cada caso, duas funções distintas: <math>a+b</math> para elementos de <math>K</math> não é o mesmo que <math>a+b</math> para elementos de <math>V,</math> assim como <math>a \cdot b</math> para elementos de <math>K</math> não é o mesmo que <math>a \cdot b</math> quando <math>a</math>&nbsp;&isin;&nbsp;<math>K</math> e <math>b</math>&nbsp;&isin;&nbsp;<math>V.</math> Caso possa haver confusão, recomenda-se o uso de símbolos diferentes para essas operações, por exemplo usar <math>(+, \times)</math> para as operações de <math>K</math> e <math>(\oplus,\otimes)</math> para as operações de <math>V\times V</math> em <math>V</math> e de <math>K\times V</math> em <math>V.</math> Neste caso, costuma-se dizer que o ''espaço vetorial'' é a sêxtupla ordenada (a generalização de [[par ordenado]], mas com seis elementos) <math>(V, K, \oplus, \otimes, +, \times).</math>
* A segunda operação, chamada de '''[[Multiplicação escalar|multiplicação por escalar]]''' {{math|· : ''K'' × ''V'' → ''V''}}, toma qualquer escalar&nbsp;{{mvar|a}} e qualquer vetor&nbsp;{{math|'''v'''}} e fornece um outro vetor&nbsp;{{math|''a'''''v'''}}. (Similarmente, um vetor {{math|''a'''''v'''}} é um elemento do conjunto {{mvar|V}}.)
 
Elementos de {{mvar|V}} são normalmente denominados ''vetores''. Elementos de&nbsp;{{mvar|K}} são comumente denominados ''escalares''.
Os seguintes axiomas (além de <math>K</math> ser um corpo) devem valer para que os elementos acima constituam um espaço vectorial:<ref name="callioli-44">Callioli, Domingues & Costa, 1990, p. 44</ref><ref name="Noble-85–86" />
 
Nos dois exemplos acima, o corpo utilizado é o corpo dos números reais e o conjunto de vetores consiste das setas planas com um ponto fixo de início e de pares de números reais, respectivamente.
# <math>(u+v)+w=u+(v+w)</math> para <math>u,v,w \in V</math> ([[associatividade]])
# Há um elemento <math>0</math>&nbsp;&isin;&nbsp;<math>V,</math> tal que, para cada <math>v</math>&nbsp;&isin;&nbsp;<math>V,</math> <math>v+0=0+v=v</math> (existência de [[elemento neutro]])
# Para cada <math>v</math>&nbsp;&isin;&nbsp;<math>V,</math> existe <math>u</math>&nbsp;&isin;&nbsp;<math>V</math> tal que <math>v+u=0</math> (existência de elemento oposto)
# Para cada <math>v,u</math>&nbsp;&isin;&nbsp;<math>V,</math> <math>u+v=v+u</math> (comutatividade)
# Para cada <math>a,b</math>&nbsp;&isin;&nbsp;<math>K</math> e cada <math>v</math>&nbsp;&isin;&nbsp;<math>V,</math> <math>a \cdot (b \cdot v)=(a \cdot b) \cdot v</math> (associatividade da multiplicação por escalar)
# Se <math>1</math> é a unidade de <math>K,</math> então, para cada <math>v</math>&nbsp;&isin;&nbsp;<math>V,</math> <math>1 \cdot v=v</math> (existência do elemento neutro em <math>V</math>)
# Para cada <math>a</math>&nbsp;&isin;&nbsp;<math>K</math> e cada <math>v,u</math>&nbsp;&isin;&nbsp;<math>V,</math> <math>a \cdot (v+u)=a \cdot v+a \cdot u</math> (distributiva de um escalar em relação à soma de vetores)
# Para cada <math>a,b</math>&nbsp;&isin;&nbsp;<math>K</math> e cada <math>v</math>&nbsp;&isin;&nbsp;<math>V,</math> <math>(a+b) \cdot v=a \cdot v+b \cdot v</math> (distributiva da soma de escalares em relação a um vetor)
 
Para qualificar um conjunto como sendo um espaço vetorial, ele&nbsp;{{mvar|V}} e suas operações de adição e multiplicação devem obedecer às condições impostas a seguir, denominadas [[axioma]]s.<ref>{{Harvard citations|last = Roman|year = 2005|nb = yes|loc=cap. 1, p. 27}}</ref> Na lista abaixo, sejam {{math|'''u'''}}, {{math|'''v'''}} e {{math|'''w'''}} vetores arbitrários de {{mvar|V}}, e {{mvar|a}} e {{mvar|b}} escalares em {{mvar|K}}.
Os axiomas de 1 a 4 mostram que com relação a operação de adição um espaço vetorial é um [[grupo abeliano]]. O elemento <math>u</math>&nbsp; cuja existência é garantida pelo terceiro [[axioma]] é único (como em qualquer [[grupo (matemática)|grupo]]) e representa-se por <math>-v.</math>
 
{| border="0" style="width:100%;" class="wikitable"
O conceito de espaço vetorial (e os vetores como seus elementos) é inteiramente abstrato, como os conceitos de grupos, anéis, corpos, etc. Para determinar se um conjunto <math>V</math> é um espaço vetorial, temos apenas que especificar o conjunto, o corpo <math>K,</math> e definir adição em <math>V</math> e multiplicação por escalar em <math>V.</math> Então se <math>V</math> satisfizer as condições acima ele será um espaço vetorial sobre o corpo <math>K.</math>
|-
! Axioma || Significado
|-
| [[Associatividade]] da adição || {{math|1='''u''' + ('''v''' + '''w''') = ('''u''' + '''v''') + '''w'''}}.
|- style="background:#F8F4FF;"
| [[Comutatividade]] da adição || {{math|1='''u''' + '''v''' = '''v''' + '''u'''}}.
|-
| [[Elemento identidade]] da adição || Existe um elemento {{math|'''0''' ∈ ''V''}}, denominado ''[[vetor nulo]]'', tal que {{math|1='''v''' + '''0''' = '''v'''}} para todo {{math|'''v''' ∈ ''V''}}.
|- style="background:#F8F4FF;"
| [[Elemento inverso]] da adição || Para todo {{math|'''v''' ∈ ''V''}}, existe um elemento {{math|−'''v''' ∈ ''V''}}, chamado de ''[[inverso aditivo]]'' de {{math|'''v'''}}, tal que {{math|1='''v''' + (−'''v''') = '''0'''}}.
|-
| [[Ação de semigrupo|Compatibilidade]] da multiplicação por escalar com a multiplicação do corpo || {{math|1=''a''(''b'''''v''') = (''ab'')'''v'''}}. {{nota de rodapé|Esse axioma e o próximo se referem a duas operações distintas: a multiplicação por escalar: {{math|''b'''''v'''}}; e a multiplicação do corpo: {{math|''ab''}}. Eles não afirmam a associatividade de nenhuma das operações. Mais formalmente, a multiplicação por escalar é uma [[Ação de semigrupo|ação monoide]] do monoide multiplicativo do corpo {{mvar|K}} sobre o espaço vetorial {{mvar|V}}.}}
|- style="background:#F8F4FF;"
| Elemento identidade da multiplicação por escalar || {{math|1=1'''v''' = '''v'''}}, em que {{math|1}} denota a [[identidade multiplicativa]] em {{mvar|K}}.
|-
| [[Distributividade]] da multiplicação por escalar em relação à adição de vetores&emsp;&emsp;|| {{math|1=''a''('''u''' + '''v''') = ''a'''''u''' + ''a'''''v'''}}.
|- style="background:#F8F4FF;"
| Distributividade da multiplicação por escalar em relação a adição do corpo || {{math|1=(''a'' + ''b'')'''v''' = ''a'''''v''' + ''b'''''v'''}}.
|}
 
Esses axiomas generalizam as propriedades dos vetores introduzidos nos exemplos acima. De fato, o resultado da adição de dois pares ordenados (como no segundo exemplo acima) não depende da ordem dos somandos:
:{{math|1=(''x''<sub>'''v'''</sub>, ''y''<sub>'''v'''</sub>) + (''x''<sub>'''w'''</sub>, ''y''<sub>'''w'''</sub>) = (''x''<sub>'''w'''</sub>, ''y''<sub>'''w'''</sub>) + (''x''<sub>'''v'''</sub>, ''y''<sub>'''v'''</sub>)}}.
 
Da mesma forma, no exemplo geométrico de vetores como setas, {{math|1='''v''' + '''w''' = '''w''' + '''v'''}} como o paralelogramo que define a soma dos vetores é independente da ordem dos vetores. Todos os outros axiomas podem ser verificados de forma semelhante nos outros exemplos. Portanto, ao ignorar a natureza concreta desse tipo particular de vetores, a definição incorpora esses dois exemplos e muitos outros em uma noção unificadora de espaço vetorial.
 
A subtração de dois vetores e a divisão por escalar (não nulo) pode ser definido como
: <math>\begin{align}
\mathbf{v} - \mathbf{w} &= \mathbf{v} + (-\mathbf{w}) \\
\frac{\mathbf{v}}{a} &= \frac{1}{a}\mathbf{v}
\end{align}</math>.
 
Quando o corpo dos escalares {{mvar|K}} é o dos [[números reais]] {{math|'''R'''}}, o espaço vetorial é chamado de ''espaço vetorial real''; quando for o dos [[números complexos]] {{math|'''C'''}}, o espaço vetorial é chamado de ''espaço vetorial complexo''. Esses dois casos são aqueles mais frequentemente utilizados em engenharia. A definição geral de espaço vetorial permite que os escalares sejam elementos de qualquer [[Corpo (matemática)|corpo]] fixo {{mvar|K}}. A noção é então abstraída para um ''espaço vetorial sobre {{mvar|K}}''. Um corpo é, essencialmente, um conjunto de números que possui as operações de [[adição]], [[subtração]], [[multiplicação]] e [[divisão]].{{nota de rodapé|Alguns autores (como {{Harvard citations|last = Brown|year = 1991|nb=yes}}) restringem sua atenção aos corpos {{math|'''R'''}} ou {{math|'''C'''}}, mas a maior parte da teoria permanece inalterada para um corpo qualquer.}} Por exemplo, os [[números racionais]] formam um corpo.
 
Em contraste com a intuição provinda de vetores em um plano ou em outros objetos de dimensão maior, existe, em espaços vetoriais gerais, a noção de [[Vizinhança (matemática)|vizinhança]]s, [[ângulo]]s e [[distância]]s. Para lidar com essas questões, tipos particulares de espaços vetoriais são introduzidos.
 
=== Formulações alternativas e consequências elementares ===
A adição de vetores e a multiplicação por escalar são operações que satisfazem a propriedade de [[fechamento]]: {{math|'''u''' + '''v'''}} e {{math|''a'''''v'''}} pertencem a {{math|''V''}} para todo {{math|''a''}} em {{math|''K''}}, e {{math|'''u'''}}, {{math|'''v'''}} em {{math|''V''}}. Algumas referências mais antigas mencionam essas propriedades como axiomas separados.<ref>{{Harvard citations|last = van der Waerden|year = 1993|nb = yes|loc=Cap. 19}}</ref>
 
No linguajar da [[álgebra abstrata]], os primeiros quatro axiomas são equivalentes a requerer que o conjunto de vetores seja um [[grupo abeliano]] sob adição. Os axiomas restantes dão a esse a estrutura de [[Módulo (álgebra)|módulo]] sobre {{math|''K''}}. Em outras palavras, existe um [[homomorfismo de anéis]] {{math|''f''}} do corpo {{math|''K''}} para o [[anel de endomorfismo]] do grupo de vetores. A multiplicação por escalar {{math|''a'''''v'''}} é então definida como {{math|(''f''(''a''))('''v''')}}.<ref>{{Harvard citations|last=Bourbaki|year=1998|nb=yes|loc=§II.1.1}}. Bourbaki chamava os homomorfismos de grupo {{math|''f''(''a'')}} ''homotetias''.</ref>
 
Há várias outras consequências diretas dos axiomas de espaço vetorial. Algumas delas são derivadas [[Teoria dos grupos|teoria dos grupos elementar]], aplicada ao grupo aditivo de vetores: por exemplo, o vetor nulo {{math|'''0'''}} de {{math|''V''}} e o inverso aditivo {{math|−'''v'''}} de um vetor {{math|'''v'''}} são únicos. Outras propriedades seguem ao empregar também a lei de distributividade da multiplicação por escalar; por exemplo, {{math|''a'''''v'''}} é igual a {{math|'''0'''}} se e somente se {{math|''a''}} é igual a {{math|0}} ou {{math|'''v'''}} é igual a {{math|'''0'''}}.
 
== História ==
{{Artigo principal|História da álgebra}}
Espaços vetoriais têm sua origem no ramo da [[geometria afim]], surgindo a partir da introdução de [[coordenada]]s no plano ou no espaço tridimensional. Por volta de 1636, os matemáticos franceses [[René Descartes]] e [[Pierre de Fermat]] forneceram as bases da [[geometria analítica]] ao identificar soluções de uma equação a duas variáveis com pontos em uma [[curva]] plana.<ref>{{Harvard citations|last = Bourbaki|year = 1969|nb = yes|loc = cap. "Algèbre linéaire et algèbre multilinéaire", pp. 78–91}}.</ref> Para obter soluções geométricas sem utilizar-se de coordenadas, [[Bernhard Bolzano|Bolzano]] introduziu, em 1804, certas operações com pontos, linhas e planos; hoje, esses objetos podem ser vistos como antecessores de vetores.<ref>{{Harvard citations|last = Bolzano|year = 1804|nb = yes}}.</ref> Esse trabalho foi utilizado por [[August Ferdinand Möbius|Möbius]] em 1827 para introduzir o conceito de [[coordenadas baricêntricas]].<ref>{{Harvard citations|last = Möbius|year = 1827|nb = yes}}.</ref> A fundação para a definição de vetores foi a noção de [[Giusto Bellavitis|Bellavitis]] de um "duplo ponto" (''"bipoint"''), um segmento orientado em que uma das extremidades é a origem e a outra é um alvo. Vetores foram repensados com a apresentação de [[números complexos]] por [[Jean-Robert Argand|Argand]] e [[William Rowan Hamilton|Hamilton]], e pela criação dos [[quaterniões]] pelo último.<ref>{{Harvard citations|last = Hamilton|year = 1853|nb = yes}}.</ref> Eles são elementos em '''R'''<sup>2</sup> e '''R'''<sup>4</sup>; o tratamento deles utilizando [[Combinação linear|combinações lineares]] remete a [[Edmond Laguerre|Laguerre]] em 1867, que também definiu [[sistema de equações lineares]].
 
Em 1857, [[Arthur Cayley|Cayley]] introduziu a [[Matriz (matemática)#Notação|notação matricial]] que permitiu a harmonização e a simplificação de mapas lineares. Na mesma época, [[Hermann Grassmann|Grassmann]] estudou o cálculo baricêntrico iniciado por Möbius. Ele vislumbrou conjuntos de objetos abstratos munidos de certas operações.<ref>{{Harvard citations|last = Grassmann|year = 2000|nb = yes}}.</ref> Em seu trabalho, os conceitos de [[independência linear]] e [[Dimensão (matemática)|dimensão]], bem como o de [[Produto escalar|produtos escalares]], estavam presentes. De fato, a obra de Grassmann de 1844 excede o escopo dos espaços vetoriais atuais, já que ele também considera multiplicação entre vetores, o que caracteriza o conceito moderno de [[Álgebra sobre um corpo|álgebra]]. O matemático italiano [[Giuseppe Peano|Peano]] foi o primeiro a fornecer uma definição moderna de espaços vetoriais e de transformações lineares em 1888.<ref>{{Harvard citations|last = Peano|year = 1888|nb = yes |loc = cap. IX}}.</ref>
 
Um desenvolvimento importante dos espaços vetoriais foi a construção de [[Espaço funcional|espaços funcionais]] por [[Henri Lebesgue]]. Isso foi posteriormente formalizado por [[Stefan Banach|Banach]] e [[David Hilbert|Hilbert]], por volta de 1920.<ref>{{Harvard citations|last = Banach|year = 1922|nb = yes}}.</ref> À época, a [[álgebra]] e o novo ramo da [[análise funcional]] começaram a interagir, notavelmente com conceitos-chave como os [[Espaço Lp|espaços de funções ''p''-integráveis]] e os [[Espaço de Hilbert|espaços de Hilbert]].<ref>{{Harvard citations|last = Dorier|year = 1995|nb = yes}}, {{Harvard citations|last = Moore|year = 1995|nb = yes}}.</ref> Também nessa época, iniciaram-se os primeiros estudos de espaços vetoriais de dimensão infinita.
Em uma demonstração rigorosa, os axiomas 2 e 3 (elemento neutro e elemento oposto em <math>V</math>) podem ser omitidos, porque eles podem ser facilmente deduzidos a partir dos outros axiomas:
* Sejam ''0'' e ''1'' os elementos neutros aditivo e multiplicativo de <math>K.</math> Então, como <math>1 \cdot v = v</math> qualquer que seja <math>v,</math> temos que <math>0 \cdot v + v = 0 \cdot v + 1 \cdot v = (0+1) \cdot v = 1 \cdot v = v,</math> ou seja, <math>0 \cdot v</math> é o elemento neutro de <math>V.</math>
* Em <math>K,</math> existe um elemento <math>-1</math> tal que <math>-1 + 1 = 0.</math> Logo, <math>(-1) \cdot v + v = (-1) \cdot v + 1 \cdot v = (-1 + 1) \cdot v = 0 \cdot v,</math> ou seja, <math>(-1) \cdot v</math> é o elemento oposto de <math>v.</math>
 
== Exemplos ==
{{Artigo principal|Exemplos de espaços vetoriais}}
* Seja <math>V</math> formado por um único elemento <math>a.</math> Então, definindo-se <math>a + a = a</math> e <math>k \cdot a = a</math> para todo elemento <math>k</math> de um corpo <math>K,</math> temos que <math>V</math> é um espaço vetorial com <math>K</math> como corpo de escalares. Obviamente, como <math>a</math> é o elemento neutro de <math>V,</math> isto é, <math>a=0,</math> este espaço vetorial é representado por <math>V = { 0 }.</math>
 
* Outro exemplo simples é considerar <math>V = K,</math> e as operações de espaço vetorial sendo as mesmas operações do corpo.
=== Espaço do vetor nulo ===
* Seja <math>V=K^2</math> o conjunto dos pares ordenados de elementos de <math>K.</math> Então, definindo-se <math>(a,b) + (c,d) = (a+c, b+d)</math> e <math>k \cdot (a,b) = (ka, kb),</math> temos que <math>V</math> é um espaço vetorial.
* Seja <math>IV</math> formado por um conjuntoúnico qualquerelemento (chamado<math>a.</math> Então, nestedefinindo-se contexto,<math>a de+ conjuntoa de= indices).a</math> Entãoe o<math>k conjunto\cdot dasa [[Função= (matemática)|funções]]a</math> depara todo elemento <math>Ik</math> emde um corpo <math>K,</math> temos que <math>V</math> é um espaço vetorial, definindo-secom naturalmente<math>K</math> acomo somacorpo de duasescalares. funçõesObviamente, ecomo <math>a</math> é o produtoelemento neutro de um<math>V,</math> escalaristo é, <math>a=0,</math> este espaço vetorial é representado por uma<math>V função= { 0 }.</math>
 
* Este último exemplo é, de forma geral, a forma de qualquer outro espaço vetorial, porém este resultado requer, em sua demonstração, conceitos abstratos como a [[teoria das categorias]] e o [[axioma da escolha]].
=== Espaços de coordenada ===
{{Artigo principal|Espaço de coordenadas}}
O exemplo mais simples de um espaço vetorial sobre um corpo {{math|''K''}} é o próprio corpo, equipado com suas adição e multiplicação padrão. De forma mais geral, todas [[Énuplo|{{math|''n''}}-uplas]] (sequências de comprimento {{math|''n''}})
 
:{{math|(''a''<sub>1</sub>, ''a''<sub>2</sub>, ..., ''a''<sub>''n''</sub>)}}
 
de elementos do corpo {{math|''K''}} formam um espaço vetorial que é usualmente denotado por {{math|''K''<sup>''n''</sup>}} e chamado de ''[[espaço de coordenadas]]''.<ref>{{Harvard citations|last = Lang|year = 1987|loc = cap. I.1|nb = yes}}</ref> O caso {{math|1=''n'' = 1}} é o caso mais simples mencionado acima, no qual o corpo {{math|''K''}} também é percebido como um espaço vetorial sobre si mesmo. O caso {{math|1=''K'' = '''R'''}} e {{math|1=''n'' = 2}} foi discutido na introdução acima.
 
=== Números complexos e outras extensões de corpos ===
O conjunto de [[números complexos]] {{math|'''C'''}} (isto é, números que podem ser escritos na forma {{math|1=''x'' + ''iy''}}, para [[números reais]] {{math|''x''}} e {{math|''y''}}, em que {{math|''i''}} é a [[unidade imaginária]]) formam um espaço vetorial sobre os reais com a adição e a multiplicação definidas usualmente: {{math|1=(''x'' + ''iy'') + (''a'' + ''ib'') = (''x'' + ''a'') + ''i''(''y'' + ''b'')}} e {{math|1=''c'' ⋅ (''x'' + ''iy'') = (''c'' ⋅ ''x'') + ''i''(''c'' ⋅ ''y'')}} para números reais {{math|''x''}}, {{math|''y''}}, {{math|''a''}}, {{math|''b''}} e {{math|''c''}}. Os vários axiomas de um espaço vetorial seguem do fato de que as mesmas regras se mantêm para a aritmética dos números complexos.
 
De fato, o exemplo dos números complexos é essencialmente o mesmo (isto é, é ''isomórfico'') ao espaço vetorial de pares ordenados de números reais mencionado acima: se pensarmos no número complexo {{math|''x'' + ''i'' ''y''}} como uma representação do par ordenado {{math|(''x'', ''y'')}} no [[plano complexo]], então percebe-se que as regras de soma e multiplicação de escalares correspondem exatamente ao exemplo anterior.
 
De modo mais geral, [[Extensão de corpo|extensões de corpo]] fornecem uma outra classe de exemplos de espaços vetoriais, particularmente em álgebras e em [[teoria algébrica dos números]]: um corpo {{math|''K''}} que contém um corpo menor {{math|''E''}} é um espaço vetorial em {{math|''E''}}, pelas mesmas operações de adição e multiplicação definidas para {{math|''K''}}.<ref>{{Harvard citations|last = Lang|year =2002|loc = cap. V.1|nb = yes}}</ref> Por exemplo, os números complexos são um espaço vetorial sobre {{math|'''R'''}}, e a extensão de corpo <math>\mathbf{Q}(i\sqrt{5})</math> é um espaço vetorial sobre {{math|'''Q'''}}. <!--A particularly interesting type of field extension in [[number theory]] is {{math|'''Q'''(''α'')}}, the extension of the rational numbers {{math|'''Q'''}} by a fixed complex number {{math|''α''}}. {{math|'''Q'''(''α'')}} is the smallest field containing the rationals and a fixed complex number ''α''. Its dimension as a vector space over {{math|'''Q'''}} depends on the choice of {{math|''α''}}.-->
 
=== Espaços funcionais ===
{{Artigo principal|Espaço funcional}}
[[File:Example for addition of functions.svg|thumb|Adição de funções: a soma das funções seno e exponencial é <math>\sin+\exp:\R\to\R</math> com <math>(\sin+\exp)(x)=\sin(x)+\exp(x)</math>]]
 
Funções de qualquer conjunto fixo {{math|Ω}} para um corpo {{math|''K''}} também formam espaços vetoriais, ao realizar adição e multiplicação por escalar ponto a ponto. Ou seja, a soma de duas funções {{math|''f''}} e {{math|''g''}} é a função {{math|(''f'' + ''g'')}} dada por
 
:{{math|1=(''f'' + ''g'')(''w'') = ''f''(''w'') + ''g''(''w'')}},
 
e de modo semelhante para a multiplicação. Espaços funcionais desse tipo surgem em várias situações geométricas, quando {{math|Ω}} é a [[reta real]] ou um [[Intervalo (matemática)|intervalo]], ou outros [[subconjunto]]s de {{math|'''R'''}}. Muitas noções em topologia e análise, como [[Função contínua|continuidade]], [[Integral|integrabilidade]] ou [[diferenciabilidade]] são bem comportadas em relação à linearidade: somas e múltiplos escalares de funções com essas propriedades ainda as preservam.<ref>{{Harvard citations|last = Lang|year = 1993|loc = cap. XII.3., p. 335|nb = yes}}</ref> Portanto, o conjunto dessas funções é um espaço vetorial. Elas são estudadas em maior detalhe usando métodos de [[análise funcional]]. Restrições algébricas também geram espaços vetoriais: o <span id=labelPolynomialRing>[[Anel de polinômios|espaço vetorial {{math|''K''[x]}}]]</span> é dado por [[Função polinomial|funções polinomiais]]:
:{{math|1=''f''(''x'') = ''r''<sub>0</sub> + ''r''<sub>1</sub>''x'' + ... + ''r''<sub>''n''−1</sub>''x''<sup>''n''−1</sup> + ''r''<sub>''n''</sub>''x''<sup>''n''</sup>}}, em que os [[coeficiente]]s {{math|''r''<sub>0</sub>, ..., ''r''<sub>''n''</sub>}} estão em {{math|''K''}}.<ref>{{Harvard citations|last = Lang|year = 1987|loc = cap. IX.1|nb = yes}}</ref>
 
=== Equações lineares ===
{{AP|Equação linear|Equação diferencial linear|Sistema de equações lineares}}
Sistemas de equações lineares homogêneas estão proximamente relacionados com os espaços vetoriais vector spaces.<ref>{{Harvard citations|last = Lang|year = 1987|loc = cap. VI.3.|nb = yes}}</ref> Por exemplo, as soluções de
:{|
|-
| style="text-align:right;"|{{math|''a''}}
|{{math|+}}
|{{math|3''b''}}
|{{math|+}}
| style="text-align:right;"|{{math|''c''}}
|{{math|{{=}} 0}}
|-
|{{math|4''a''}}
|{{math|+}}
|{{math|2''b''}}
|{{math|+}}
|{{math|2''c''}}
|{{math|{{=}} 0}}
|}
são dadas por triplas com {{math|''a''}} arbitrário, de modo que {{math|1=''b'' = ''a''/2}} e {{math|1=''c'' = −5''a''/2}}. Elas formam um espaço vetorial: somas e múltiplos escalares de tais triplas precisam também satisfazer às mesmas razões entre as três variáveis; logo, elas também são soluções. [[Matriz (matemática)|Matrizes]] podem ser usadas para condensar várias equações lineares como acima em uma equação vetorial, a saber
:<span id=equation3>{{math|1=''A'''''x''' = '''0'''}}</span>,
em que {{math|1=''A'' =}} <math>\begin{bmatrix}
1 & 3 & 1 \\
4 & 2 & 2\end{bmatrix}</math> é a matriz que contém os coeficientes das equações que compõem o sistema, {{math|'''x'''}} é o vetor {{math|(''a'', ''b'', ''c'')}}, {{math|''A'''''x'''}} denota um [[produto matricial]], e {{math|1='''0''' = (0, 0)}} é o vetor nulo. De forma semelhante, as soluções de ''equações diferenciais lineares homogêneas'' formam espaços vetoriais. Por exemplo,
:<span id=equation1>{{math|1=''f''′′(''x'') + 2''f''′(''x'') + ''f''(''x'') = 0}}</span>
implica que {{math|1=''f''(''x'') = ''a&thinsp;e''<sup>−''x''</sup> + ''bx&thinsp;e''<sup>−''x''</sup>}}, em que {{math|''a''}} e {{math|''b''}} são constantes arbitrárias, e {{math|''e''<sup>''x''</sup>}} é a [[função exponencial]].
 
== Base e dimensão ==
{{AP|Base (álgebra linear){{!}}Base|Dimensão (espaço vetorial){{!}}Dimensão}}
[[File:Vector components and base change.svg|Um vetor {{math|'''v'''}} em {{math|'''R'''<sup>2</sup>}} (azul) expressado em termos de duas bases distintas: usando a [[base canônica]] de {{math|1='''R'''<sup>2</sup> '''v''' = ''x'''''e'''<sub>1</sub> + ''y'''''e'''<sub>2</sub>}} (preto), e usando uma base não [[ortogonal]]: {{math|1='''v''' = '''f'''<sub>1</sub> + '''f'''<sub>2</sub>}} (vermelho).|thumb|200px]]
<span id=label1>''Bases''</span> permitem representar vetores como uma [[sequência]] de escalares denominados ''coordenadas'' ou ''componentes''. Uma base é um conjunto (finito ou infinito) {{math|1=''B'' = {'''b'''<sub>''i''</sub>}<sub>''i'' ∈ ''I''</sub>}} de vetores {{math|'''b'''<sub>''i''</sub>}}, que por conveniência são frequentemente indexados por um conjunto de índices {{math|''I''}}, que gera todo o espaço é [[linearmente independente]]. "Gerar todo o espaço" significa que qualquer vetor {{math|'''v'''}} pode ser expresso por uma soma finita (chamada de ''[[combinação linear]]'') dos elementos da base:
{{NumBlk|:|<math>\mathbf{v} = a_1 \mathbf{b}_{i_1} + a_2 \mathbf{b}_{i_2} + \cdots + a_n \mathbf{b}_{i_n},</math>|{{EquationNote|1}}}}
em que {{math|''a''<sub>''k''</sub>}} são escalares, chamados de coordenadas (ou de componentes) do vetor {{math|'''v'''}} em relação à base {{math|''B''}}, e {{math|'''b'''<sub>''i''<sub>''k''</sub></sub>}} {{math|1=(''k'' = 1, ..., ''n'')}} são os elementos de {{math|''B''}}. Independência linear significa que as coordenadas {{math|''a''<sub>''k''</sub>}} são univocamente determinadas para qualquer vetor no espaço vetorial.
 
Por exemplo, os vetores de coordenadas {{math|1='''e'''<sub>1</sub> = (1, 0, ..., 0)}}, {{math|1='''e'''<sub>2</sub> = (0, 1, 0, ..., 0)}}, até {{math|1='''e'''<sub>''n''</sub> = (0, 0, ..., 0, 1)}}, formam uma base de {{math|''K''<sup>''n''</sup>}}, chamada de [[base canônica]], já que qualquer vetor {{math|(''x''<sub>1</sub>, ''x''<sub>2</sub>, ..., ''x''<sub>''n''</sub>)}} pode ser expresso de forma única como uma combinação linear desses vetores:
:{{math|1=(''x''<sub>1</sub>, ''x''<sub>2</sub>, ..., ''x''<sub>''n''</sub>) = ''x''<sub>1</sub>(1, 0, ..., 0) + ''x''<sub>2</sub>(0, 1, 0, ..., 0) + ... + ''x''<sub>''n''</sub>(0, ..., 0, 1) = ''x''<sub>1</sub>'''e'''<sub>1</sub> + ''x''<sub>2</sub>'''e'''<sub>2</sub> + ... + ''x''<sub>''n''</sub>'''e'''<sub>''n''</sub>}}.
As coordenadas correspondentes {{math|''x''<sub>1</sub>}}, {{math|''x''<sub>2</sub>}}, {{math|...}}, {{math|''x''<sub>''n''</sub>}} são exatamente as [[coordenadas cartesianas]] de um vetor.
 
Todo espaço vetorial possui uma base. Isso é uma consequência do [[lema de Zorn]], uma formulação equivalente do [[axioma da escolha]].<ref>{{Harvard citations|last = Roman|year = 2005|nb = yes|loc=Teorema 1.9, p. 43}}</ref> Dados os outros axiomas da [[Axiomas de Zermelo-Fraenkel|teoria de conjuntos de Zermelo–Fraenkel]], a existência de bases é equivalente ao axioma da escolha.<ref>{{Harvard citations|last = Blass|year = 1984|nb=yes}}</ref> O [[Teorema do ideal primo booliano#O Teorema do Ultrafiltro|teorema do ultrafiltro]], que é mais fraco do que o axioma da escolha, implica que todas as bases de um determinado espaço vetorial têm o mesmo número de elementos, ou [[cardinalidade]] (ver ''[[Teorema da dimensão para espaços vetoriais]]'').<ref>{{Harvard citations|last = Halpern|year = 1966|nb = yes|loc=pp. 670–673}}</ref> Ela é chamada de ''dimensão'' do espaço vetorial, e é denotada por dim ''V''. Se o espaço for gerado por um número finito de vetores, os enunciados acima podem ser provados sem um enfoque tão fundamental quanto o da teoria de conjuntos.<ref>{{Harvard citations|last = Artin|year = 1991|nb = yes|loc=Teorema 3.3.13}}</ref>
 
A dimensão do espaço de coordenadas {{math|''K''<sup>''n''</sup>}} é {{math|''n''}}, pelo que foi exibido acima. A dimensão do anel de polinômios ''K''[''x''] introduzida [[Espaço vetorial#Espaços funcionais|acima]] é [[Infinito enumerável|enumeravelmente infinita]], sendo que uma base é {{math|1}}, {{math|''x''}}, {{math|''x''<sup>2</sup>}}, {{math|...}} [[A fortiori]], a dimensão de espaços funcionais mais gerais, tal como o espaço de funções em um intervalo (limitado ou ilimitado), é infinita.{{nota de rodapé|As [[Função indicadora|funções indicadoras]] de intervalos (das quais há um número infinito) são linearmente independentes, por exemplo.}} Sob suposições adequadas de regularidade dos coeficientes envolvidos, a dimensão do espaço de solução de uma [[equação diferencial ordinária]] homogênea é igual ao grau da equação.<ref>{{Harvard citations|last = Braun|year = 1993|nb = yes|loc=Th. 3.4.5, p. 291}}</ref> Por exemplo, os espaço de soluções da [[#equation1|equação acima]] é gerado por {{math|''e''<sup>−''x''</sup>}} e {{''xe''<sup>−''x''</sup>}}. Essas duas funções são linearmente independentes sobre os reais {{math|'''R'''}}, de modo que a dimensão do espaço gerado seja 2, assim como o grau da equação.
 
Uma extensão de corpo sobre os racionais {{math|'''Q'''}} pode ser pensada como um espaço vetorial sobre {{math|'''Q'''}} (ao definir a soma de vetores como a soma de elementos do corpo, e definir a multiplicação por escalar como a multiplicação por elementos de {{math|'''Q'''}}, e por outro lado ignorando a multiplicação do corpo). A dimensão (ou [[Grau de uma extensão de corpo|grau]]) da extensão de corpo {{math|'''Q'''(α)}} sobre {{math|'''Q'''}} depende de {{math|α}}. Se {{math|α}} satisfaz algumas equação polinomial
<math display=block> q_n \alpha^n + q_{n - 1} \alpha^{n - 1} + \ldots + q_0 = 0</math>
com coeficientes racionais {{math|''q''<sub>''n''</sub>, ..., ''q''<sub>0</sub>}} (em outras palavras, se α é um [[número algébrico]]), a dimensão é finita. Mais precisamente, é igual ao grau do polinômio mínimo que tem α como [[Raiz (matemática)|raiz]].<ref>{{Harvard citations|last = Stewart|year = 1975|nb = yes|loc=Proposition 4.3, p. 52}}</ref> Por exemplo, os números complexos '''C''' são um espaço vetorial real bidimensional, gerados por 1 e pela [[unidade imaginária]] ''i''. A unidade imaginária satisfaz ''i''<sup>2</sup> + 1 = 0, uma equação de grau 2. Portanto, '''C''' é um espaço vetorial bidimensional sobre '''R''' (e, como qualquer corpo, unidimensional como um espaço vetorial sobre si mesmo, '''C'''). Se α não for algébrico, a dimensão de '''Q'''(α) sobre '''Q''' é infinita. De fato, para α = [[pi|π]] não existe tal equação; em outras palavras, π é um [[número transcendental]].<ref>{{Harvard citations|last = Stewart|year = 1975|nb = yes|loc=Teorema 6.5, p. 74}}</ref>
 
== Aplicações lineares e matrizes==
{{Artigo principal|Transformação linear}}
A relação entre dois espaços vetoriais pode ser expressa como um ''mapeamento linear'' ou uma ''transformação linear''. Elas são [[Função (matemática)|funções]] que refletem a estrutura do espaço vetorial — isto é, elas preservam soma e multiplicação por escalar:
:<math>f(\mathbf v + \mathbf w) = f(\mathbf v) + f(\mathbf w)</math> e {{math|''f''(''a'' · '''v''')}} <math>=</math> {{math|''a'' · ''f''('''v''')}} para todo {{math|'''v'''}} e {{math|'''w'''}} em {{math|''V''}}, e todo {{math|''a''}} em {{math|''K''}}.<ref>{{Harvard citations|last = Roman|year = 2005|nb = yes|loc=cap. 2, p. 45}}</ref>
 
Um ''[[isomorfismo]]'' é uma transformação linear {{math|''f'' : ''V'' → ''W''}} tal que exista uma [[função inversa]] {{math|''g'' : ''W'' → ''V''}}, a qual é um mapeamento tal que as duas possíveis [[Composição de funções|composições]] {{math|''f'' ∘ ''g'' : ''W'' → ''W''}} e {{math|''g'' ∘ ''f'' : ''V'' → ''V''}} sejam a [[função identidade]]. De forma equivalente, {{math|''f''}} é um-pra-um ([[injetora]]) e é sobre o contradomínio ([[sobrejetora]]).<ref>{{Harvard citations|last = Lang|year = 1987|nb = yes|loc=cap. IV.4, Corolário, p. 106}}</ref> Se existir um isomorfismo entre {{math|''V''}} e {{math|''W''}}, os dois espaços são ditos ''isomórficos''; eles então são essencialmente o mesmo espaço vetorial, já que todas as identidades válidas em {{math|''V''}} são, através de {{math|''f''}}, levadas a identidades semelhantes em {{math|''W''}}, e vice-versa através de {{math|''g''}}.
 
[[File:Vector components.svg|180px|right|thumb|Descrever um vetor de seta {{math|'''v'''}} pelas suas coordenadas {{math|''x''}} e {{math|''y''}} acarreta um isomorfismo de espaços vetoriais.]]
Por exemplo, as "setas em um plano" e os "pares ordenados de números", que são cada qual um espaço vetorial, são isomórficos: uma seta {{math|'''v'''}} em um plano que sai da [[Origem de coordenadas|origem]] de algum [[Sistema de coordenadas|sistema (fixo) de coordenadas]] pode ser expresso por um par ordenado de números ao considerar as componentes {{math|''x''}} e {{math|''y''}} da seta, como mostrado na imagem ao lado. Por outro lado, dado um par {{math|(''x'', ''y'')}}, a seta que está à direita pela quantidade {{math|''x''}} (ou à esquerda, se {{math|''x''}} for negativo), e está para cima pela quantidade {{math|''y''}} (ou para baixo, se {{math|''y''}} for negativo) retorna a seta {{math|'''v'''}}.
 
As transformações lineares {{math|''V'' → ''W''}} entre dois espaços vetoriais formam um espaço vetorial {{math|Hom<sub>''K''</sub>(''V'', ''W'')}}, também denotado por {{math|L(''V'', ''W'')}}.<ref>{{Harvard citations|last = Lang|year = 1987|nb = yes|loc=Exemplo IV.2.6}}</ref> O espaço das transformações lineares de {{math|''V''}} para o corpo {{math|''K''}} é chamado de ''[[espaço dual]]'', e é denotado por {{math|''V''<sup>∗</sup>}}.<ref>{{Harvard citations|last = Lang|year = 1987|nb = yes|loc=cap. VI.6}}</ref> Através do mapa [[Transformação natural|natural]] injetivo {{math|''V'' → ''V''<sup>∗∗</sup>}}, qualquer espaço vetorial pode ser embutido no seu ''bidual''; o mapeamento é um isoformismo se e somente se o espaço tem dimensão finita.<ref>{{Harvard citations|last = Halmos|year =1974|nb = yes|loc=p. 28, Ex. 9}}</ref>
 
Uma vez que uma base de {{math|''V''}} é escolhida, as transformações lineares {{math|''f'' : ''V'' → ''W''}} ficam completamente determinadas ao se especificar a imagem dos vetores da base, já que qualquer elemento de {{math|''V''}} é escrito de forma única como combinação linear desses vetores.<ref>{{Harvard citations|last = Lang|year = 1987|nb = yes|loc=Teorema IV.2.1, p. 95}}</ref> Se {{math|1=dim ''V'' = dim ''W''}}, uma [[Função bijetora|correspondência 1-para-1]] entre as bases fixadas de {{math|''V''}} e {{math|''W''}} acarreta uma aplicação linear que mapeia qualquer elemento da base de {{math|''V''}} ao elemento correspondente da base de {{math|''W''}}; isto é, por definição, um isomorfismo.<ref>{{Harvard citations|last = Roman|year = 2005|nb = yes|loc=Teorema 2.5 e 2.6, p. 49}}</ref> Logo, dois espaços vetoriais são isomórficos se as suas dimensões são as mesmas. Outra forma de expressar isso é que qualquer espaço vetorial é ''completamente classificado'' ([[Salvo (matemática)|a menos de]] um isomorfismo) pela sua dimensão, um único número. Em particular, qualquer espaço vetorial ''n''-dimensional {{math|''V''}} de tipo {{math|''K''}} é isomórfico a {{math|''K''<sup>''n''</sup>}}. Não existe, no entanto, nenhum isomorfismo "canônico" ou preferencial; de fato, um isomorfismo {{math|''φ'' : ''K''<sup>''n''</sup> → ''V''}} é equivalente à escolha da base de {{math|''V''}}, ao mapear os vetores da base canônica de {{math|''K''<sup>''n''</sup>}} para {{math|''V''}}, através de {{math|''φ''}}. A liberdade em escolher uma base conveniente é particularmente útil no contexto de dimensão infinita.
 
===Matrizes===
{{Artigo principal|Matriz (matemática){{!}}Matriz|Determinante}}
[[File:Matrix.svg|right|thumb|200px|Uma matriz típica.]]
''Matrizes'' são uma noção útil para representar transformações lineares.<ref>{{Harvard citations|last = Lang|year = 1987|nb = yes|loc=cap. V.1}}</ref> Elas são escritas como uma tabela retangular de escalares (imagem ao lado). Qualquer matriz {{math|''A''}} {{math|''m''}}-por-{{math|''n''}} gera um mapeamento linear de {{math|''K''<sup>''n''</sup>}} para {{math|''K''<sup>''m''</sup>}} da seguinte maneira:
:<math>\mathbf x = (x_1, x_2, \cdots, x_n) \mapsto \left(\sum_{j=1}^n a_{1j}x_j, \sum_{j=1}^n a_{2j}x_j, \cdots, \sum_{j=1}^n a_{mj}x_j \right)</math>, em que <math>\sum</math> denota um [[somatório]],
ou, usando [[multiplicação de matrizes]] de {{math|''A''}} com o vetor de coordenadas {{math|'''x'''}}:
:<span id=equation2>{{math|'''x''' ↦ ''A'''''x'''}}</span>.
Ademais, após escolher bases de {{math|''V''}} e de {{math|''W''}}, ''qualquer'' transformação linear {{math|''f'' : ''V'' → ''W''}} é representada de forma única por uma matriz através desse procedimento.<ref>{{Harvard citations|last = Lang|year = 1987|nb = yes|loc=cap. V.3., Corolário, p. 106}}</ref>
 
[[File:Determinant parallelepiped.svg|200px|right|thumb|O volume desse [[paralelepípedo]] é o valor absoluto do determinante da matriz 3-por-3 formada pelos vetores {{math|''r''<sub>1</sub>}}, {{math|''r''<sub>2</sub>}}, e {{math|''r''<sub>3</sub>}}.]]
O [[determinante]] {{math|det (''A'')}} de uma [[matriz quadrada]] {{math|''A''}} é um escalar que diz se o mapeamento associado à matriz é um isomorfismo ou não: para isso, é suficiente e necessário que o determinante seja não nulo.<ref>{{Harvard citations|last = Lang|year = 1987|nb = yes|loc=Teorema VII.9.8, p. 198}}</ref> A transformação linear de {{math|'''R'''<sup>''n''</sup>}} que corresponde a uma matriz ''n''-by-''n'' real [[Sentido (matemática)|preserva a orientação]] se e somente se seu determinante for positivo.
 
=== Autovetores e autovalores ===
{{Artigo principal|Autovalores e autovetores}}
[[Endomorfismo]]s, aplicações lineares do tipo {{math|''f'' : ''V'' → ''V''}}, são particularmente importantes já que nesse caso vetores {{math|'''v'''}} podem ser comparados com a sua imagem sob {{math|''f''}}, {{math|''f''('''v''')}}. Qualquer vetor não nulo {{math|'''v'''}} que satisfaz a condição {{math|1=''λ'''''v''' = ''f''('''v''')}}, em que {{math|''λ''}} é um escalar, é denominado ''autovetor'' de {{math|''f''}} com ''autovalor'' {{math|''λ''}}.<ref>{{Harvard citations|last = Roman|year = 2005|nb = yes|loc=cap. 8, p. 135–156}}</ref> De maneira equivalente, {{math|'''v'''}} é um elemento do [[Núcleo (álgebra linear)|núcleo]] da diferença {{math|''f'' − ''λ'' · Id}} (em que Id é a [[função identidade]] {{math|''V'' → ''V''}}). Se {{math|''V''}} tem dimensão finita, essa afirmação pode ser reformulada usando determinantes: {{math|''f''}} ter um autovalor {{math|''λ''}} é equivalente a
:{{math|1=det(''f'' − ''λ'' · Id) = 0}}.
Ao desenvolvê-la através da definição de determinante, a expressão à esquerda pode ser analisada enquanto função polinomial de variável {{math|''λ''}}, chamada de [[polinômio característico]] de {{math|''f''}}.<ref>{{Harvard citations|last = Lang|year = 1987|nb = yes|loc=cap. IX.4}}</ref> Se o corpo {{math|''K''}} for abrangente o suficiente para conter uma raiz desse polinômio (o que acontece automaticamente quando {{math|''K''}} for [[Corpo algebricamente fechado|algebricamente fechado]], tal como {{math|1=''K'' = '''C'''}}), qualquer aplicação linear tem pelo menos um autovetor. O espaço vetorial {{math|''V''}} pode ou não possuir uma base de autovetores. Esse fenômeno é regido pela [[forma canônica de Jordan]] da aplicação.<ref>{{Harvard citations|last = Roman|year = 2005|nb = yes|loc=cap. 8, p. 140}}.</ref>{{nota de rodapé|Ver também o artigo [[Decomposição de Jordan–Chevalley]].}} O conjunto de todos os autovetores associados a um certo autovalor de {{math|''f''}} forma um espaço vetorial conhecido como ''[[autoespaço]]''. Para alcançar o [[teorema espectral]], a afirmação correspondente do caso em que a dimensão é infinita, as ferramentas da [[análise funcional]] são necessárias.
 
== Construções básicas ==
Além dos exemplos concretos citados anteriormente, existem várias construções de álgebra linear padrão que acarretam espaços vetoriais a outros previamente fornecidos. Eles também são caracterizados pelas [[propriedade universal|propriedades universais]], que determinam um objeto {{math|''X''}} ao especificar as transformações lineares dele para qualquer outro espaço vetorial.
 
=== Subespaços e espaços quociente ===
{{Artigo principal|Subespaço vetorial|Espaço quociente (álgebra linear){{!}}Espaço quociente}}
[[File:Linear subspaces with shading.svg|thumb|250px|right|Uma linha que passa pela [[Origem de coordenadas|origem]] (em azul, linha mais grossa) em [[Espaço euclidiano|{{math|'''R'''<sup>3</sup>}}]] é um subespaço vetorial. Ela é a interseção de dois [[Plano (geometria)|planos]] (verde e amarelo).]]
 
Um [[subconjunto]] não-vazio ''W'' de um espaço vetorial ''V'' que é fechado sob adição e multiplicação por escalar (e portanto contém o vetor nulo '''0''' de ''V'') é chamado de ''subespaço vetorial'' de ''V'', ou simplesmente um ''subespaço'' de ''V'', quando o objeto em questão for, de forma não ambígua, um espaço vetorial.<ref>{{Harvard citations|last = Roman|year = 2005|nb = yes|loc=cap. 1, p. 29}}</ref>{{nota de rodapé|Esse é o caso típico quando um espaço vetorial também é considerado como um [[espaço afim]]. Neste caso, um subespaço vetorial contém o [[vetor nulo]], enquanto um subespaço afim não o contém necessariamente.}} Subespaços de ''V'' são espaços vetoriais próprios (sobre o mesmo corpo). A interseção de todos os subespaços contendo um determinado conjunto ''S'' de vetores é denominado como seu [[espaço vetorial gerado]] (ou, ainda, ''ger'' ou ''span''), e é o menor subespaço de ''V'' contendo o conjunto ''S''. Expressado em termos de elementos, o span é o subespaço que contém todas as [[combinações lineares]] dos elementos de ''S''.<ref>{{Harvard citations|last = Roman|year = 2005|nb = yes|loc=cap. 1, p. 35}}</ref>
 
{{anchor|vector line|vector plane|vector hyperplane}} Um subespaço vetorial de dimensão 1 é uma '''linha vetorial'''. Um subespaço de dimensão 2 é um '''plano vetorial'''. Um subespaço vetorial que contém todos a menos de um dos elementos de uma base do espaço principal é um '''hiperplano vetorial'''. Em um espaço vetorial de dimensão finita {{math|''n''}}, um [[hiperplano]] de vetores é portanto um subespaço de dimensão {{math|''n'' – 1}}.
 
A contrapartida dos subespaços são os ''espaços vetoriais quocientes''.<ref>{{Harvard citations|last = Roman|year = 2005|nb = yes|loc=cap. 3, p. 64}}</ref> Dado qualquer subespaço {{math|''W'' ⊂ ''V''}}, o espaço quociente ''V''/''W'' ("''V'' módulo ''W''") é definido da seguinte maneira: enquanto conjunto, ele consiste de {{math|1='''v''' + ''W'' = {'''v''' + '''w''' : '''w''' ∈ ''W''},}} em que '''v''' é um vetor arbitrário em ''V''; enquanto espaço vetorial, a soma de dois elementos desse tipo {{math|'''v'''<sub>1</sub> + ''W''}} e {{math|'''v'''<sub>2</sub> + ''W''}} é dada por {{math|('''v'''<sub>1</sub> + '''v'''<sub>2</sub>) + ''W'',}} e a multiplicação por escalar obedece a relação {{math|1=''a'' · ('''v''' + ''W'') = (''a'' · '''v''') + ''W''}}. A questão chave dessa definição é que {{math|1='''v'''<sub>1</sub> + ''W'' = '''v'''<sub>2</sub> + ''W''}} [[se e somente se]] a diferença de '''v'''<sub>1</sub> e '''v'''<sub>2</sub> estiver em ''W''.{{nota de rodapé|Alguns autores (tais como {{Harvard citations|last = Roman|year = 2005|nb = yes}}) escolhem começar por essa [[relação de equivalência]] e derivar a forma concreta de ''V''/''W'' a partir dela.}} Dessa maneira, o espaço quociente "esquece" da informação contida no subespaço ''W''.
 
O [[núcleo (álgebra linear)|núcleo]] ker(''f'') (do [[Língua inglesa|inglês]], ''kernel'') de uma transformação linear {{math|''f'' : ''V'' → ''W''}} consiste em vetores '''v''' que são mapeados para o vetor '''0''' em ''W'' (o vetor nulo de ''W'').<ref>{{Harvard citations|last = Lang|year = 1987|nb = yes|loc=cap. IV.3.}}</ref> Tanto o núcleo quanto a [[imagem (matemática)|imagem]] {{math|1=im(''f'') = {''f''('''v''') : '''v''' ∈ ''V''} }} são subespaços de ''V'' e ''W'', respectivamente.<ref>{{Harvard citations|last = Roman|year = 2005|nb = yes|loc=cap. 2, p. 48}}</ref> A existência de núcleos e imagens é parte do enunciado de que a [[categoria de espaços vetoriais]] (sobre um corpo fixo ''K'') é uma [[categoria abeliana]], isto é, um corpo de objetos matemáticos e de transformações que preservem a estrutura entre eles (uma [[categoria (matemática)|categoria]]), que se comporta de forma muito semelhante a uma [[categoria de grupos abelianos]].<ref>{{Harvard citations|last = Mac Lane|year = 1998|nb = yes}}</ref> Por causa disso, enunciados como o ''[[teorema do núcleo e da imagem]]'' (também chamado de ''teorema do [[Posto (matemática)|posto]] e da [[nulidade]]'', no contexto de matrizes),
 
:''V'' / ker(''f'') ≡ im(''f''),
 
podem ser formulados e provados de uma maneira similar ao que se faria para demonstrar enunciados equivalentes para [[Grupo (matemática)|grupos]].
 
Um exemplo importante é o do núcleo da transformação linear {{math|'''x''' ↦ ''A'''''x'''}} para alguma matriz fixa ''A''. O núcleo dessa aplicação é o subespaço dos vetores '''x''' tais que {{math|1=''A'''''x''' = 0}}, que é exatamente o conjunto das soluções do sistema de equações lineares homogêneas associadas a ''A''. Esse conceito também se estende para equações diferenciais lineares, cuja forma geral é
 
:<math>a_0 f + a_1 \frac{d f}{d x} + a_2 \frac{d^2 f}{d x^2} + \cdots + a_n \frac{d^n f}{d x^n} = 0</math>, em que os coeficientes ''a''<sub>''i''</sub> são também funções de ''x''.
 
Na transformação linear correspondente
 
:<math>f \mapsto D(f) = \sum_{i=0}^n a_i \frac{d^i f}{d x^i}</math>,
 
as [[derivada]]s da função ''f'' aparecem de forma linear (ao contrário de ''f''′′(''x'')<sup>2</sup>, por exemplo). Como a diferenciação é um procedimento linear (isto é, {{math|1=(''f'' + ''g'')′ = ''f''′ + ''g''&thinsp;′}} e {{math|1=(''c''·''f'')′ = ''c''·''f''′}} para uma constante {{math|''c''}}), essa transformação também é linear, denominada um [[operador diferencial linear]]. Em particular, as soluções da equação diferencial {{math|1=''D''(''f'') = 0}} formam um espaço vetorial (sobre {{math|'''R'''}} ou sobre {{math|'''C'''}}).
 
=== Produto direto e soma direta===
{{Artigo principal|Produto direto|Soma direta}}
O ''produto direto'' de espaços vetoriais e a ''soma direta'' de espaços vetoriais são duas maneiras de combinar uma família indexada de espaços vetoriais em um novo espaço vetorial.
 
O ''produto direto'' <math>\textstyle{\prod_{i \in I} V_i}</math> de uma família de espaços vetoriais ''V''<sub>''i''</sub> consiste em um conjunto de todas as [[ênupla]]s ({{math|'''v'''<sub>''i''</sub>)<sub>''i'' ∈ ''I''</sub>}}, que especificam para cada índice ''i'' em algum [[conjunto de índices]] ''I'' um elemento '''v'''<sub>''i''</sub> de ''V''<sub>''i''</sub>.<ref>{{Harvard citations|last = Roman|year = 2005|nb = yes|loc=cap. 1, pp. 31–32}}</ref> Adição e multiplicação por escalar são realizadas componente a componente. Uma variação dessa construção é a ''soma direta'' <math>\oplus_{i \in I} V_i</math> (também chamada [[Coproduto categorial|coproduto]] e denotada por <math>\textstyle{\coprod_{i \in I}V_i}</math>), em que somente as ênuplas com um número finito de vetores nulos são permitidas. Se o conjunto de índices ''I'' é finito, as duas construções são a mesma; porém, de forma mais geral, elas são distintas.
 
=== Produto tensorial ===
{{Artigo principal|Produto tensorial}}
O ''produto tensorial'' {{math|''V'' ⊗<sub>''F''</sub> ''W''}}, ou simplesmente {{math|''V'' ⊗ ''W''}}, de dois espaços vetoriais ''V'' e ''W'' é uma das noções centrais da [[álgebra multilinear]], que lida com noções estendidas como a de transformações lineares a várias variáveis. Um mapeamento {{math|''g'' : [[Produto cartesiano|''V'' × ''W'']] → ''X''}} é chamado de [[Mapa bilinear|bilinear]] se ''g'' é linear em ambas as variáveis '''v''' e '''w'''. Isto é, para um '''w''' fixo o mapa {{math|'''v''' ↦ ''g''('''v''', '''w''')}} é linear no sentido acima; isso então também é válido para um '''v''' fixo.
 
O produto tensorial é um espaço vetorial particular que é um receptor ''universal'' de mapeamentos bilineares ''g'', como a seguir. Ele é definido como um espaço vetorial que consiste de somas (formais) finitas de símbolos chamados de [[tensor]]es
:'''v'''<sub>1</sub> ⊗ '''w'''<sub>1</sub> + '''v'''<sub>2</sub> ⊗ '''w'''<sub>2</sub> + ... + '''v'''<sub>''n''</sub> ⊗ '''w'''<sub>''n''</sub>,
sujeitos às regras
: ''a'' &middot; ('''v''' ⊗ '''w''') = (''a'' &middot; '''v''') ⊗ '''w''' = '''v''' ⊗ (''a'' &middot; '''w'''), em que ''a'' é um escalar,
:('''v'''<sub>1</sub> + '''v'''<sub>2</sub>) ⊗ '''w''' = '''v'''<sub>1</sub> ⊗ '''w''' + '''v'''<sub>2</sub> ⊗ '''w''', e
:'''v''' ⊗ ('''w'''<sub>1</sub> + '''w'''<sub>2</sub>) = '''v''' ⊗ '''w'''<sub>1</sub> + '''v''' ⊗ '''w'''<sub>2</sub>.<ref>{{Harvard citations|last = Lang|year = 2002|loc = cap. XVI.1|nb = yes}}</ref>
 
[[File:Universal tensor prod.svg|right|thumb|200px|[[Diagrama comutativo]] evidenciando a propriedade universal do produto tensorial.]]
Essas regras garantem que o mapa ''f'' de {{math|''V'' × ''W''}} para {{math|''V'' ⊗ ''W''}}, que envia a [[ênupla]] {{math|('''v''', '''w''')}} para {{math|'''v''' ⊗ '''w'''}}, seja bilinear. A universalidade enuncia que dado ''qualquer'' espaço vetorial ''X'' e ''qualquer'' mapa bilinear {{math|''g'' : ''V'' × ''W'' → ''X''}}, existe um mapa único ''u'', mostrado no diagrama com uma seta pontilhada, cuja [[Composição de funções|composição]] com ''f'' é igual a ''g'': {{math|1=''u''('''v''' ⊗ '''w''') = ''g''('''v''', '''w''')}}.<ref>{{Harvard citations|last = Roman|year = 2005|nb = yes|loc=Teorema 14.3}}. Ver também [[Lema de Yoneda]].</ref> Isso é chamado de [[propriedade universal]] do produto tensorial, uma ocorrência do método — muito utilizado em álgebra abstrata avançada — de indiretamente definir objetos ao especificar mapas de ou para esse objeto.
 
== Espaços vetoriais com estrutura adicional ==
Do ponto de vista da álgebra linear, os espaços vetoriais são completamente compreendidos na medida em que qualquer espaço vetorial é caracterizado, de modo isomórfico, pela sua dimensão. Contudo, espaços vetoriais por si só não oferecem um escopo no qual é possível responder à questão {{mdash}} essencial para análise {{mdash}} de quando, ou se, uma série de funções [[Limite de uma sequência|converge]] para outra função. Da mesma forma, a álgebra linear não é adaptada para lidar com [[Série (matemática)|séries infinitas]], já que a operação de adição permite somente a soma de um número finito de termos. Assim, as demandas do ramo da [[análise funcional]] fazem com que sejam considerados espaços vetoriais com estrutura adicional.
 
Um espaço vetorial pode ser [[Conjunto parcialmente ordenado|parcialmente ordenado]] ≤, de modo que certos vetores possam ser comparados.<ref>{{Harvard citations|last1 = Schaefer|last2=Wolff|year = 1999|loc = pp. 204–205|nb = yes}}</ref> Por exemplo, um espaço vetorial real ''n''-dimensional '''R'''<sup>''n''</sup> pode ser ordenado ao se comparar os vetores componente à componente. [[Espaço vetorial ordenado|Espaços vetoriais ordenados]], como os [[Espaço de Riesz|espaços de Riesz]], são fundamentais para a formulação da [[integral de Lebesgue]], que requer que uma função qualquer seja expressa como a diferença de duas funções positivas
 
:''f'' = ''f''<sup>+</sup> − ''f''<sup>−</sup>,
 
em que ''f''<sup>+</sup> denota a parte positiva de ''f'' e ''f''<sup>−</sup> a parte negativa.<ref>{{Harvard citations|last = Bourbaki|year = 2004|nb = yes|loc=cap. 2, p. 48}}</ref>
 
=== Espaços vetoriais normados e com produto interno ===
{{Artigo principal|Espaço vetorial normado|Espaço com produto interno}}
O processo de "medida" de vetores é feito ao se especificar uma [[norma (matemática)|norma]], uma função que mede o comprimento de um vetor, ou definindo um [[produto interno]], que mede ângulos entre vetores. Normas e produtos internos são denotados por <math>| \mathbf v|</math> e <math>\lang \mathbf v , \mathbf w \rang</math>, respectivamente. Espaços vetoriais dotados dessa estrutura são denominados ''espaços vetoriais normados'' e ''espaços com produto interno'', respectivamente.<ref>{{Harvard citations|last =Roman|year = 2005|nb = yes|loc=cap. 9}}</ref> É possível obter uma norma a partir de um produto interno, definindo-a como <math>|\mathbf v| := \sqrt {\langle \mathbf v , \mathbf v \rangle}</math>.
 
O espaço de coordenadas ''K''<sup>''n''</sup> pode ser equipado com o [[produto escalar]] canônico:
 
:<math>\lang \mathbf x , \mathbf y \rang = \mathbf x \cdot \mathbf y = x_1 y_1 + \cdots + x_n y_n.</math>
 
Em '''R'''<sup>2</sup>, isso reflete a noção comum de ângulo entre dois vetores '''x''' e '''y''', pela [[lei dos cossenos]]:
 
:<math>\mathbf x \cdot \mathbf y = \cos\left(\angle (\mathbf x, \mathbf y)\right) \cdot |\mathbf x| \cdot |\mathbf y|.</math>
 
Por causa disso, dois vetores que satisfaçam <math>\lang \mathbf x , \mathbf y \rang = 0</math> são chamados de [[ortogonal|ortogonais]]. Uma variante importante do produto interno padrão é usado no [[espaço de Minkowski]]; isto é, o espaço '''R'''<sup>4</sup> dotado do produto de Lorentz
 
:<math>\lang \mathbf x | \mathbf y \rang = x_1 y_1 + x_2 y_2 + x_3 y_3 - x_4 y_4.</math><ref>{{Harvard citations|last =Naber|year = 2003|nb = yes|loc=cap. 1.2}}</ref>
 
Em contraste com o produto escalar padrão, ele não é [[Forma quadrática definida|positivo definido]]: <math>\lang \mathbf x | \mathbf x \rang</math> também pode assumir valores negativos, como por exemplo para <math>\mathbf x = (0, 0, 0, 1)</math>. Isolar a quarta temporada {{mdash}} [[Espaço-tempo|correspondente ao tempo]], em vez das três dimensões espaciais {{mdash}} é útil para o tratamento matemático da [[relatividade restrita]].
 
=== Espaços vetoriais topológicos ===
{{Artigo principal|Espaço vetorial topológico}}
Questões de convergência são tratadas ao considerar espaços vetoriais que comportem uma [[Espaço topológico|topologia]] compatível, uma estrutura que permite descrever pontos como sendo [[Vizinhança (matemática)|próximos uns dos outros]].<ref>{{Harvard citations|last = Treves|year = 1967|nb = yes}}</ref><ref>{{Harvard citations|last = Bourbaki|year = 1987|nb = yes}}</ref> A compatibilidade significa que a adição e a multiplicação por escalar precisam ser [[Função contínua|mapas contínuos]]. Em resumo, se '''x''' e '''y''' em um espaço vetorial ''V'' e ''a'' no corpo ''K'' variarem por uma quantidade limitada, então {{math|'''x''' + '''y'''}} e {{math|''a'''''x'''}} variam limitadamente.{{nota de rodapé|Essa exigência implica que a topologia acarreta uma [[estrutura uniforme]], {{Harvard citations|last = Bourbaki|year = 1989|loc = cap. II|nb = yes}}.}} Para dar sentido em especificar o quanto um escalar varia, o corpo ''K'' também precisa carregar uma topologia nesse contexto; opções comuns de corpos são o dos números reais e o dos números complexos.
 
Nesses ''espaços vetoriais topológicos'' é possível considerar [[Série (matemática)|série]] de vetores. A soma infinita
 
:<math>\sum_{i=0}^{\infty} f_i</math>
 
denota o [[Limite de uma sequência|limite]] das somas parciais finitas correspondentes da sequência (''f''<sub>''i''</sub>)<sub>''i''∈'''N'''</sub> de elementos de ''V''. Por exemplo, os elementos ''f''<sub>''i''</sub> podem ser funções (reais ou complexas) pertencentes a algum [[espaço funcional]] ''V'', de modo que a soma infinita seja uma [[série de funções]]. O [[Modos de convergência|modo de convergência]] da série é dependente da topologia imposta ao espaço funcional. Nesses casos, [[convergência pontual]] e [[convergência uniforme]] são dois exemplos proeminentes.
 
[[Image:Vector norms2.svg|thumb|right|250px|[[Esfera unitárias|"Esferas" unitárias]] no '''R'''<sup>2</sup> consistindo de vetores planos de norma 1. Estão ilustradas esferas em diferentes [[Espaço Lp|''p''-norma]]s, para ''p'' = 1, 2, e ∞. O diamante maior representa pontos com 1-norma igual a 2.]]
Uma maneira de garantir a existência de limites de certas séries infinitas é restringir o estudo a espaços onde qualquer [[sequência de Cauchy]] possui limite; tais espaços vetoriais são denominados [[Espaço completo|completos]]. Simplificadamente, um espaço vetorial é dito completo contanto que contenha todos os limites necessários; o espaço vetorial dos polinômios nos [[intervalo unitário]] [0,1], equipado com a [[topologia de convergência uniforme]], não é completo, pois qualquer função contínua em [0,1] pode ser uniformemente aproximada por uma sequência de polinômios ([[Teorema de Stone-Weierstrass]]).<ref>{{harvnb|Kreyszig|1989|loc=§4.11-5}}</ref> Em contraste, o espaço de ''todas'' as funções contínuas em [0,1] equipado com a mesma topologia é completo.<ref>{{harvnb|Kreyszig|1989|loc=§1.5-5}}</ref> Uma norma acarreta uma topologia ao definir que uma sequência de vetores '''v'''<sub>''n''</sub> convirja para '''v''' se e somente se
 
:<math>\lim_{n \to \infty} |\mathbf v_n - \mathbf v| = 0.</math>
 
Espaços de Banach e Hilbert são espaços vetoriais topológicos completos cujas topologias são fornecidas, respectivamente, por uma norma e por um produto interno. O estudo deles {{mdash}} uma peça-chave da [[análise funcional]] {{mdash}} tem como foco espaços vetoriais de dimensão infinita, já que todas as normas em espaços topológicos de dimensão finita fornecem a mesma noção de convergência.<ref>{{Harvard citations|last =Choquet|year = 1966|nb = yes|loc=Proposição III.7.2}}</ref> A imagem à direita mostra a equivalência da 1-norma e da ∞-norma no '''R'''<sup>2</sup>: com as "bolas" unitárias englobando-se umas às outras, uma sequência converge a zero em uma norma se e somente se o fizer em uma outra norma. No caso de dimensão infinita, entretanto, em geral existirão topologias não equivalentes, o que faz com que o estudo espaços vetoriais topológicos seja mais rico do que o de espaços vetoriais sem essa estrutura adicional.
 
De um ponto de vista conceitual, todas as noções relacionadas a espaços vetoriais topológicos devem ser compatíveis com a topologia associada. Por exemplo, ao invés de considerar todas as transformações lineares (também chamadas de [[Funcional|funcionais]]) {{math|''V'' → ''W''}}, exige-se que mapas entre espaços vetoriais topológicos sejam contínuos.<ref>{{Harvard citations|last = Treves|year = 1967|nb = yes|loc=p. 34–36}}</ref> Em particular, o espaço dual (topológico) {{math|''V''<sup>∗</sup>}} consiste dos funcionais contínuos {{math|''V'' → '''R'''}} (ou para {{math|'''C'''}}). O [[teorema de Hahn-Banach]] tem por objetivo a separação de subespaços de espaços vetoriais topológicos adequados por funcionais contínuos.<ref>{{Harvard citations|last = Lang|year =1983|nb = yes|loc=Cor. 4.1.2, p. 69}}</ref>
 
==== Espaços de Banach ====
{{Artigo principal|Espaço de Banach}}
''Espaços de Banach'', introduzidos por [[Stefan Banach]], são espaços vetoriais normados completos.<ref>{{Harvard citations|last = Treves|year = 1967|nb = yes|loc=cap. 11}}</ref>
 
Um primeiro exemplo é o [[Espaço Lp|espaço vetorial <math>\ell^{p}</math>]] composto de vetores com infinitas entradas reais <math>\mathbf{x}=\left(x_{1}, x_{2}, \ldots, x_{n},\ldots\right)</math>, cuja [[Espaço Lp|<math>p</math>-norma]] <math>(1\leq{p}\leq\infty)</math> dado por
 
:<math>\left\Vert\mathbf{x}\right\Vert_{p} := \left(\sum_{i} \left\vert x_{i}\right\vert^{p}\right)^\frac{1}{p}</math> para <math>p < \infty</math>&nbsp;&nbsp; e &nbsp;&nbsp; <math>\left\Vert\mathbf x\right\Vert_{\infty} := \text{sup}_{i} \left\vert x_{i}\right\vert</math>.
 
As topologias do espaço <math>\ell^{p}</math> de dimensão infinita não são equivalentes para diferentes valores de <math>p</math>. Como exemplo, a sequência de vetores <math>\mathbf{x}_{n} = \left(2^{-n}, 2^{-n}, \ldots, 2^{-n}, 0, 0, \ldots\right)</math>, em que as primeiras <math>2^{n}</math> componentes são <math>2^{-n}</math> e as seguintes são <math>0</math>, converge para o [[vetor nulo]] para <math>p = \infty</math>, mas não para <math>p = 1</math>:
 
:<math>\left\Vert\mathbf{x}_{n}\right\Vert_{_\infty} = \sup (2^{-n}, 0) = 2^{-n} \rightarrow 0</math>, mas <math>\left\Vert\mathbf{x}_{n}\right\Vert_{1} = \sum_{i=1}^{2^n} 2^{-n} = 2^n \cdot 2^{-n} = 1.</math>
 
De forma mais geral do que sequências de números reais, funções <math>f\colon \Omega \to \mathbb{R}</math> são equipados com uma norma que substitui a soma acima pela [[integral de Lebesgue]]
 
:<math>\left\Vert{f}\right\Vert_{p} := \left(\int_{\Omega} \left\vert{f}\left(x\right)\right\vert^{p} \, {d\mu\left(x\right)} \right)^\frac{1}{p}.</math>
 
O espaço das [[Função integrável|funções integráveis]] em um dado [[Domínio (matemática)|domínio]] <math>\Omega</math> (por exemplo um intervalo) satisfazendo <math>\left\Vert{f}\right\Vert_{p} < \infty</math>, e equipado com essa norma são chamados de [[espaço de Lp|espaços de Lebesgue]], denotados como <math>L^{\;\!p}\left(\Omega\right)</math>.{{nota de rodapé| A [[desigualdade triangular]] para <math>\left\Vert{f + g}\right\Vert_{p} \leq \left\Vert{f}\right\Vert_{p} + \left\Vert{g}\right\Vert_{p}</math> é provida pela [[desigualdade de Minkowski]]. Por razões técnicas, no contexto de funções, é preciso identificar funções que concordem [[em quase todo lugar]] para se ter uma norma, e não só uma [[seminorma]].}}
 
Esses espaços são completos.<ref>{{Harvard citations|last = Treves|year = 1967|nb = yes|loc=Teorema 11.2, p. 102}}</ref> (Se, ao invés disso, a [[integral de Riemann]] for utilizada, o espaço ''não'' é completo, o que pode ser percebido como uma justificativa para a teoria de integração de Lebesgue.<!-- <ref group=nb>
"Many functions in
<math>L^{2}</math>
of Lebesgue measure, being unbounded, cannot be integrated with the classical Riemann integral. So spaces of Riemann integrable functions would not be complete in the
<math>L^{2}</math>
norm, and the orthogonal decomposition would not apply to them. This shows one of the advantages of Lebesgue integration.", {{Harvard citations|last = Dudley|year = 1989|nb = yes|loc=§5.3, p. 125}}
</ref> -->) Concretamente, isso significa que para qualquer sequência de funções do integráveis por Lebesgue &nbsp;&nbsp; <math>f_{1}, f_{2}, \ldots, f_{n},\ldots</math>&nbsp;&nbsp; com <math>\left\Vert{f}_{n}\right\Vert_{p}<\infty</math>, satisfazendo a condição
 
:<math>\lim_{k,\ n \to \infty}\int_{\Omega} \left\vert{f}_{k}(x) - {f}_{n}(x)\right\vert^{p} \, {d\mu\left(x\right)} = 0</math>.
 
Existe uma função <math>{f}\left(x\right)</math> pertencente ao espaço vetorial <math>L^{\;\!p}\left(\Omega\right)</math> tal que
:<math>\lim_{k \to \infty}\int_{\Omega} \left\vert{f}\left(x\right) - {f}_{k}\left(x\right)\right\vert^{p} \, {d\mu\left(x\right)} = 0.</math>
 
Impondo condições de limitação não somente à função, mas também às suas [[derivada]]s resulta nos [[espaços de Sobolev]].<ref>{{Harvard citations|last = Evans|year = 1998|loc = cap. 5|nb = yes}}</ref>
 
==== Espaços de Hilbert ====
{{Artigo principal|Espaço de Hilbert}}
[[File:Periodic identity function.gif|right|thumb|400px|As imagens sucessivas mostram a soma de 1 a 5 termos na aproximação de uma função periódica (azul) por uma soma finita de funções seno (vermelho).]]
Espaços com produto interno completo são conhecidos como ''espaços de Hilbert'', em homenagem a [[David Hilbert]].<ref>{{Harvard citations|last = Treves|year = 1967|nb = yes|loc=cap. 12}}</ref>
O espaço de Hilbert ''L''<sup>2</sup>(Ω), com produto interno dado por
:<math> \langle f\ , \ g \rangle = \int_\Omega f(x) \overline{g(x)} \, dx,</math>
em que <math>\overline{g(x)}</math> denota o [[conjugado complexo]] de ''g''(''x''),<ref name=Dennery>{{Harvard citations|last = Dennery|year = 1996|loc = p.190|nb = yes}}</ref>{{nota de rodapé|Para ''p'' ≠2, ''L''<sup>''p''</sup>(Ω) não é um espaço de Hilbert.}} é um caso chave.
 
Por definição, em um espaço de Hilbert qualquer sequência de Cauchy converge para um limite. Dessa forma, encontrar uma sequência de funções ''f''<sub>''n''</sub> com propriedades desejáveis que aproxime uma dada função limite torna-se crucial. O início da análise, na forma da [[aproximação de Taylor]], estabeleceu uma aproximação de [[Função diferenciável|funções diferenciáveis]] por polinômios.<ref>{{Harvard citations|last = Lang|year = 1993|loc = Teorema XIII.6, p. 349|nb = yes}}</ref> Pelo [[teorema de Stone-Weierstrass]], toda função contínua em um intervalo {{math|[''a'', ''b'']}} pode ser aproximada tão bem quanto desejado por um polinômio.<ref>{{Harvard citations|last = Lang|year = 1993|loc = Teorema III.1.1|nb = yes}}</ref> Uma técnica de aproximação semelhante feita com [[funções trigonométricas]] é comumente chamada de [[expansão de Fourier]], e é muito aplicada em engenharia. De forma mais geral, e mais conceitual, o teorema permite uma descrição simples de quais "funções básicas", ou, no contexto de espaços abstratos de Hilbert, quais vetores básicos são suficientes para gerar o espaço de Hilbert ''H'', no sentido de que o ''[[fecho]]'' do span desses vetores (isto é, combinações lineares finitas e seus limites) é o espaço inteiro. Tal conjunto de funções é chamada de uma ''base'' de ''H'', sua cardinalidade é conhecida como a [[Espaço de Hilbert|dimensão do espaço de Hilbert]].{{nota de rodapé|Uma base de um espaço de Hilbert não é o mesmo que uma base no contexto da álgebra linear, como exposto acima. Por distinção, a última é então chamada de [[base de Hamel]].}} O teorema não apenas mostra funções adequadas para uma base como suficiente para fazer aproximações, mas também, aliado ao [[processo de Gram-Schmidt]], permite a construção de uma [[Base ortogonal|base ortogonal de vetores]].<ref>{{Harvard citations|last = Choquet|year = 1966|loc = Lema III.16.11|nb = yes}}</ref> Tais bases ortogonais são a generalização em espaços de Hilbert dos eixos de coordenadas em [[espaços euclidianos]], de dimensão finita.
 
As soluções para várias [[equações diferenciais]] podem ser interpretadas em termos de espaços de Hilbert. Por exemplo, muitas áreas da física e da engenharia deparam-se com tais equações e frequentemente soluções com propriedades físicas particulares são utilizadas como funções de uma base, por vezes ortogonal.<ref>{{Harvnb|Kreyszig|1999|Capítulo 11}}</ref> Na [[física quântica]], a [[equação de Schrödinger]] dependente do tempo descreve a mudança de propriedades físicas como função do tempo através de uma [[equação diferencial parcial]], cujas soluções são chamadas de [[funções de onda]].<ref>{{Harvnb|Griffiths|1995|Capítulo 1}}</ref> Valores definidos de grandezas físicas como [[energia]] e [[Momento linear|momento]] correspondem a [[autovalor]]es de um certo [[operador diferencial]] linear e as funções de onda associadas são chamadas de [[Estado quântico|autoestado]]s. O [[teorema espectral]] decompõe um [[Operador compacto|operador linear compacto]] que atua sobre uma função em termos dessas autofunções e desses autovalores.<ref>{{Harvard citations|last = Lang|year = 1993|loc =cap. XVII.3|nb = yes}}</ref>
 
== Propriedades ==
Linha 87 ⟶ 368:
* [[Espaço Vectorial Euclidiano]]: É qualquer espaço real que possui um número finito de dimensões e possui uma operação denominada [[produto interno]].<ref name="callioli-159">Callioli, Domingues & Costa, 1990, p. 159</ref>
* [[Espaço de Hilbert]]: É qualquer espaço vetorial que possui uma operação denominada [[produto interno]] e cuja [[espaço métrico|métrica]] gerada por esse produto interno o torne um [[espaço completo]].
* [[Espaços normados|Espaço normado]]: É qualquer espaço vetorial que possui uma [[norma (matemática)|norma]] definida
* [[Espaço de Banach]]: É um espaço normado [[espaço completo|completo]] na métrica gerada por esta norma.
* [[Espaço vectorial topológico]]: se existe uma [[espaço topológico|topologia]] compatível com as operações de espaço vectorial.
Linha 97 ⟶ 378:
* [[Álgebra sobre um corpo]]: se existe uma multiplicação de vetores satisfazendo alguns axiomas
 
{{Notas}}
{{Referências}}
 
== Bibliografia ==
* {{Citarcitar livro|nomenome1=Carlos A. |sobrenomesobrenome1=Callioli |coautornome2= Hygino H. |sobrenome2=Domingues;|nome3= Roberto C. F. |sobrenome3=Costa |título=Álgebra Linear e Aplicações |edição=6 |local= São Paulo |editora=Atual |ano=1990 |id=ISBN 9788570562975|url=https://brogdomonzao.files.wordpress.com/2011/10/algebra_linear_e_aplicacoes_-_callioli.pdf}}
* {{Citarcitar livro|nome=Ben |sobrenome=Noble |coautorautor2= James W. Daniel |título=Álgebra Linear Aplicada |local= Rio de Janeiro |editora=Prentice-Hall do Brasil |ano=1986|id=ISBN 9788570540225}}
 
=== Álgebra ===
{{Div col|2}}
* {{citar livro|nome=Michael|sobrenome=Artin|autorlink=Michael Artin|título= Algebra|editora=[[Prentice Hall]]|ano=1991|isbn=978-0-89871-510-1|língua=inglês|url=|ref=harv}}
* {{Citation |último1=Blass |primeiro1=Andreas |título=Axiomatic set theory (Boulder, Colorado, 1983) |publicado=[[American Mathematical Society]] |local=Providence, R.I. | series=Contemporary Mathematics | mr=763890 |ano=1984 | volume=31 |capítulo=Existence of bases implies the axiom of choice | |página=31–33}}
* {{Citation |último1=Brown |primeiro1=William A. |título=Matrices and vector spaces |publicado=M. Dekker |local=New York | isbn=978-0-8247-8419-5 |ano=1991}}
* {{Citation |último1=Lang |primeiro1=Serge |autorlink1=Serge Lang |título=Linear algebra |publicado=[[Springer-Verlag]] |local=Berlin, New York | isbn=978-0-387-96412-6 |ano=1987}}
* {{Lang Algebra}}
* {{Citation |último1=Mac Lane |primeiro1=Saunders |autorlink1=Saunders Mac Lane |título=Algebra |edição=3rd | |página=193–222 | isbn=978-0-8218-1646-2 |ano=1999}}
* {{Citation |último1=Meyer |primeiro1=Carl D. |título=Matrix Analysis and Applied Linear Algebra | url=http://www.matrixanalysis.com/ |publicado=[[Society for Industrial and Applied Mathematics|SIAM]] | isbn=978-0-89871-454-8 |ano=2000}}
* {{Citation |último1=Roman |primeiro1=Steven |título=Advanced Linear Algebra |publicado=[[Springer-Verlag]] |local=Berlin, New York |edição=2nd | series=Graduate Texts in Mathematics | isbn=978-0-387-24766-3 |ano=2005 | volume=135}}
* {{Citation |último1=Spindler |primeiro1=Karlheinz |título=Abstract Algebra with Applications: Volume 1: Vector spaces and groups|publicado=CRC | isbn=978-0-8247-9144-5 |ano=1993}}
* {{Citation |último1=van der Waerden |primeiro1=Bartel Leendert |autorlink1=Bartel Leendert van der Waerden |título=Algebra |publicado=[[Springer-Verlag]] |local=Berlin, New York |edição=9th | isbn=978-3-540-56799-8 |ano=1993|língua=de}}
{{Div col fim}}
 
=== Análise ===
{{Div col|2}}
* {{Citation |último1=Bourbaki |primeiro1=Nicolas |autorlink1=Nicolas Bourbaki |título=Topological vector spaces |publicado=[[Springer-Verlag]] |local=Berlin, New York | series=Elements of mathematics | isbn=978-3-540-13627-9 |ano=1987}}
* {{Citation |último1=Bourbaki |primeiro1=Nicolas |autorlink1=Nicolas Bourbaki |título=Integration I |publicado=[[Springer-Verlag]] |local=Berlin, New York | isbn=978-3-540-41129-1 |ano=2004}}
* {{Citation |último1=Braun |primeiro1=Martin |título=Differential equations and their applications: an introduction to applied mathematics |publicado=[[Springer-Verlag]] |local=Berlin, New York | isbn=978-0-387-97894-9 |ano=1993}}
* {{springer|last=BSE-3|title=Tangent plane|id=T/t092180}}
* {{Citation |último1=Choquet |primeiro1=Gustave |autorlink1=Gustave Choquet |título=Topology |publicado=[[Academic Press]] |local=Boston, MA |ano=1966}}
* {{Citation |último1=Dennery |primeiro1=Philippe |último2=Krzywicki |primeiro2=Andre |título=Mathematics for Physicists |publicado=Courier Dover Publications | isbn=978-0-486-69193-0 |ano=1996}}
* {{Citation |último1=Dudley |primeiro1=Richard M. |título=Real analysis and probability |publicado=Wadsworth & Brooks/Cole Advanced Books & Software |local=Pacific Grove, CA | series=The Wadsworth & Brooks/Cole Mathematics Series | isbn=978-0-534-10050-6 |ano=1989}}
* {{Citation |último1=Dunham |primeiro1=William |título=The Calculus Gallery |publicado=[[Princeton University Press]] | isbn=978-0-691-09565-3 |ano=2005}}
* {{Citation |último1=Evans |primeiro1=Lawrence C. |título=Partial differential equations |publicado=[[American Mathematical Society]] |local=Providence, R.I. | isbn=978-0-8218-0772-9 |ano=1998}}
* {{Citation |último1=Folland |primeiro1=Gerald B. |título=Fourier Analysis and Its Applications |publicado=Brooks-Cole | isbn=978-0-534-17094-3 |ano=1992}}
* {{Citation |último= Gasquet |primeiro= Claude |último2= Witomski |primeiro2= Patrick |data-publicacao= 1999 |título= Fourier Analysis and Applications: Filtering, Numerical Computation, Wavelets | series = Texts in Applied Mathematics |local= New York |publicado= Springer-Verlag | isbn = 978-0-387-98485-8 |ano= 1999}}
* {{Citation |último= Ifeachor |primeiro= Emmanuel C. |último2= Jervis |primeiro2= Barrie W. |data-publicacao= 2002 |título= Digital Signal Processing: A Practical Approach |edição= 2nd |local= Harlow, Essex, England |publicado= Prentice-Hall | isbn = 978-0-201-59619-9 |ano= 2001}}
* {{Citation |último= Krantz |primeiro= Steven G. |data-publicacao= 1999 |título= A Panorama of Harmonic Analysis | series = Carus Mathematical Monographs |local= Washington, DC |publicado= Mathematical Association of America | isbn = 978-0-88385-031-2 |ano= 1999}}
* {{Citation |último= Kreyszig |primeiro= Erwin |autorlink= Erwin Kreyszig |data-publicacao= 1988 |título= Advanced Engineering Mathematics |edição= 6th |local= New York |publicado= John Wiley & Sons | isbn = 978-0-471-85824-9 |ano= 1988}}
*{{Citation |último1=Kreyszig |primeiro1=Erwin |autorlink1=Erwin Kreyszig |título=Introductory functional analysis with applications |publicado=[[John Wiley & Sons]] |local=New York | series=Wiley Classics Library | isbn=978-0-471-50459-7 | mr=992618 |ano=1989}}
* {{Citation |último1=Lang |primeiro1=Serge |autorlink1=Serge Lang |título=Real analysis |publicado=[[Addison-Wesley]] | isbn=978-0-201-14179-5 |ano=1983}}
* {{Citation |último1=Lang |primeiro1=Serge |autorlink1=Serge Lang |título=Real and functional analysis |publicado=[[Springer-Verlag]] |local=Berlin, New York | isbn=978-0-387-94001-4 |ano=1993}}
* {{Citation |último1=Loomis |primeiro1=Lynn H. |título=An introduction to abstract harmonic analysis |publicado=D. Van Nostrand Company, Inc. |local=Toronto-New York–London |ano=1953 | |página=x+190| hdl=2027/uc1.b4250788 | hdl-access=free }}
* {{Citation |autorlink1= Helmut Schaefer |último1=Schaefer |primeiro1=Helmut H. |último2=Wolff |primeiro2=M.P. |título=Topological vector spaces |publicado=[[Springer-Verlag]] |local=Berlin, New York |edição=2nd | isbn=978-0-387-98726-2 |ano=1999}}
* {{Citation |último1=Treves |primeiro1=François |título=Topological vector spaces, distributions and kernels |publicado=[[Academic Press]] |local=Boston, MA |ano=1967}}
{{Div col fim}}
 
=== Referências históricas===
{{Div col|2}}
* {{Citation |último1=Banach |primeiro1=Stefan |autorlink1=Stefan Banach |título=Sur les opérations dans les ensembles abstraits et leur application aux équations intégrales (On operations in abstract sets and their application to integral equations) | url=http://matwbn.icm.edu.pl/ksiazki/fm/fm3/fm3120.pdf |ano=1922 |periódico=[[Fundamenta Mathematicae]] | issn=0016-2736 | volume=3| |página=133–181 |língua=fr| doi=10.4064/fm-3-1-133-181 }}
* {{Citation |último1=Bolzano |primeiro1=Bernard |autorlink1=Bernard Bolzano |título=Betrachtungen über einige Gegenstände der Elementargeometrie (Considerations of some aspects of elementary geometry) | url=http://dml.cz/handle/10338.dmlcz/400338 |ano=1804|língua=de}}
* {{Citation |último1=Bourbaki |primeiro1=Nicolas |autorlink1=Nicolas Bourbaki |título=Éléments d'histoire des mathématiques (Elements of history of mathematics) |publicado=Hermann |local=Paris |ano=1969|língua=fr}}
* {{Citation |último1=Dorier |primeiro1=Jean-Luc |título=A general outline of the genesis of vector space theory | mr=1347828 |ano=1995 |periódico=[[Historia Mathematica]] | volume=22 |número=3 | |página=227–261 | doi=10.1006/hmat.1995.1024| url=http://archive-ouverte.unige.ch/unige:16642 | doi-access=free }}
* {{Citation |último1=Fourier |primeiro1=Jean Baptiste Joseph |autorlink1=Joseph Fourier |título=Théorie analytique de la chaleur | url=https://books.google.com/?id=TDQJAAAAIAAJ |publicado=Chez Firmin Didot, père et fils |ano=1822|língua=fr}}
* {{Citation |último1=Grassmann |primeiro1=Hermann |autorlink1=Hermann Grassmann |título=Die Lineale Ausdehnungslehre - Ein neuer Zweig der Mathematik | url=https://books.google.com/?id=bKgAAAAAMAAJ&pg=PA1 |ano=1844 |publicado=O. Wigand|língua=de}}, reprint: {{Citation |título=Extension Theory |publicado=[[American Mathematical Society]] |local=Providence, R.I. | isbn=978-0-8218-2031-5 |ano=2000 |autor=Hermann Grassmann. Translated by Lloyd C. Kannenberg. |editor-sobrenome1=Kannenberg |editor-nome1=L.C.}}
* {{Citation |último1=Hamilton |primeiro1=William Rowan |autorlink1=William Rowan Hamilton |título=Lectures on Quaternions | url=http://historical.library.cornell.edu/cgi-bin/cul.math/docviewer?did=05230001&seq=9 |publicado=Royal Irish Academy |ano=1853}}
* {{Citation |último1=Möbius |primeiro1=August Ferdinand |autorlink1=August Ferdinand Möbius |título=Der Barycentrische Calcul : ein neues Hülfsmittel zur analytischen Behandlung der Geometrie (Barycentric calculus: a new utility for an analytic treatment of geometry) | url=http://mathdoc.emath.fr/cgi-bin/oeitem?id=OE_MOBIUS__1_1_0 |arquivourl=https://web.archive.org/web/20061123192612/http://mathdoc.emath.fr/cgi-bin/oeitem?id=OE_MOBIUS__1_1_0 |urlmorta= sim|arquivodata=2006-11-23 |ano=1827|língua=de}}
* {{Citation |último1=Moore |primeiro1=Gregory H. |título=The axiomatization of linear algebra: 1875–1940 |ano=1995 |periódico=[[Historia Mathematica]] | volume=22 |número=3 | |página=262–303 | doi=10.1006/hmat.1995.1025| doi-access=free }}
* {{Citation |último1=Peano |primeiro1=Giuseppe |autorlink1=Giuseppe Peano |título=Calcolo Geometrico secondo l'Ausdehnungslehre di H. Grassmann preceduto dalle Operazioni della Logica Deduttiva |ano=1888 |local=Turin|língua=it}}
{{Div col fim}}
 
=== Referências extras===
{{Div col|2}}
* {{Citation |último1=Ashcroft |primeiro1=Neil |último2=Mermin |primeiro2=N. David |autorlink1=Neil Ashcroft |autorlink2=N. David Mermin |título=Solid State Physics |publicado=Thomson Learning |local=Toronto | isbn=978-0-03-083993-1 |ano=1976 |acessourl=registro | url=https://archive.org/details/solidstatephysic00ashc }}
* {{Citation |último1=Atiyah |primeiro1=Michael Francis |autorlink1=Michael Atiyah |título=K-theory |publicado=[[Addison-Wesley]] |edição=2nd | series=Advanced Book Classics | isbn=978-0-201-09394-0 | mr=1043170 |ano=1989}}
* {{Citation |último1=Bourbaki |primeiro1=Nicolas |autorlink1=Nicolas Bourbaki |título=Elements of Mathematics : Algebra I Chapters 1-3 |publicado=[[Springer-Verlag]] |local=Berlin, New York | isbn=978-3-540-64243-5 |ano=1998}}
* {{Citation |último1=Bourbaki |primeiro1=Nicolas |autorlink1=Nicolas Bourbaki |título=General Topology. Chapters 1-4 |publicado=[[Springer-Verlag]] |local=Berlin, New York | isbn=978-3-540-64241-1 |ano=1989}}
* {{Citation |último1=Coxeter |primeiro1=Harold Scott MacDonald |autorlink1=Harold Scott MacDonald Coxeter |título=Projective Geometry |publicado=[[Springer-Verlag]] |local=Berlin, New York |edição=2nd | isbn=978-0-387-96532-1 |ano=1987}}
* {{Citation |último1=Eisenberg |primeiro1=Murray |último2=Guy |primeiro2=Robert |título=A proof of the hairy ball theorem |ano=1979 |periódico=[[American Mathematical Monthly|The American Mathematical Monthly]] | volume=86 |número=7 | |página=572–574 | doi=10.2307/2320587 | jstor=2320587 }}
* {{Citation |último1=Eisenbud |primeiro1=David |autorlink1=David Eisenbud |título=Commutative algebra |publicado=[[Springer-Verlag]] |local=Berlin, New York | series=Graduate Texts in Mathematics | isbn=978-0-387-94269-8 | mr=1322960 |ano=1995 | volume=150}}
* {{Citation |último1=Goldrei |primeiro1=Derek |título=Classic Set Theory: A guided independent study |publicado=[[Chapman and Hall]] |local=London |edição=1st | isbn=978-0-412-60610-6 |ano=1996}}
* {{Citation |último=Griffiths |primeiro=David J. |autorlink=David J. Griffiths |título=Introduction to Quantum Mechanics |ano=1995 |publicado=[[Prentice Hall]] |local=Upper Saddle River, NJ |isbn=978-0-13-124405-4}}
* {{Citation |último1=Halmos |primeiro1=Paul R. |autorlink1=Paul R. Halmos |título=Finite-dimensional vector spaces |publicado=[[Springer-Verlag]] |local=Berlin, New York | isbn=978-0-387-90093-3 |ano=1974}}
* {{Citation |último1=Halpern |primeiro1=James D. |título=Bases in Vector Spaces and the Axiom of Choice |data=junho de 1966 |periódico=[[Proceedings of the American Mathematical Society]] | volume=17 |número=3 | |página=670–673 | doi=10.2307/2035388 | jstor=2035388 | doi-access=free }}
* {{Citation |último1=Hughes-Hallett |primeiro1=Deborah |último2=McCallum |primeiro2=William G. |último3=Gleason |primeiro3=Andrew M. |título=Calculus : Single and Multivariable |data=2013 |publicado=[[John Wiley & Sons]] | isbn=978-0470-88861-2 |edição=6}}
* {{Citation |último1=Husemoller |primeiro1=Dale |título=Fibre Bundles |publicado=[[Springer-Verlag]] |local=Berlin, New York |edição=3rd | isbn=978-0-387-94087-8 |ano=1994}}
* {{Citation |último1=Jost |primeiro1=Jürgen |título=Riemannian Geometry and Geometric Analysis |publicado=[[Springer-Verlag]] |local=Berlin, New York |edição=4th | isbn=978-3-540-25907-7 |ano=2005}}
* {{Citation |último1=Kreyszig |primeiro1=Erwin |autorlink1=Erwin Kreyszig |título=Differential geometry |publicado=[[Dover Publications]] |local=New York | isbn=978-0-486-66721-8 |ano=1991 | |página=xiv+352}}
* {{Citation |último=Kreyszig |primeiro=Erwin |título=Advanced Engineering Mathematics |edição=8th |ano=1999 |publicado=[[John Wiley & Sons]] |local=New York |isbn=978-0-471-15496-9}}
* {{Citation |último1=Luenberger |primeiro1=David |título=Optimization by vector space methods |publicado=[[John Wiley & Sons]] |local=New York | isbn=978-0-471-18117-0 |ano=1997}}
* {{Citation |último1=Mac Lane |primeiro1=Saunders |autorlink1=Saunders Mac Lane |título=Categories for the Working Mathematician |publicado=[[Springer-Verlag]] |local=Berlin, New York |edição=2nd | isbn=978-0-387-98403-2 |ano=1998|títulolink=Categories for the Working Mathematician }}
* {{Citation |último1=Misner |primeiro1=Charles W. |autorlink1=Charles W. Misner |último2=Thorne |primeiro2=Kip |autorlink2=Kip Thorne |último3=Wheeler |primeiro3=John Archibald |autorlink3=John Archibald Wheeler |título=Gravitation |publicado=W. H. Freeman | isbn=978-0-7167-0344-0 |ano=1973|títulolink=Gravitation (book) }}
* {{Citation |último1=Naber |primeiro1=Gregory L. |título=The geometry of Minkowski spacetime |publicado=[[Dover Publications]] |local=New York | isbn=978-0-486-43235-9 | mr=2044239 |ano=2003}}
* {{Citation |último1=Schönhage |primeiro1=A. |autorlink1=Arnold Schönhage |último2=Strassen |primeiro2=Volker |autorlink2=Volker Strassen |título=Schnelle Multiplikation großer Zahlen (Fast multiplication of big numbers) |ano=1971 |periódico=Computing | issn=0010-485X | volume=7 |número=3–4 | |página=281–292 | doi=10.1007/bf02242355|língua=de}}
* {{Citation |último1=Spivak |primeiro1=Michael |autorlink1=Michael Spivak |título=A Comprehensive Introduction to Differential Geometry (Volume Two) |publicado=Publish or Perish |local=Houston, TX |ano=1999}}
* {{Citation |último1=Stewart |primeiro1=Ian |autorlink=Ian Stewart (mathematician) |título=Galois Theory |ano=1975 |publicado=[[Chapman and Hall]] | isbn=978-0-412-10800-6 |local=London | series=[[Chapman and Hall]] Mathematics Series }}
* {{Citation |último1=Varadarajan |primeiro1=V. S. |título=Lie groups, Lie algebras, and their representations |publicado=[[Prentice Hall]] | isbn=978-0-13-535732-3 |ano=1974}}
* {{Citation |último1=Wallace |primeiro1=G.K. |título=The JPEG still picture compression standard |data=fevereiro de 1992 |periódico=IEEE Transactions on Consumer Electronics | issn=0098-3063 | volume=38 |número=1 | |página=xviii–xxxiv | doi=10.1109/30.125072| url=http://www.csc.ncsu.edu/faculty/rhee/export/papers/TheJPEGStillPictureCompressionStandard.pdf | citeseerx=10.1.1.318.4292 }}
* {{Weibel IHA}}
{{Div col fim}}
 
==Ligações externas==