Propriedades de espaços vetoriais de dimensão finita
Os conceitos discutidos no tópico anterior são válidos para espaços vetoriais arbitrários. Voltaremos nossa atenção de agora em diante para espaços vetoriais de dimensão finita (o significado de dimensão ficará claro futuramente). Tenha em mente que sempre que nos referirmos a uma lista de vetores v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n teremos n ∈ N n\in \mathbb{N} n ∈ N , ou seja, a lista é finita.
Combinações lineares e espaço gerado ¶ Sejam v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n vetores de um espaço vetorial V V V e α 1 , … , α n ∈ R \alpha_{1},\dots,\alpha_{n}\in \mathbb{R} α 1 , … , α n ∈ R . Considere o seguinte vetor w w w :
w = α 1 v 1 + ⋯ + α n v n w=\alpha_{1}v_{1}+\dots+\alpha_{n}v_{n} w = α 1 v 1 + ⋯ + α n v n Dizemos que w w w é uma combinação linear entre os vetores v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n , em relação aos escalares reais α 1 , … , α n \alpha_{1},\dots,\alpha_{n} α 1 , … , α n .
Sejam v 1 , … v n ∈ V v_{1},\dots v_{n} \in V v 1 , … v n ∈ V . Considere o seguinte conjunto:
S = { α 1 v 1 + ⋯ + α n v n / α 1 , … , α n ∈ R } S=\{ \alpha_{1}v_{1}+\dots+\alpha_{n}v_{n}/\alpha_{1},\dots,\alpha_{n}\in \mathbb{R} \} S = { α 1 v 1 + ⋯ + α n v n / α 1 , … , α n ∈ R } Isto é, S S S é o conjunto de todas as combinações lineares possíveis entre v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n . Utilizando os resultados do tópico anterior, verificamos facilmente que S S S é um subespaço vetorial de V V V . Dizemos que S S S é o espaço gerado pelos vetores v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n e denotaremos-o por span ( v 1 , … , v n ) \text{span}(v_{1},\dots,v_{n}) span ( v 1 , … , v n ) (notação mais comum, proveniente do termo em inglês para o espaço gerado[1] ).
Considere os vetores ( 1 , 2 , 3 ) (1,2,3) ( 1 , 2 , 3 ) e ( 4 , 5 , 6 ) (4,5,6) ( 4 , 5 , 6 ) , do R 3 \mathbb{R}^{3} R 3 . Observe que ( 10 , 14 , 18 ) ∈ span ( ( 1 , 2 , 3 ) , ( 4 , 5 , 6 ) ) {} (10,14,18)\in \text{span}((1,2,3),(4,5,6)) ( 10 , 14 , 18 ) ∈ span (( 1 , 2 , 3 ) , ( 4 , 5 , 6 )) , pois ( 10 , 14 , 18 ) = 2 ⋅ ( 1 , 2 , 3 ) + 2 ⋅ ( 4 , 5 , 6 ) (10,14,18)=2\cdot(1,2,3)+2\cdot(4,5,6) ( 10 , 14 , 18 ) = 2 ⋅ ( 1 , 2 , 3 ) + 2 ⋅ ( 4 , 5 , 6 ) .
Similarmente, ( 1 , 2 , 3 ) (1,2,3) ( 1 , 2 , 3 ) e ( 4 , 5 , 6 ) (4,5,6) ( 4 , 5 , 6 ) também são elementos de seu próprio espaço gerado, pois
( 1 , 2 , 3 ) = 1 ⋅ ( 1 , 2 , 3 ) + 0 ⋅ ( 4 , 5 , 6 ) ( 4 , 5 , 6 ) = 0 ⋅ ( 1 , 2 , 3 ) + 1 ⋅ ( 4 , 5 , 6 ) \begin{align}
& (1,2,3)=1\cdot (1,2,3)+0\cdot (4,5,6) \\
& (4,5,6)=0\cdot (1,2,3)+1\cdot (4,5,6)
\end{align} ( 1 , 2 , 3 ) = 1 ⋅ ( 1 , 2 , 3 ) + 0 ⋅ ( 4 , 5 , 6 ) ( 4 , 5 , 6 ) = 0 ⋅ ( 1 , 2 , 3 ) + 1 ⋅ ( 4 , 5 , 6 ) Quando span ( v 1 , … , v n ) = V \text{span}(v_{1},\dots,v_{n})=V span ( v 1 , … , v n ) = V , dizemos que v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n geram V V V . Logo, dizemos que um espaço vetorial tem dimensão finita quando uma quantidade finita de seus elementos o gera.
Independência linear ¶ De maneira similar à definição de soma direta para um conjunto de subespaços, definimos o conceito de independência linear para uma lista de vetores.
Sejam v 1 , … , v n ∈ V v_{1},\dots,v_{n} \in V v 1 , … , v n ∈ V , dizemos que v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n são linearmente independentes se a única maneira de escrever o vetor nulo como uma combinação linear entre eles é fazendo cada escalar igual a zero. Isto é, sejam α 1 , … , α n ∈ R \alpha_{1},\dots,\alpha_{n} \in \mathbb{R} α 1 , … , α n ∈ R , tais vetores são linearmente independentes se, e somente se,
α 1 v 1 + ⋯ + α n v n = 0 ⟹ α 1 , … , α n = 0 \alpha_{1}v_{1}+\dots+\alpha_{n}v_{n}=0\implies\alpha_{1},\dots,\alpha_{n}=0 α 1 v 1 + ⋯ + α n v n = 0 ⟹ α 1 , … , α n = 0 Com um raciocínio análogo ao que fizemos para a soma direta, verifica-se que uma lista de vetores v 1 , … , v n {} v_{1},\dots,v_{n} {} v 1 , … , v n é linearmente independente se, e somente se, todo vetor pertencente ao espaço gerado por v 1 , … , v n {} v_{1},\dots,v_{n} {} v 1 , … , v n possui representação única como combinaçao linear entre eles.
Seja n ∈ N n \in \mathbb{N} n ∈ N , os n n n vetores do R n \mathbb{R}^{n} R n (ou seja, com n n n entradas reais)
( 1 , 0 , … , 0 ) , ( 0 , 1 , 0 , … , 0 ) , … , ( 0 , … , 0 , 1 ) (1,0,\dots,0),(0,1,0,\dots,0),\dots,(0,\dots,0,1) ( 1 , 0 , … , 0 ) , ( 0 , 1 , 0 , … , 0 ) , … , ( 0 , … , 0 , 1 ) são linearmente independentes. É fácil de observar que 0 = α 1 ( 1 , 0 , … , 0 ) + ⋯ + α n ( 0 , … , 0 , 1 ) 0=\alpha_{1}(1,0,\dots,0)+\dots+\alpha_{n}(0,\dots,0,1) 0 = α 1 ( 1 , 0 , … , 0 ) + ⋯ + α n ( 0 , … , 0 , 1 ) somente quando α 1 , … , α n = 0 \alpha_{1},\dots,\alpha_{n}=0 α 1 , … , α n = 0 , afinal, cada vetor controla apenas uma única entrada.
Através da definição, verifica-se sem muita dificuldade que toda lista de vetores que está contida em uma lista linearmente independente também será linearmente independente.
Naturalmente, uma lista de vetores v 1 , … , v n ∈ V v_{1},\dots,v_{n} \in V v 1 , … , v n ∈ V é linearmente dependente quando não é linearmente independente. Logo, existe pelo menos um α i \alpha_{i} α i não nulo de modo que 0 = α 1 v 1 + ⋯ + α n v n 0=\alpha_{1}v_{1}+\dots+\alpha_{n}v_{n} 0 = α 1 v 1 + ⋯ + α n v n .
Um exemplo típico de vetores linearmente dependentes são múltiplos (quando um vetor é o outro multiplicado por um escalar).
Considere os vetores ( 1 , 2 ) (1,2) ( 1 , 2 ) e ( 2 , 4 ) (2,4) ( 2 , 4 ) , do R 2 \mathbb{R}^{2} R 2 . Como ( 2 , 4 ) = 2 ( 1 , 2 ) (2,4)=2(1,2) ( 2 , 4 ) = 2 ( 1 , 2 ) , então
0 = α 1 ( 1 , 2 ) + α 2 ( 2 , 4 ) = α 1 ( 1 , 2 ) + 2 α 2 ( 1 , 2 ) = ( α 1 + 2 α 2 ) ( 1 , 2 ) 0=\alpha_{1}(1,2)+\alpha_{2}(2,4)=\alpha_{1}(1,2)+2\alpha_{2}(1,2)=(\alpha_{1}+2\alpha_{2})(1,2) 0 = α 1 ( 1 , 2 ) + α 2 ( 2 , 4 ) = α 1 ( 1 , 2 ) + 2 α 2 ( 1 , 2 ) = ( α 1 + 2 α 2 ) ( 1 , 2 ) Se considerarmos α 1 + 2 α 2 = 0 \alpha_{1}+2\alpha_{2}=0 α 1 + 2 α 2 = 0 , então basta escolhermos α 1 , α 2 ∈ R \alpha_{1},\alpha_{2}\in \mathbb{R} α 1 , α 2 ∈ R que satisfaçam α 1 = − 2 α 2 \alpha_{1}=-2\alpha_{2} α 1 = − 2 α 2 . Por exemplo, com α 1 = 2 \alpha_{1}=2 α 1 = 2 e α 2 = − 1 \alpha_{2}=-1 α 2 = − 1 temos
2 ( 1 , 2 ) + ( − 1 ) ( 2 , 4 ) = ( 2 , 4 ) + ( − 2 , − 4 ) = ( 0 , 0 ) 2(1,2)+(-1)(2,4)=(2,4)+(-2,-4)=(0,0) 2 ( 1 , 2 ) + ( − 1 ) ( 2 , 4 ) = ( 2 , 4 ) + ( − 2 , − 4 ) = ( 0 , 0 ) Como temos o vetor nulo resultante de uma combinação linear entre ( 1 , 2 ) (1,2) ( 1 , 2 ) e ( 2 , 4 ) (2,4) ( 2 , 4 ) cujos escalares não são ambos nulos, então ( 1 , 2 ) (1,2) ( 1 , 2 ) e ( 2 , 4 ) (2,4) ( 2 , 4 ) são linearmente dependentes.
De maneira geral, sempre que tivermos o vetor nulo pertencente à lista de vetores considerado eles serão linearmente dependentes: se considerarmos 0 = α 0 0 + α 1 v 1 + ⋯ + α n v n 0=\alpha_{0}0+\alpha_{1}v_{1}+\dots+\alpha_{n}v_{n} 0 = α 0 0 + α 1 v 1 + ⋯ + α n v n , dados valores de α 1 , … , α n \alpha_{1},\dots,\alpha_{n} α 1 , … , α n que satisfaçam α 1 v 1 + ⋯ + α n v n = 0 \alpha_{1}v_{1}+\dots+\alpha_{n}v_{n}=0 α 1 v 1 + ⋯ + α n v n = 0 (mesmo que sejam todos nulos), então qualquer α 0 ∈ R \alpha_{0} \in \mathbb{R} α 0 ∈ R irá satisfazer a igualdade. Logo, mesmo que v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n sejam linearmente independentes, ao adicionarmos o vetor nulo a lista de vetores se torna linearmente dependente.
Se v 1 , … , v n ∈ V v_{1},\dots,v_{n} \in V v 1 , … , v n ∈ V é linearmente dependente e v 1 ≠ 0 v_{1} \neq 0 v 1 = 0 , existe i ∈ { 2 , … , n } i \in \{ 2,\dots,n \} i ∈ { 2 , … , n } tal que v i ∈ span ( v 1 , … , v i − 1 ) v_{i} \in \text{span}(v_{1},\dots,v_{i-1}) v i ∈ span ( v 1 , … , v i − 1 ) . Além disso, se v i v_{i} v i for removido de v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n , o espaço gerado pela lista resultante é igual ao span ( v 1 , … , v n ) \text{span}(v_{1},\dots,v_{n}) span ( v 1 , … , v n ) .
Se v 1 , … v n v_{1},\dots v_{n} v 1 , … v n é linearmente dependente, então 0 = α 1 v 1 + ⋯ + α n v n 0 = \alpha_{1}v_{1}+\dots+\alpha_{n}v_{n} 0 = α 1 v 1 + ⋯ + α n v n de modo que pelo menos um dos escalares é não nulo. Como v 1 ≠ 0 v_{1} \neq 0 v 1 = 0 , não podemos ter α 2 = α 3 = ⋯ = α n = 0 \alpha_{2}=\alpha_{3}=\dots=\alpha_{n}=0 α 2 = α 3 = ⋯ = α n = 0 , (pois, nesse caso, para a igualdade valer deveríamos ter α 1 = 0 \alpha_{1}=0 α 1 = 0 também, logo, todos os escalares seriam nulos, uma contradição). Dessa forma, existe pelo menos um k ∈ { 2 , … , n } k\in \{ 2,\dots,n \} k ∈ { 2 , … , n } tal que α k ≠ 0 \alpha_{k}\neq 0 α k = 0 . Seja i i i o maior elemento em { 2 , … , n } \{ 2,\dots,n \} { 2 , … , n } com essa propriedade, podemos escrever:
v i = − α 1 α i v 1 − ⋯ − α i − 1 α i v i − 1 v_{i}=-\frac{\alpha_{1}}{\alpha_{i}}v_{1}-\dots-\frac{\alpha_{i-1}}{\alpha_{i}}v_{i-1} v i = − α i α 1 v 1 − ⋯ − α i α i − 1 v i − 1 (observe que, pela escolha de i i i , os escalares com índice maior que i i i são nulos).
Para a segunda parte, considere u ∈ span ( v 1 , … , v n ) u \in \text{span}(v_{1},\dots,v_{n}) u ∈ span ( v 1 , … , v n ) . Logo, existem α 1 , … , α n ∈ R \alpha_{1},\dots,\alpha_{n}\in \mathbb{R} α 1 , … , α n ∈ R tais que
u = α 1 v 1 + ⋯ + α n v n u=\alpha_{1}v_{1}+\dots+\alpha_{n}v_{n} u = α 1 v 1 + ⋯ + α n v n Substituir v i v_{i} v i na equação acima pelo lado direito da equação (8) mostra que u u u pertence ao espaço gerado pela lista resultante da remoção de v i v_{i} v i de v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n , logo, os dois espaços gerados são iguais (pois u u u é um elemento arbitrário de span ( v 1 , … , v n ) \text{span}(v_{1},\dots,v_{n}) span ( v 1 , … , v n ) e, por outro lado, o espaço gerado pela lista sem v i v_{i} v i está contido no espaço gerado pela lista completa).
Esse resultado nos diz que é possível reduzir uma lista de vetores linearmente dependentes em uma lista linearmente independente, removendo vetores que são combinação linear de outros vetores da lista (no caso da lista conter somente o vetor nulo, a lista resultante desse processo é vazia, assumida como linearmente independente por convenção).
Seja V V V um espaço vetorial de dimensão finita, toda lista de vetores que gera V V V tem comprimento maior ou igual a toda lista de vetores linearmente independentes em V V V . Isto é, se span ( v 1 , … , v n ) = V \text{span}( v_{1},\dots,v_{n})=V span ( v 1 , … , v n ) = V e u 1 , … , u m ∈ V u_{1},\dots,u_{m} \in V u 1 , … , u m ∈ V é linearmente independente, então m ≤ n m \leq n m ≤ n .
Suponha que span ( v 1 , … , v n ) = V \text{span}(v_{1},\dots,v_{n})=V span ( v 1 , … , v n ) = V e u 1 , … , u m u_{1},\dots,u_{ m} u 1 , … , u m é linearmente independente. Observe que u 1 , v 1 , … , v n u_{1},v_{1},\dots,v_{n} u 1 , v 1 , … , v n ainda gera V V V e é linearmente dependente (pois como v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n geram V V V , u 1 u_{1} u 1 pode ser escrito como combinação linear deles). Logo, uma vez que u 1 ≠ 0 {} u_{1} \neq 0 u 1 = 0 (pois u 1 , … , u m {} u_{1},\dots,u_{m} u 1 , … , u m é linearmente independente), podemos remover um dos v v v ’s de modo que a lista resultante ainda gera V V V (utilizando Proposition 1 ).
A partir dessa lista resultante, continuamos o processo, fazendo o mesmo para u 2 {} u_{2} u 2 , u 3 {} u_{3} u 3 ... até u m − 1 {} u_{m-1} {} u m − 1 . Em cada etapa, substituímos um v v v por um u u u , com a lista resultante ainda gerando V V V . Logo, ao adicionarmos u m {} u_{m} u m , na m m m -ésima etapa, a lista resultante será linearmente dependente. Se não tivéssemos um v v v para remover teríamos uma contradição, pois a lista resultante seria u 1 , … , u m u_{1},\dots,u_{m} u 1 , … , u m , que é linearmente independente.
Isso implica que devemos ter uma quantidade de v v v ’s pelo menos igual a quantidade de u u u ’s. Ou seja, m ≤ n m \leq n m ≤ n .
A partir desses resultados também obtemos que qualquer subespaço de um espaço de dimensão finita terá, da mesma forma, dimensão finita. Como é de se esperar.
Bases ¶ A união entre os conceitos de espaço gerado e independência linear origina a ideia de base , central na Álgebra Linear.
Seja V V V um espaço vetorial. Uma lista de vetores v 1 , … , v n ∈ V v_{1},\dots,v_{n} \in V v 1 , … , v n ∈ V é uma base de V V V se satisfaz as seguintes condições:
Gera V V V ;
É linearmente independente.
Considere os seguintes n n n vetores de R n \mathbb{R}^{n} R n :
( 1 , 0 , … , 0 ) , ( 0 , 1 , 0 , … , 0 ) , … , ( 0 , … , 0 , 1 ) (1,0,\dots,0),(0,1,0,\dots,0),\dots,(0,\dots,0,1) ( 1 , 0 , … , 0 ) , ( 0 , 1 , 0 , … , 0 ) , … , ( 0 , … , 0 , 1 ) Como já constatado no Example 2 , tais vetores são linearmente independentes. Além disso, observa-se facilmente que eles geram R n \mathbb{R}^{n} R n . Logo, formam uma base de R n \mathbb{R}^{n} R n . Chamamos tais vetores de base canônica de R n \mathbb{R}^{n} R n , pois constituem a base mais “simples” desse espaço.
Ilustrando mais concretamente, a base canônica de R 2 \mathbb{R}^{2} R 2 é { ( 1 , 0 ) , ( 0 , 1 ) } \{ (1,0),(0,1) \} {( 1 , 0 ) , ( 0 , 1 )} . Similarmente, a de R 3 \mathbb{R}^{3} R 3 é { ( 1 , 0 , 0 ) , ( 0 , 1 , 0 ) , ( 0 , 0 , 1 ) } \{ (1,0,0),(0,1,0),(0,0,1) \} {( 1 , 0 , 0 ) , ( 0 , 1 , 0 ) , ( 0 , 0 , 1 )} .
Veja que multiplicar os vetores da base canônica por escalares quaisquer não altera as duas propriedades que fazem deles uma base. Logo, existem infinitas bases para R n \mathbb{R}^{n} R n . Existem também bases formadas por vetores que não são somente múltiplos dos vetores da base canônica, como ilustra o próximo exemplo.
( 1 , 2 ) (1,2) ( 1 , 2 ) e ( 3 , 4 ) (3,4) ( 3 , 4 ) formam uma base de R 2 \mathbb{R}^{2} R 2 .
A parte da independência linear é clara, uma vez que um vetor não é múltiplo do outro. Para mostrar que eles geram R 2 \mathbb{R}^{2} R 2 consideramos um elemento qualquer desse espaço, ( x , y ) ∈ R 2 (x,y) \in \mathbb{R}^{2} ( x , y ) ∈ R 2 . Se tais vetores geram esse espaço devem existir escalares a , b ∈ R a,b \in \mathbb{R} a , b ∈ R tais que:
( x , y ) = a ( 1 , 2 ) + b ( 3 , 4 ) = ( a , 2 a ) + ( 3 b , 4 b ) = ( a + 3 b , 2 a + 4 b ) \begin{align}
(x,y) & =a(1,2)+b(3,4) \\
& =(a,2a)+(3b,4b) \\
& =(a+3b,2a+4b)
\end{align} ( x , y ) = a ( 1 , 2 ) + b ( 3 , 4 ) = ( a , 2 a ) + ( 3 b , 4 b ) = ( a + 3 b , 2 a + 4 b ) Isso nos dá o seguinte sistema linear:
{ a + 3 b = x 2 a + 4 b = y \begin{cases}
a+3b & =x \\
2a+4b & =y
\end{cases} { a + 3 b 2 a + 4 b = x = y Observe que, independente dos valores de x x x e y y y , podemos determinar valores reais para a a a e b b b a partir deles, uma vez que as linhas não são múltiplas (consequência dos vetores associados serem linearmente independentes), impossibilitando que haja qualquer contradição para os valores de a a a e b b b (se as linhas fossem múltiplas, as equações só seriam simultaneamente verdadeiras se x x x e y y y também fossem múltiplos, pelo mesmo fator. Como não há essa restrição, encontramos soluções para qualquer ( x , y ) (x,y) ( x , y ) ). Então, qualquer vetor de R 2 \mathbb{R}^{2} R 2 pode ser escrito como combinação linear de ( 1 , 2 ) (1,2) ( 1 , 2 ) e ( 3 , 4 ) (3,4) ( 3 , 4 ) , ou seja, esses vetores geram R 2 \mathbb{R}^{2} R 2 .
( 1 , 2 ) , ( 3 , 4 ) (1,2),(3,4) ( 1 , 2 ) , ( 3 , 4 ) e ( 2 , 4 ) (2,4) ( 2 , 4 ) não formam uma base de R 2 \mathbb{R}^{2} R 2 .
Apesar de gerarem R 2 \mathbb{R}^{2} R 2 (no exemplo anterior verificamos que ( 1 , 2 ) (1,2) ( 1 , 2 ) e ( 3 , 4 ) (3,4) ( 3 , 4 ) geram R 2 \mathbb{R}^{2} R 2 , a inclusão do vetor ( 2 , 4 ) (2,4) ( 2 , 4 ) não muda isso), os vetores não são linearmente independentes, pois ( 2 , 4 ) = 2 ( 1 , 2 ) (2,4)=2(1,2) ( 2 , 4 ) = 2 ( 1 , 2 ) , falhando a segunda condição de Definition 4 .
Esse exemplo nos dá um indício de que bases são maximais em relação à quantidade de vetores, pois a inclusão de um novo vetor à base do Example 5 fez com que uma das condições necessárias em Definition 4 falhasse. De fato isso é verdadeiro, como será visto posteriormente.
Antes de partirmos para as proposições e teoremas, um último exemplo ilustrando uma base de um espaço vetorial diferente do R n \mathbb{R}^{n} R n :
P n \mathcal{P}_{n} P n representa o espaço vetorial formado pelos polinômios de grau máximo n ∈ N n \in \mathbb{N} n ∈ N , ou seja, o conjunto dos elementos da forma
a 0 + a 1 x + a 2 x 2 + ⋯ + a n x n ( a 0 , a 1 , … , a n ∈ R ) a_{0}+a_{1}x+a_{2}x^{2}+\dots+a_{n}x^{n} \quad (a_{0},a_{1},\dots,a_{n} \in \mathbb{R}) a 0 + a 1 x + a 2 x 2 + ⋯ + a n x n ( a 0 , a 1 , … , a n ∈ R ) Os elementos 1 , x , … , x n 1,x,\dots,x^{n} 1 , x , … , x n formam a base canônica de P n \mathcal{P}_{n} P n .
Os vetores v 1 , … , v n ∈ V v_{1},\dots,v_{n} \in V v 1 , … , v n ∈ V formam uma base de V V V se, e somente se, todo v ∈ V v \in V v ∈ V pode ser escrito de forma única como uma combinação linear entre eles. Isto é,
v = α 1 v 1 + ⋯ + α n v n v=\alpha_{1}v_{1}+\dots+\alpha_{n}v_{n} v = α 1 v 1 + ⋯ + α n v n com α 1 , … , α n ∈ R \alpha_{1},\dots,\alpha_{n} \in \mathbb{R} α 1 , … , α n ∈ R .
( ⟹ ) (\implies) ( ⟹ ) Se v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n é uma base de V V V , em particular, v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n geram V V V . Logo, para todo v ∈ V v \in V v ∈ V , existem α 1 , … , α n ∈ R \alpha_{1},\dots,\alpha_{n} \in \mathbb{R} α 1 , … , α n ∈ R de modo que v = α 1 v 1 + ⋯ + α n v n v= \alpha_{1}v_{1}+\dots+\alpha_{n}v_{n} v = α 1 v 1 + ⋯ + α n v n . Quanto à unicidade, se existem α 1 ′ , … , α n ′ ∈ R \alpha_{1}',\dots,\alpha_{n}'\in \mathbb{R} α 1 ′ , … , α n ′ ∈ R tais que v = α 1 ′ v 1 + ⋯ + α n ′ v n v=\alpha_{1}'v_{1}+\dots+\alpha_{n}'v_{n} v = α 1 ′ v 1 + ⋯ + α n ′ v n , então
0 = v − v = ( α 1 − α 1 ′ ) v 1 + ⋯ + ( α n − α n ′ ) v n 0=v-v=(\alpha_{1}-\alpha_{1}')v_{1}+\dots+(\alpha_{n}-\alpha_{n}')v_{n} 0 = v − v = ( α 1 − α 1 ′ ) v 1 + ⋯ + ( α n − α n ′ ) v n Pelo fato de v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n serem linearmente independentes (pois são uma base), devemos ter α 1 − α 1 ′ = ⋯ = α n − α n ′ = 0 \alpha_{1}-\alpha_{1}'=\dots=\alpha_{n}-\alpha_{n}'=0 α 1 − α 1 ′ = ⋯ = α n − α n ′ = 0 , implicando que α 1 = α 1 ′ , … , α n = α n ′ \alpha_{1}=\alpha_{1}',\dots,\alpha_{n}=\alpha_{n}' α 1 = α 1 ′ , … , α n = α n ′ , provando que os escalares são únicos.
( ⟸ ) (\impliedby) ( ⟸ ) A volta é direta: se todo vetor em V V V pode ser escrito como combinação linear de v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n então estes vetores geram V V V . Além disso, se essa escrita é única, então o vetor nulo só pode ser escrito trivialmente, ou seja, α 1 = ⋯ = α n = 0 \alpha_{1}=\dots=\alpha_{n}=0 α 1 = ⋯ = α n = 0 e v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n são linearmente independentes. Logo, v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n formam uma base de V V V .
Suponha que v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n geram V V V . Primeiramente, se v 1 = 0 v_{1}= 0 v 1 = 0 remova-o. A partir disso, uma aplicação sequencial de Proposition 1 indo de v 2 v_{2} v 2 até v n v_{n} v n , removendo os vetores que pertencem ao espaço gerado pelos anteriores, nos dará uma nova lista que ainda gera V V V e que é agora linearmente independente, ou seja, uma base de V V V .
Esse teorema nos garante que todo espaço vetorial de dimensão finita possui uma base, uma vez que possui uma lista finita de vetores que o gera e então podemos reduzi-la em uma base.
Agora, mostramos o processo contrário ao do teorema anterior, que toda lista linearmente independente pode ser estendida em uma base, adicionando novos vetores.
Sejam v 1 , … , v n ∈ V v_{1},\dots,v_{n} \in V v 1 , … , v n ∈ V linearmente independentes e u 1 , … , u m ∈ V u_{1},\dots,u_{m} \in V u 1 , … , u m ∈ V tais que span ( u 1 , … , u m ) = V \text{span}( u_{1},\dots,u_{m})=V span ( u 1 , … , u m ) = V . Começamos verificando se u 1 u_{1} u 1 pertence ao span ( v 1 , … , v n ) \text{span}(v_{1},\dots,v_{n}) span ( v 1 , … , v n ) . Se não pertencer, adicionamos-o a lista v 1 , … , v n v_{1},\dots,v_{n} v 1 , … , v n , caso contrário, não o adicionamos. Repetimos o processo para u 2 u_{2} u 2 , verificando se ele pertence ao espaço gerado pela nova lista (que pode ter ou não novos elementos). Fazendo isso até u m u_{m} u m , ao final obtemos uma lista linearmente independente (pois nenhum vetor na lista pertence ao span dos anteriores) e que gera V V V (pois todos os u i u_{i} u i pertencem ao span da nova lista, e eles geram V V V ). Logo, construímos uma base de V V V .
Um resultado similar, sobre subespaços e somas diretas, pode ser extraído a partir desse teorema: Dado um subespaço W W W de V V V , existe outro subespaço U U U de V V V , de modo que V = W ⊕ U V=W\oplus U V = W ⊕ U . A ideia é considerar uma base de W W W (que existe, pelo Theorem 2 ) e completá-la em uma base de V V V usando o Theorem 3 , os vetores complementares obtidos serão a base do subespaço U U U . É fácil verificar que isso nos dará V = W ⊕ U V=W\oplus U V = W ⊕ U . Note que se W = V W=V W = V , então U = { 0 } U=\{ 0 \} U = { 0 } .
Por fim, um resultado que é naturalmente esperado e é importante para a definição de dimensão :
Sejam B 1 = v 1 , … , v n B_{1} =v_{1},\dots,v_{n} B 1 = v 1 , … , v n e B 2 = u 1 , … , u m {} B_{2}= u_{1},\dots,u_{m} B 2 = u 1 , … , u m bases de V V V , utilizamos o Theorem 1 : Por um lado, B 1 B_{1} B 1 é uma lista de vetores linearmente independentes em V V V e B 2 B_{2} B 2 é uma lista de vetores que gera V V V , logo, n ≤ m n\leq m n ≤ m . Por outro lado, invertendo os papeis de B 1 B_{1} B 1 e B 2 B_{2} B 2 , obtemos m ≤ n m\leq n m ≤ n . Ou seja, n = m n=m n = m e as bases possuem a mesma quantidade de vetores.
Dimensão ¶ Seja V V V um espaço vetorial de dimensão finita, sua dimensão é definida como o número inteiro não negativo dado pelo comprimento de qualquer uma de suas bases (que, pelo Theorem 4 , é o mesmo para qualquer base) e é denotada por dim V \dim V dim V .
A definição de dimensão para um espaço de “dimensão finita” parece circular, mas lembre-se que um espaço possui dimensão finita se pode ser gerado por uma lista finita de vetores, e essa definição não depende do conceito de dimensão definido agora. A necessidade de especificar que o espaço tenha dimensão finita se dá, pois, se o espaço possuir dimensão infinita, então qualquer uma de suas bases conterá infinitos elementos, logo, o conceito de “comprimento” não será mais limitado a um número real, fugindo do escopo elementar da Álgebra Linear.
Como é esperado, seja n ∈ N n \in \mathbb{N} n ∈ N , o espaço R n \mathbb{R}^{n} R n possui dimensão n n n . Por exemplo, o espaço das duplas ordenadas R 2 = { ( x , y ) / x , y ∈ R } \mathbb{R}^{2}=\{ (x,y)/x,y \in \mathbb{R} \} R 2 = {( x , y ) / x , y ∈ R } possui dimensão 2; o espaço das 123-uplas ordenadas, R 123 \mathbb{R}^{123} R 123 , possui dimensão 123...
A dimensão de um espaço fica evidente quando pensamos na sua base canônica, por exemplo, P m \mathcal{P}_{m} P m (polinômios de grau menor ou igual a m m m ) possui dimensão m + 1 m+1 m + 1 , sua base canônica é { 1 , x , x 2 , … , x m } \{ 1,x,x^{2},\dots,x^{m} \} { 1 , x , x 2 , … , x m } , que possui m + 1 m+1 m + 1 elementos.
O espaço que contém somente o vetor nulo, { 0 } \{ 0 \} { 0 } , possui dimensão zero. Lembre-se que o vetor nulo não é uma base desse espaço pois, por definição, é linearmente dependente. A base do espaço nulo (ou espaço trivial) é dada pela lista vazia (ou seja, que contém zero vetores), representada por ( ) () ( ) ou { } \{ \} { } .
Como já mencionado, todo subespaço de um espaço de dimensão finita terá dimensão finita. Então, naturalmente, temos o seguinte resultado:
Observe que qualquer base de U U U é uma lista linearmente independente de vetores que também pertencem a V V V . Logo, pelo Theorem 3 , pode ser estendida em uma base de V V V , o que implica que dim U ≤ dim V \dim U \leq \dim V dim U ≤ dim V .
Alternativamente, encontra-se a notação [ { v 1 , … , v n } ] [\{ v_{1},\dots,v_{n} \}] [{ v 1 , … , v n }] .