Skip to article frontmatterSkip to article content
Site not loading correctly?

This may be due to an incorrect BASE_URL configuration. See the MyST Documentation for reference.

Fundamentos

3. Transformações Lineares

Agora que já conhecemos os conceitos básicos relacionados a espaços vetoriais, assim como algumas propriedades fundamentais, começaremos a lidar com Transformações Lineares: funções em que o domínio e contradomínio são espaços vetoriais (e que possuem duas propriedades importantes). Juntamente com os vetores e espaços vetoriais, esse é o principal objeto de estudo da Álgebra Linear.

Definição

Satisfazer essas duas propriedades é o que torna a transformação/função linear.[1] Elas podem ser unidas em uma única propriedade: T(αv+w)=αTv+Tw,  αRT(\alpha v+w)=\alpha Tv+Tw,\; \forall\alpha \in \mathbb{R} e v,wV\forall v,w \in V.

Note que, quando o argumento da transformação for um único vetor vv, utilizaremos a notação mais enxuta TvTv, ao invés da notação funcional mais comum T(v)T(v). Para argumentos “compostos”, como no caso T(u+v)T(u+v), preservaremos os parênteses.

Também denotaremos por L(V,W)\mathcal{L}(V,W) o conjunto de todas as transformações lineares de VV para WW. Logo, TL(V,W)T\in \mathcal{L}(V,W) significa que TT é uma transformação linear do espaço vetorial VV para o espaço vetorial WW. Em particular, L(V,W)\mathcal{L}(V,W) também é um espaço vetorial, considerando as operações de adição e multiplicação por escalar análogas as de funções: definimos a soma entre duas transformações, T,SL(V,W){} T,S\in \mathcal{L}(V,W) {} como (T+S)v=Tv+Sv{} (T+S)v=Tv+Sv {} e o produto por escalar como (αT)v=α(Tv)(\alpha T)v=\alpha(Tv), para αR\alpha \in \mathbb{R}. Os elementos neutros da adição e multiplicação são a transformação nula e a identidade, respectivamente (apresentadas nos exemplos abaixo).

É importante destacar uma propriedade clássica de transformações lineares que é consequência direta da condição de homogeneidade:

Exemplos

Vejamos alguns exemplos de transformações lineares (a transformação nula e a identidade aparecerão com frequência e serão importantes em momentos futuros). Em todos os exemplos, a verificação das propriedades 1 e 2 da Definição 3.1 (Transformação Linear) é simples.

O último exemplo de transformação linear possui um interessante sentido geométrico.

Essa transformação representa uma rotação do plano R2\mathbb{R}^{2} em 90 graus no sentido anti-horário com centro na origem, como ilustra a animação abaixo:

Animação feita com o software Manim

Observe que, nessa ilustração, os vetores v1\vec{v_{1}} e v3\vec{v_{3}} formam uma base do R2\mathbb{R}^{2}, são os vetores (0,2){} (0,2) e (2,0)(2,0), respectivamente. Enquanto que o vetor do meio, v2\vec{v_{2}}, corresponde ao vetor (1,1)(1,1). Perceba como v2\vec{v_{2}} “acompanha” o movimento dos outros dois vetores, que para v1\vec{v_{1}} e v3\vec{v_{3}} fica evidente que é uma rotação anti-horária de 90 graus. É de se esperar que por v1\vec{v_{1}} e v3\vec{v_{3}} formarem uma base do R2\mathbb{R}^{2}, a transformação TT de qualquer vetor v2R2\vec{v_{2}} \in \mathbb{R}^{2} seja dependente de Tv1T\vec{v_{1}} e Tv3T\vec{v_{3}}, afinal, v2\vec{v_{2}} é escrito como combinação linear de v1\vec{v_{1}} e v3\vec{v_{3}}. É isso que discutiremos na seção a seguir.

Determinação de transformações através de uma base

Até agora, com os exemplos dados, vimos transformações lineares definidas como estamos acostumados com funções: uma regra/fórmula que atribui a cada vetor do domínio um vetor no contradomínio. Acontece que, no caso de uma transformação linear, ao escolhermos uma base do domínio podemos defini-la completamente somente pelas imagens dos vetores que compõem essa base, sem necessariamente saber qual regra a transformação aplica a um vetor genérico do domínio (mas podemos obtê-la, se quisermos). Tal fato é uma consequência natural das propriedades de uma base e da linearidade da transformação, como evidenciado abaixo.

Para ilustrar isso na prática, voltemos ao Exemplo 3.7 (Rotação do plano):

Veja que, com um procedimento similar, podemos definir transformações que caracterizam rotações ao redor da origem em quaisquer direções e ângulos, apenas analisando geometricamente quais serão as imagens de uma base escolhida (onde normalmente a base canônica é a mais simples de se analisar).

Assim, podemos definir transformações lineares arbitrárias de maneira bastante simples, atribuindo as imagens dos vetores de uma base escolhida, sem se preocupar em definir uma fórmula geral e se ela garantirá a linearidade.

Composição/produto de transformações lineares

Assim como para funções, é natural que se tenha a composição de transformações lineares. A linearidade faz com que a composição possua algumas propriedades típicas da operação de produto, como distributividade e associatividade (mas não comutatividade, como será mostrado). Por isso, é comum também se referir a composição de transformações lineares como produto.

Com essa definição, valem as seguintes propriedades:

Essas 3 propriedades são imediatas a partir das definições (composição, linearidade, soma de transformações e transformação identidade).

Como mencionado, não vale a comutatividade para o produto de transformações:

O caso mais óbvio de que a comutatividade não é garantida é quando TSTS não está nem mesmo definido (a imagem de SS não pertence ao domínio de TT). Como exemplo de um caso em que STST e TSTS estão ambos definidos, considere SL(R2,R2)S \in \mathcal{L}(\mathbb{R}^{2},\mathbb{R}^{2}) como a rotação do Exemplo 3.7 (Rotação do plano) e TL(R2,R2)T \in \mathcal{L}(\mathbb{R}^{2},\mathbb{R}^{2}) como a reflexão em torno do eixo x dada por T(x,y)=(x,y)T(x,y)=(x,-y). Basta um vetor vR2v \in \mathbb{R}^{2} tal que STvTSvSTv \neq TSv para que STTSST \neq TS. Geometricamente, fica clara a diferença quando consideramos o vetor (1,0)(1,0):

Algebricamente, temos que ST(x,y)=S(x,y)=(y,x)ST(x,y)=S(x,-y)=(y,x), enquanto que TS(x,y)=T(y,x)=(y,x)TS(x,y)=T(-y,x)=(-y,-x).

Núcleo de uma transformação linear

O núcleo (comumente também referido como kernel) é um importante subconjunto do espaço vetorial do domínio de uma transformação linear.

Lembrando da Proposição 3.2 (Transformações lineares preservam o vetor nulo), sempre temos que N(T)N(T) \neq \emptyset, pois o núcleo possui como elemento, pelo menos, o vetor nulo do domínio.

Por outro lado, observe que no caso da transformação de rotação do Exemplo 3.7 (Rotação do plano) é evidente que o núcleo é somente o vetor nulo (a origem do plano).

Além de um subconjunto, o núcleo é também um subespaço:

Injetividade

O conceito de injetividade, assim como para funções, também vale para transformações lineares.

Essa definição de injetividade é basicamente a mesma da usual para funções. Quer dizer que TT, quando é injetiva, mapeia elementos distintos do domínio em elementos distintos do contradomínio.

A grande diferença em relação à injetividade usual de funções é, no caso de transformações lineares, como essa propriedade se relaciona com o núcleo:

Imagem de uma transformação linear

Para transformações lineares, o conceito de imagem é análogo ao usual para funções.

Assim como no caso do núcleo, a imagem de uma transformação linear também é um subespaço, agora do contradomínio.

Sobrejetividade

Do mesmo modo que com a injetividade, o conceito de sobrejetividade para transformações lineares também é análogo ao de funções.

A transformação do Exemplo 3.21 é sobrejetiva. Veja que, no entanto, a sobrejetividade depende do espaço considerado no contradomínio. Poderíamos, nesse mesmo exemplo, considerar o contradomínio como Pn\mathcal{P}_{n} ao invés de Pn1\mathcal{P}_{n-1}, sem alterar de fato a transformação. Mas, nesse caso, ela não seria sobrejetiva.

Teorema do Núcleo e Imagem

Os conceitos de núcleo e imagem de transformações lineares se unem em um dos principais resultados da Álgebra Linear, que diz que dada uma transformação, a dimensão de seu domínio é sempre igual a dimensão de seu núcleo mais a dimensão de sua imagem. Lembramos que os espaços considerados possuem dimensão finita.

A maneira como é feita a demonstração nos revela um panorama geral desse resultado que vai além da igualdade numérica entre as dimensões: dada uma transformação linear, podemos obter uma base do espaço vetorial do domínio formada pela concatenação de uma base do núcleo e uma base da imagem dessa transformação. É como se dividíssemos o espaço do domínio em duas partes em relação à transformação considerada, uma é mapeada no vetor nulo do contradomínio enquanto a outra gera a imagem.

Os próximos corolários ilustram parte da importância do Teorema 3.24 (Teo. do núcleo e imagem). Quando o unimos aos conceitos de injetividade e sobrejetividade, podemos obter informações importantes acerca da transformação linear apenas relacionando as dimensões dos espaços vetoriais envolvidos.

É fácil visualizarmos esses dois corolários se fizermos uma analogia com dois conjuntos finitos, em que um possui mais elementos que o outro. Claramente, não existe uma função que mapeia os elementos do conjunto menor para todos os elementos do conjunto maior (seria necessário que um mesmo elemento no domínio fosse mapeado para mais de um elemento no contradomínio, deixando de ser uma função). Da mesma forma, não existe uma função que mapeia cada elemento do conjunto maior para elementos distintos do conjunto menor, ao menos um elemento do contradomínio tem que ser a imagem de mais de um elemento do domínio (princípio da casa dos pombos). No caso dos espaços vetoriais, apesar de conterem infinitos elementos (com exceção do espaço trivial {0}\{ 0 \}), a dimensão é como o seu “tamanho”.

Invertibilidade e isomorfismo

Observe que a inversa é única, pois se SS e SS' são inversas de TT, então

S=SI=S(TS)=(ST)S=IS=S.S=SI=S(TS')=(ST)S'=IS'=S'.

Denotaremos a inversa de uma transformação TT como T1{} T^{-1} {}.

A definição seguinte traz um importante conceito, que associa dois espaços vetoriais.

Veja que quando dois espaços são isomorfos, o fato de existir uma transformação invertível (logo, bijetiva) implica que existe uma associação um-pra-um (ou biunívoca) entre os espaços. Então, é como se um espaço fosse “equivalente” ao outro.[3] O teorema abaixo dá uma caracterização mais forte para isso.

A transformação TT definida na segunda parte da demonstração mostra uma associação biunívoca entre espaços isomorfos. Associamos a cada viv_{i} de uma base de VV um wiw_{i} de uma base de WW, o que é possível porque, como mostrado, as dimensões são iguais. Ao fazermos essa associação entre as bases, automaticamente estamos fazendo o mesmo para todos os vetores dos espaços (mesmo que sejam infinitos).

Por fim, analisamos as condições de invertibilidade para o caso especial em que TL(V,V)T \in \mathcal{L}(V,V) (uma transformação linear de um espaço VV para ele mesmo). Transformações desse tipo são chamadas de operadores e denotamos TL(V)T \in \mathcal{L}(V), por simplicidade. [4]

O resultado abaixo é um grande facilitador quando lidamos com invertibilidade de operadores.

Footnotes
  1. Funções não lineares (que não satisfazem essas propriedades), como f(x)=x2f(x)=x^{2}, são objetos de estudo da área da Matemática chamada de Análise (cujo Cálculo Diferencial e Integral faz parte).

  2. Utilizando o fato que SS e TT são lineares, é fácil verificar que TSTS definido dessa forma será linear.

  3. A palavra isomorfo, do grego, significa “mesma forma”.

  4. Operadores serão tratados com mais especificidade no tópico de Autovetores e Autovalores.