Agora que já conhecemos os conceitos básicos relacionados a espaços vetoriais, assim como algumas propriedades fundamentais, começaremos a lidar com Transformações Lineares: funções em que o domínio e contradomínio são espaços vetoriais (e que possuem duas propriedades importantes). Juntamente com os vetores e espaços vetoriais, esse é o principal objeto de estudo da Álgebra Linear.
Definição¶
Satisfazer essas duas propriedades é o que torna a transformação/função linear.[1] Elas podem ser unidas em uma única propriedade: e .
Note que, quando o argumento da transformação for um único vetor , utilizaremos a notação mais enxuta , ao invés da notação funcional mais comum . Para argumentos “compostos”, como no caso , preservaremos os parênteses.
Também denotaremos por o conjunto de todas as transformações lineares de para . Logo, significa que é uma transformação linear do espaço vetorial para o espaço vetorial . Em particular, também é um espaço vetorial, considerando as operações de adição e multiplicação por escalar análogas as de funções: definimos a soma entre duas transformações, como e o produto por escalar como , para . Os elementos neutros da adição e multiplicação são a transformação nula e a identidade, respectivamente (apresentadas nos exemplos abaixo).
É importante destacar uma propriedade clássica de transformações lineares que é consequência direta da condição de homogeneidade:
Demonstração 3.2
Uma vez que é uma transformação linear, vale a condição de homogeneidade (propriedade 2 de Definição 3.1 (Transformação Linear)). Logo,
Observe que o 0 aparece representando o vetor nulo de (no membro direito da última igualdade) e o de (nos demais membros), assim como o escalar real nulo.
Exemplos¶
Vejamos alguns exemplos de transformações lineares (a transformação nula e a identidade aparecerão com frequência e serão importantes em momentos futuros). Em todos os exemplos, a verificação das propriedades 1 e 2 da Definição 3.1 (Transformação Linear) é simples.
O último exemplo de transformação linear possui um interessante sentido geométrico.
Essa transformação representa uma rotação do plano em 90 graus no sentido anti-horário com centro na origem, como ilustra a animação abaixo:
Animação feita com o software Manim
Observe que, nessa ilustração, os vetores e formam uma base do , são os vetores e , respectivamente. Enquanto que o vetor do meio, , corresponde ao vetor . Perceba como “acompanha” o movimento dos outros dois vetores, que para e fica evidente que é uma rotação anti-horária de 90 graus. É de se esperar que por e formarem uma base do , a transformação de qualquer vetor seja dependente de e , afinal, é escrito como combinação linear de e . É isso que discutiremos na seção a seguir.
Determinação de transformações através de uma base¶
Até agora, com os exemplos dados, vimos transformações lineares definidas como estamos acostumados com funções: uma regra/fórmula que atribui a cada vetor do domínio um vetor no contradomínio. Acontece que, no caso de uma transformação linear, ao escolhermos uma base do domínio podemos defini-la completamente somente pelas imagens dos vetores que compõem essa base, sem necessariamente saber qual regra a transformação aplica a um vetor genérico do domínio (mas podemos obtê-la, se quisermos). Tal fato é uma consequência natural das propriedades de uma base e da linearidade da transformação, como evidenciado abaixo.
Para ilustrar isso na prática, voltemos ao Exemplo 3.7 (Rotação do plano):
Veja que, com um procedimento similar, podemos definir transformações que caracterizam rotações ao redor da origem em quaisquer direções e ângulos, apenas analisando geometricamente quais serão as imagens de uma base escolhida (onde normalmente a base canônica é a mais simples de se analisar).
Assim, podemos definir transformações lineares arbitrárias de maneira bastante simples, atribuindo as imagens dos vetores de uma base escolhida, sem se preocupar em definir uma fórmula geral e se ela garantirá a linearidade.
Composição/produto de transformações lineares¶
Assim como para funções, é natural que se tenha a composição de transformações lineares. A linearidade faz com que a composição possua algumas propriedades típicas da operação de produto, como distributividade e associatividade (mas não comutatividade, como será mostrado). Por isso, é comum também se referir a composição de transformações lineares como produto.
Com essa definição, valem as seguintes propriedades:
Essas 3 propriedades são imediatas a partir das definições (composição, linearidade, soma de transformações e transformação identidade).
Como mencionado, não vale a comutatividade para o produto de transformações:
O caso mais óbvio de que a comutatividade não é garantida é quando não está nem mesmo definido (a imagem de não pertence ao domínio de ). Como exemplo de um caso em que e estão ambos definidos, considere como a rotação do Exemplo 3.7 (Rotação do plano) e como a reflexão em torno do eixo x dada por . Basta um vetor tal que para que . Geometricamente, fica clara a diferença quando consideramos o vetor :
Algebricamente, temos que , enquanto que .
Núcleo de uma transformação linear¶
O núcleo (comumente também referido como kernel) é um importante subconjunto do espaço vetorial do domínio de uma transformação linear.
Lembrando da Proposição 3.2 (Transformações lineares preservam o vetor nulo), sempre temos que , pois o núcleo possui como elemento, pelo menos, o vetor nulo do domínio.
Por outro lado, observe que no caso da transformação de rotação do Exemplo 3.7 (Rotação do plano) é evidente que o núcleo é somente o vetor nulo (a origem do plano).
Além de um subconjunto, o núcleo é também um subespaço:
Demonstração 3.17
Uma vez que , utilizamos Definição 1.7 (Subespaço Vetorial). Pela Proposição 3.2 (Transformações lineares preservam o vetor nulo) já temos que . Observe que, sejam , temos
Logo, . O núcleo é fechado na soma. Similarmente, seja e , temos
Portanto, o núcleo é fechado na multiplicação por escalar. Consequentemente, é um subespaço de .
Injetividade¶
O conceito de injetividade, assim como para funções, também vale para transformações lineares.
Essa definição de injetividade é basicamente a mesma da usual para funções. Quer dizer que , quando é injetiva, mapeia elementos distintos do domínio em elementos distintos do contradomínio.
A grande diferença em relação à injetividade usual de funções é, no caso de transformações lineares, como essa propriedade se relaciona com o núcleo:
Demonstração 3.19
Seja injetiva e . Temos que . Logo, pela injetividade de , . Portanto, o único elemento no núcleo de é o vetor nulo: .
Seja e tais que . Temos,
Ou seja, . Consequentemente, uma vez que , , donde temos . Logo, é injetiva.
Imagem de uma transformação linear¶
Para transformações lineares, o conceito de imagem é análogo ao usual para funções.
Assim como no caso do núcleo, a imagem de uma transformação linear também é um subespaço, agora do contradomínio.
Demonstração 3.22
Utilizamos a Definição 1.7 (Subespaço Vetorial) novamente. Como , temos que . Sejam , observe que
Logo, (lembre-se que e está definida para todos os elementos em ). Além disso, seja ,
Mostrando que também. Logo, é um subespaço de .
Sobrejetividade¶
Do mesmo modo que com a injetividade, o conceito de sobrejetividade para transformações lineares também é análogo ao de funções.
A transformação do Exemplo 3.21 é sobrejetiva. Veja que, no entanto, a sobrejetividade depende do espaço considerado no contradomínio. Poderíamos, nesse mesmo exemplo, considerar o contradomínio como ao invés de , sem alterar de fato a transformação. Mas, nesse caso, ela não seria sobrejetiva.
Teorema do Núcleo e Imagem¶
Os conceitos de núcleo e imagem de transformações lineares se unem em um dos principais resultados da Álgebra Linear, que diz que dada uma transformação, a dimensão de seu domínio é sempre igual a dimensão de seu núcleo mais a dimensão de sua imagem. Lembramos que os espaços considerados possuem dimensão finita.
Demonstração 3.24
Começamos considerando uma base de . Logo, . Então, podemos estender essa base de (que é uma lista linearmente independente de vetores em ) em uma base de : . Donde temos que . A partir disso, basta provarmos que ; em particular, provaremos que é uma base de .
Primeiro, devemos mostrar que gera . Seja , para algum , temos que (uma vez que é uma base de )
Ao aplicarmos em ambos os lados dessa igualdade, obtemos (considerando que é uma base de , logo, )
Como é um elemento arbitrário de e pode ser escrito como combinação linear de , então gera .
Para mostrar que é linearmente independente. Considere tais que
Então, utilizando a linearidade de ,
O que nos diz que . Logo, pode ser escrito como combinação linear da base de :
Por outro lado, é uma base de e, em particular, é linearmente independente. Portanto, nesta última igualdade temos . Voltando à igualdade (24), temos então que é linearmente independente e, logo, uma base de , como queríamos mostrar.
A maneira como é feita a demonstração nos revela um panorama geral desse resultado que vai além da igualdade numérica entre as dimensões: dada uma transformação linear, podemos obter uma base do espaço vetorial do domínio formada pela concatenação de uma base do núcleo e uma base da imagem dessa transformação. É como se dividíssemos o espaço do domínio em duas partes em relação à transformação considerada, uma é mapeada no vetor nulo do contradomínio enquanto a outra gera a imagem.
Os próximos corolários ilustram parte da importância do Teorema 3.24 (Teo. do núcleo e imagem). Quando o unimos aos conceitos de injetividade e sobrejetividade, podemos obter informações importantes acerca da transformação linear apenas relacionando as dimensões dos espaços vetoriais envolvidos.
Demonstração 3.25
Pela Proposição 3.19, uma transformação é injetiva se, e somente se, a dimensão do seu núcleo é zero. Seja , utilizando o Teorema 3.24 (Teo. do núcleo e imagem) temos que
Considerando que (lembre-se que é um subespaço de ), obtemos que . Logo, (uma transformação arbitrária de para ) não pode ser injetiva.
Demonstração 3.26
Seja , é sobrejetiva quando (pela def. de sobrejetividade). Logo, é sobrejetiva quando . Utilizando o Teorema 3.24 (Teo. do núcleo e imagem), temos
Observe que o lado direito da equação valerá no máximo (quando é injetiva e ). No entanto, , donde obtemos que, , em todo caso. Portanto, (uma transformação linear arbitrária de para ) não pode ser sobrejetiva.
É fácil visualizarmos esses dois corolários se fizermos uma analogia com dois conjuntos finitos, em que um possui mais elementos que o outro. Claramente, não existe uma função que mapeia os elementos do conjunto menor para todos os elementos do conjunto maior (seria necessário que um mesmo elemento no domínio fosse mapeado para mais de um elemento no contradomínio, deixando de ser uma função). Da mesma forma, não existe uma função que mapeia cada elemento do conjunto maior para elementos distintos do conjunto menor, ao menos um elemento do contradomínio tem que ser a imagem de mais de um elemento do domínio (princípio da casa dos pombos). No caso dos espaços vetoriais, apesar de conterem infinitos elementos (com exceção do espaço trivial ), a dimensão é como o seu “tamanho”.
Invertibilidade e isomorfismo¶
Observe que a inversa é única, pois se e são inversas de , então
Denotaremos a inversa de uma transformação como .
Demonstração 3.28
Seja invertível. Para provar a injetividade, considere tais que . Utilizando a inversa, é imediato que
Logo, é injetiva. Para a sobrejetividade, seja , temos que
Mostrando que é sobrejetiva.
Seja injetiva e sobrejetiva. Para mostrar que é invertível, é suficiente mostrar que existe uma transformação linear que satisfaz as propriedades da inversa (conforme Definição 3.27 (Inversa)), sendo então = .
Observe que para todo , existe um único em tal que , como consequência da bijetividade de . Logo, defina , tal que . Então, , mostrando que é a identidade em . Agora, seja ,
Pela injetividade de , obtemos que . Como é um vetor arbitrário de , temos que é a identidade em .
Note que a prova ainda não está concluída, uma vez que não mostramos que a função/transformação definida é linear. Para isso, considere . Então,
Novamente pela injetividade de , é o único elemento em que mapeia para . Logo, pela definição de ,
Mostrando a propriedade de aditividade de .
Similarmente, seja e , pela homogeneidade de temos
Concluindo que , portanto é linear e (pela unicidade da inversa). Em particular, é invertível.
A definição seguinte traz um importante conceito, que associa dois espaços vetoriais.
Veja que quando dois espaços são isomorfos, o fato de existir uma transformação invertível (logo, bijetiva) implica que existe uma associação um-pra-um (ou biunívoca) entre os espaços. Então, é como se um espaço fosse “equivalente” ao outro.[3] O teorema abaixo dá uma caracterização mais forte para isso.
Demonstração 3.30
Suponha que e são dois espaços isomorfos. Logo, existe uma transformação linear de para tal que é invertível. Logo, por Proposição 3.28 (Caracterização da inversa), temos que ( é injetiva) e ( é sobrejetiva). Portanto, substituindo no Teorema 3.24 (Teo. do núcleo e imagem), obtemos
Suponha que e considere as bases e de e , respectivamente. Seja , podemos escrever para . A partir disso, definimos a transformação linear como
Isto é, (lembre-se de Observação 3.8). Observe que é sobrejetiva, pois seja , basta escolher que tem-se . Além disso, se é tal que , então
O fato de ser uma base e, em particular, linearmente independente implica que . Logo, temos , o que quer dizer que (pois o considerado é um elemento arbitrário tal que , isto é, um elemento de ), ou seja, é injetiva.
Portanto, é injetiva e sobrejetiva, logo, é invertível. Sendo assim, e são isomorfos (Definição 3.29 (Isomorfismo)).
A transformação definida na segunda parte da demonstração mostra uma associação biunívoca entre espaços isomorfos. Associamos a cada de uma base de um de uma base de , o que é possível porque, como mostrado, as dimensões são iguais. Ao fazermos essa associação entre as bases, automaticamente estamos fazendo o mesmo para todos os vetores dos espaços (mesmo que sejam infinitos).
Por fim, analisamos as condições de invertibilidade para o caso especial em que (uma transformação linear de um espaço para ele mesmo). Transformações desse tipo são chamadas de operadores e denotamos , por simplicidade. [4]
O resultado abaixo é um grande facilitador quando lidamos com invertibilidade de operadores.
Demonstração 3.31
Já diretamente, temos que 1 implica 2 (pela Proposição 3.28 (Caracterização da inversa)). Suponha que vale 2, logo, e pelo Teorema 3.24 (Teo. do núcleo e imagem) temos
Uma vez que e vale a igualdade entre as dimensões acima, necessariamente devemos ter , isto é, é sobrejetiva. Mostrando que 2 implica 3.
Se vale 3, temos . Utilizando o Teorema 3.24 (Teo. do núcleo e imagem) novamente temos
Ou seja, é injetiva. Uma vez que foi assumido 3, é injetiva e sobrejetiva, então é invertível, mostrando que 3 implica 1. A circularidade das implicações (1 2 3 1) mostra a equivalência das afirmações (se vale uma, valem as outras duas).
Funções não lineares (que não satisfazem essas propriedades), como , são objetos de estudo da área da Matemática chamada de Análise (cujo Cálculo Diferencial e Integral faz parte).
Utilizando o fato que e são lineares, é fácil verificar que definido dessa forma será linear.
A palavra isomorfo, do grego, significa “mesma forma”.
Operadores serão tratados com mais especificidade no tópico de Autovetores e Autovalores.