5. Relação entre transformações lineares e matrizes
Tendo estudado transformações lineares e as propriedades fundamentais de matrizes, veremos agora como estas estão intrinsecamente relacionadas, de maneira que toda matriz está associada a uma transformação linear (e vice-versa).
Vimos que todo espaço vetorial possui bases que o geram, logo, quando discutimos uma transformação linear podemos pensar em relação a ela considerando bases específicas dos espaços envolvidos. Essa ideia é o cerne da relação entre transformações lineares e matrizes.
Assim, fixadas as bases dos espaços vetoriais envolvidos, toda transformação linear entre esses espaços está relacionada univocamente a uma matriz, o que decorre da unicidade das coordenadas em uma base ordenada (mas note que uma mesma transformação pode ter matrizes diferentes, mas de mesma dimensão, em relação a bases diferentes). Logo, conseguimos “encapsular” uma transformação linear em uma matriz, de modo que somente com suas entradas e conhecendo os espaços vetoriais e bases em contexto podemos determinar de qual transformação se trata. Isso é extremamente interessante e poderoso, principalmente do ponto de vista computacional (veremos adiante como isso nos permite determinar a imagem de um vetor utilizando a matriz associada à transformação), conseguimos resumir qualquer transformação linear em um conjunto de números.
Mas e o oposto? Dada uma matriz qualquer, como interpretá-la como uma transformação linear? Com base na Definição 5.1 (Matriz de uma transformação linear), devemos determinar quais os espaços vetoriais e as respectivas bases envolvidas. Uma escolha natural seria considerarmos, para uma matriz de dimensão m×n, os espaços vetoriais Rm e Rn, com suas respectivas bases canônicas. Dessa forma, a matriz estará associada univocamente a uma transformação linear T∈L(Rn,Rm) em relação às bases canônicas. Essa escolha facilita muitos aspectos (pois são espaços vetoriais e bases simples de lidarmos) e sabemos do isomorfismo que existe entre qualquer espaço vetorial de dimensão n e o Rn, então a transformação associada é “equivalente” para quaisquer espaços de dimensões compatíveis com a matriz.
Agora, com a ótica de transformações lineares, podemos interpretar as propriedades de matrizes.
Essa terceira propriedade esclarece o porquê do produto matricial ser definido da forma que é. Isso pode ser verificado algebricamente, considerando transformações (cuja composição é válida) e bases fixas, mas é melhor visualizado pensando nas colunas das matrizes como vetores (na verdade, como coordenadas de um vetor em uma base). Vetores na forma matricial (isto é, matrizes n×1) são chamados de vetores coluna.
Perceba como essa interpretação também oferece uma nova maneira de determinar a transformação linear associada à uma matriz A de dimensão m×n, basta fazermos o produto A⋅⎣⎡x1x2⋮xn⎦⎤.
Além disso, como é esperado, I=[I]α. Introduziremos agora uma importante ferramenta relacionada com a matriz do operador identidade:
O nome vem simplesmente do fato que tal matriz permite determinar as coordenadas na base β de qualquer vetor em V, a partir das suas coordenadas em α. Ou seja, digamos que [v]α=⎣⎡x1⋮xn⎦⎤, então as coordenadas de [v]β são dadas pelas entradas do vetor coluna resultante do produto [I]βα⋅⎣⎡x1⋮xn⎦⎤.
E claro que podemos também fazer o produto matricial entre uma matriz compatível A e [I]βα, de maneira que se A=[T]γβ, a matriz resultante é [T]γα. Logo, podemos reescrever a matriz de qualquer transformação em bases diferentes, esse fato cumpre um papel importante mais adiante, no Teorema Espectral para matrizes.
Por fim, a transposta de uma matriz também possui um contexto de transformação linear, que é discutido no tópico 8. Adjunta.