O tópico seguinte a este é um ponto extremamente importante no estudo da Álgebra Linear, pois mostra como matrizes e transformações lineares estão intimamente relacionadas. Mas antes, devemos definir e relembrar alguns fatos acerca de matrizes.
O conjunto das matrizes com entradas reais e dimensão m×n é representado por Rm×n.
Naturalmente, dizemos que duas matrizes são iguais quando possuem mesma dimensão e entradas iguais. Formalmente:
O conjunto Rm×n constitui, também, um espaço vetorial. Mas, para isso, devemos definir as operações de soma e multiplicação por escalar para matrizes.
Com estas duas operações, verifica-se facilmente que Rm×n é um espaço vetorial.
Por fim, temos o produto matricial. Essa operação cumpre um papel importante no tópico seguinte.
Primeiramente, note que o produto AB só está definido se o número de colunas da matriz A for igual ao número de linhas da matriz B, e que a matriz resultante terá o número de linhas de A e o número de colunas de B. Como exemplo,
Por exemplo, a matriz [1324] é quadrada (2 linhas e 2 colunas).
A notação utilizada para representar o conjunto das matrizes quadradas com entradas reais, n linhas e n colunas é Rn×n. Uma matriz não quadrada é chamada de retangular.
Uma característica presente em matrizes quadradas, utilizada em outras definições, é o conceito de diagonal principal.
Visualmente, a diagonal principal constitui as entradas que estão no sentido da esquerda para direita e cima para baixo na matriz.
Por exemplo, a diagonal principal da matriz [1324] é formada pelas entradas 1 e 4.
A matriz [1223] é simétrica.
Note que, visualmente, matrizes simétricas são aquelas cujas entradas acima e abaixo da diagonal principal são “refletidas” em torno dela.
A matriz [1002] é diagonal.
Note que a definição permite que a diagonal principal possua entradas nulas, apenas não pode haver nenhuma entrada fora da diagonal principal que não seja nula. Toda matriz diagonal também é simétrica.
Além disso, podemos generalizar o conceito de matriz diagonal para matrizes retangulares, conforme a próxima definição:
Seja A∈Rm×n, a matriz identidade possui a propriedade que AIn=ImA=A (o subíndice representa a dimensão da matriz identidade), atuando como elemento neutro do produto matricial.
Naturalmente, seja A∈Rm×n, temos que A+0m×n=A. Logo, a matriz nula atua como elemento neutro da adição matricial. Também verifica-se que 0p×m⋅A e A⋅0n×p resultarão na matriz nula de dimensão correspondente.
É importante destacar que a inversa de uma matriz quadrada nem sempre existe. Utilizando a definição, podemos verificar a existência e determinar (se existir) a inversa de uma matriz quadrada A da seguinte forma: Supomos que ela existe, onde suas entradas são incógnitas a serem determinadas, e resolvemos o sistema linear associado à AA−1=I (aplicando a definição do produto e a igualdade de matrizes). Se o sistema não possuir solução determinada a inversa não existe. Caso contrário, obtemos as entradas de A−1.
Uma ilustração simples desse método é determinar a inversa da matriz identidade. No caso 2×2, temos
Mais uma vez, a matriz identidade também recai nessa categoria. Havíamos constatado na definição anterior que a identidade é igual a sua inversa, e por ser diagonal é também simétrica. Logo, I=IT=I−1.
O determinante é uma das principais ferramentas quando lidamos com matrizes quadradas (que cumprem um papel central na Álgebra Linear, veja o tópico de Operadores Lineares), fornecendo informações acerca da matriz, como invertibilidade, além de ser utilizado em aspectos computacionais. Para os propósitos dessa seção, iremos apenas enunciar como calculá-lo para matrizes de dimensões 2×2 e 3×3, além de algumas propriedades importantes.
No caso do determinante de matrizes 3×3, existem algumas “regras” que auxiliam a calculá-lo, visto que a sua fórmula é bem menos intuitiva (além de ser bem mais longa) que no caso 2×2. Uma das mais conhecidas é a chamada Regra de Sarrus, onde repetimos as duas primeiras colunas no lado direito da matriz:
note, comparando com a fórmula, que o determinante é então dado somando os produtos das entradas nas diagonais da esquerda para direita e subtraindo os produtos das entradas nas diagonais da direta para esquerda.
Essa relação entre a invertibilidade de uma matriz e seu determinante ser não nulo fica mais clara quando vemos que uma divisão pelo determinante aparece nas fórmulas utilizadas para se calcular a inversa. A justificativa teórica, no entanto, requer uma fundamentação acerca de formas multilineares alternadas, um tópico mais avançado da Álgebra Linear (contudo, parte dessa justificativa pode ser entendida ao se estudar as condições para que um operador linear seja invertível e a relação do determinante com o núcleo de um operador linear, veja o tópico de Operadores Lineares).
Além do determinante, outra característica importante de uma matriz, utilizada em tópicos subsequentes, é o seu posto. Diferentemente do determinante, toda matriz possui um posto bem definido, seja ela quadrada ou não.
Definimos como a quantidade de colunas ou linhas linearmente independentes pois as duas quantidades serão sempre as mesmas para qualquer matriz, não havendo ambiguidade. A razão por trás desse fato é tratada em tópicos mais adiante, assim como alguns outros resultados sobre o posto.
Ao considerarmos as colunas ou linhas como vetores, o posto é igual a dimensão do espaço gerado por tais vetores. Comumente nos referimos a tais espaços como Espaço Coluna e Espaço Linha, respectivamente.
Perceba que a própria definição do posto nos diz que o posto máximo de uma matriz m×n será sempre igual a min{m,n}, uma vez que, como mencionado, a quantidade de colunas LI é sempre igual a quantidade de linhas LI (logo, não é possível ter mais linhas/colunas LI do que a própria quantidade de linhas/colunas).
Ao determinar o posto de uma matriz, em geral, é mais vantajoso analisar entre as linhas e colunas o que possuir menor dimensão. No caso do último exemplo, A possui dimensão 2×3, analisando suas duas linhas vemos claramente que (1,2,3)=(1,2,3), logo posto(A)=1 (ao invés de analisarmos 3 vetores).
Ao longo do estudo da Álgebra Linear, é comum tratarmos as linhas ou colunas de matrizes como vetores (vide a def. de posto). Essa representação é muito útil não só para simplificação de manipulações algébricas, como também auxilia na computação de produtos matriciais.
Apresentaremos a notação utilizada nesse tipo de representação, assim como uma interpretação alternativa para o produto matricial.
Naturalmente, a equivalência entre matrizes n×1 e vetores do Rn é imediata. Chamamos esse tipo de matriz de vetor coluna. Utilizaremos essa noção daqui em diante, não sendo necessário fazer uma distinção explícita entre matriz e vetor, nesse caso.
Com essa noção em mente, temos a seguinte visualização do produto matricial:
Podemos visualizar melhor com um exemplo prático:
A grande vantagem de “quebrar” o produto dessa forma é, ao invés de pensar no resultado coordenada a coordenada, podermos enxergá-lo de maneira mais geral. Isso é especialmente útil em manipulações matriciais mais complexas, pois simplifica a notação, trocando somatórios de produtos de entradas por combinações lineares entre vetores.
A partir disso, temos o produto entre duas matrizes quaisquer:
Então, podemos pensar no produto AB como a concatenação dos vetores resultantes do produto de A por cada coluna de B.