O tópico seguinte a este é um ponto extremamente importante no estudo da Álgebra Linear, pois mostra como matrizes e transformações lineares estão intimamente relacionadas. Mas antes, devemos definir e relembrar alguns fatos acerca de matrizes.
O conjunto das matrizes com entradas reais e dimensão m×n é representado por Rm×n.
Naturalmente, dizemos que duas matrizes são iguais quando possuem mesma dimensão e entradas iguais. Formalmente:
O conjunto Rm×n constitui, também, um espaço vetorial. Mas, para isso, devemos definir as operações de soma e multiplicação por escalar para matrizes.
Com estas duas operações, verifica-se facilmente que Rm×n é um espaço vetorial.
Por fim, temos o produto matricial. Essa operação cumpre um papel importante no tópico seguinte.
Primeiramente, note que o produto AB só está definido se o número de colunas da matriz A for igual ao número de linhas da matriz B, e que a matriz resultante terá o número de linhas de A e o número de colunas de B. Como exemplo,
Por exemplo, a matriz [1324] é quadrada (2 linhas e 2 colunas).
A notação utilizada para representar o conjunto das matrizes quadradas com entradas reais, n linhas e n colunas é Rn×n. Uma matriz não quadrada é chamada de retangular.
Uma característica presente em matrizes quadradas, utilizada em outras definições, é o conceito de diagonal principal.
Visualmente, a diagonal principal constitui as entradas que estão no sentido da esquerda para direita e cima para baixo na matriz.
Por exemplo, a diagonal principal da matriz [1324] é formada pelas entradas 1 e 4.
A matriz [1223] é simétrica.
Note que, visualmente, matrizes simétricas são aquelas cujas entradas acima e abaixo da diagonal principal são “refletidas” em torno dela.
A matriz [1002] é diagonal.
Note que a definição permite que a diagonal principal possua entradas nulas, apenas não pode haver nenhuma entrada fora da diagonal principal que não seja nula. Toda matriz diagonal também é simétrica.
Além disso, podemos generalizar o conceito de matriz diagonal para matrizes retangulares, conforme a próxima definição:
Seja A∈Rm×n, a matriz identidade possui a propriedade que AIn=ImA=A (o subíndice representa a dimensão da matriz identidade), atuando como elemento neutro do produto matricial.
Naturalmente, seja A∈Rm×n, temos que A+0m×n=A. Logo, a matriz nula atua como elemento neutro da adição matricial. Também verifica-se que 0p×m⋅A e A⋅0n×p resultarão na matriz nula de dimensão correspondente.
É importante destacar que a inversa de uma matriz quadrada nem sempre existe. Utilizando a definição, podemos verificar a existência e determinar (se existir) a inversa de uma matriz quadrada A da seguinte forma: Supomos que ela existe, onde suas entradas são incógnitas a serem determinadas, e resolvemos o sistema linear associado à AA−1=I (aplicando a definição do produto e a igualdade de matrizes). Se o sistema não possuir solução determinada a inversa não existe. Caso contrário, obtemos as entradas de A−1.
Uma ilustração simples desse método é determinar a inversa da matriz identidade. No caso 2×2, temos
Mais uma vez, a matriz identidade também recai nessa categoria. Havíamos constatado na definição anterior que a identidade é igual a sua inversa, e por ser diagonal é também simétrica. Logo, I=IT=I−1.
O determinante é uma das principais ferramentas quando lidamos com matrizes quadradas (que cumprem um papel central na Álgebra Linear, veja o tópico de Operadores Lineares), fornecendo informações acerca da matriz, como invertibilidade, além de ser utilizado em aspectos computacionais. Para os propósitos dessa seção, iremos apenas enunciar como calculá-lo para matrizes de dimensões 2×2 e 3×3, além de algumas propriedades importantes.
No caso do determinante de matrizes 3×3, existem algumas “regras” que auxiliam a calculá-lo, visto que a sua fórmula é bem menos intuitiva (além de ser bem mais longa) que no caso 2×2. Uma das mais conhecidas é a chamada Regra de Sarrus, onde repetimos as duas primeiras colunas no lado direito da matriz:
note, comparando com a fórmula, que o determinante é então dado somando os produtos das entradas nas diagonais da esquerda para direita e subtraindo os produtos das entradas nas diagonais da direta para esquerda.
Essa relação entre a invertibilidade de uma matriz e seu determinante ser não nulo fica mais clara quando vemos que uma divisão pelo determinante aparece nas fórmulas utilizadas para se calcular a inversa. A justificativa teórica, no entanto, requer uma fundamentação acerca de formas multilineares alternadas, um tópico mais avançado da Álgebra Linear (contudo, parte dessa justificativa pode ser entendida ao se estudar as condições para que um operador linear seja invertível e a relação do determinante com o núcleo de um operador linear, veja o tópico de Operadores Lineares).