Skip to article frontmatterSkip to article content
Site not loading correctly?

This may be due to an incorrect BASE_URL configuration. See the MyST Documentation for reference.

Fundamentos

7. Produto Interno, Norma e Ortogonalidade

Começaremos a trabalhar com duas ferramentas provavelmente já conhecidas: o produto interno e a norma. Em cursos de álgebra vetorial e geometria analítica temos contato com uma versão do produto interno e norma chamada de euclidiana ou canônica. No caso do espaço R2\mathbb{R}^{2}, o produto interno euclidiano entre os vetores x=(x1,x2)x=(x_{1},x_{2}) e y=(y1,y2)y=(y_{1},y_{2}) é dado por

x,y=x1y1+x2y2,\langle x , y \rangle = x_{1}y_{1}+x_{2}y_{2},

enquanto que a norma euclidiana é dada por

x=x12+x22.\lVert x \rVert =\sqrt{ x_{1}^{2}+x_{2}^{2} }.

Eles nos dão em R2\mathbb{R}^{2} e R3\mathbb{R}^{3} uma importante ferramenta de análise geométrica, que permite relacionar ângulos e distâncias entre vetores.

A ideia agora é generalizarmos os conceitos de produto interno e norma, considerando um espaço vetorial qualquer. Possuindo espaços vetoriais munidos de produto interno, poderemos definir uma importante transformação linear, chamada de adjunta.

Produto interno

O produto interno, em um sentido geral, é definido como uma função entre vetores de um espaço que obedece algumas propriedades.

Note que as condições de aditividade e homogeneidade juntas formam uma condição de linearidade na primeira entrada. Com a condição de simetria, temos na verdade a linearidade nas duas entradas. Por isso, um produto interno é dito bilinear.

De maneira análoga ao que foi feito no exemplo, verifica-se que

x,y=a1x1y1++anxnyn,a1,,anR\langle x , y \rangle=a_{1}x_{1}y_{1}+\dots+a_{n}x_{n}y_{n},\quad a_{1},\dots,a_{n} \in \mathbb{R}

define um produto interno em Rn\mathbb{R}^{n}, sendo o produto interno euclidiano um caso particular deste, onde a1==an=1a_{1}=\dots=a_{n}=1.

Norma

A partir de todo produto interno podemos definir uma norma. Normas funcionam como métricas nos espaços vetoriais, medindo o comprimento ou “intensidade” dos vetores, além das distâncias entre eles.

Assim como no caso do produto interno, a definição de norma pode ser generalizada de maneira que qualquer função que atenda certas propriedades caracterize uma norma, mesmo que esta não esteja diretamente relacionada com um produto interno[1]. No caso das normas do tipo da Definição 7.3 (Norma induzida pelo produto interno), as quais voltaremos nossa atenção, essas propriedades são “herdadas” do produto interno. Uma dessas heranças imediatas é que v=0\lVert v \rVert=0 se, e somente se, v=0v=0.

Adiante, consideraremos que \lVert \cdot \rVert é uma norma induzida por produto interno em VV.

Similarmente, também é imediato que v0,  vV\lVert v \rVert\geq 0,\; \forall v \in V. Logo, a norma induzida por produto interno também é positiva-definida.

Ortogonalidade

Note que 0 é ortogonal a todos os vetores.

A alcunha de “Teorema de Pitágoras” fica clara quando consideramos o caso particular em que V=R2V=\mathbb{R}^{2} (neste caso, ortogonalidade entre dois vetores equivale ao ângulo entre eles ser de 90 graus), onde o vetor u+vu+v cumpre o papel de hipotenusa e os vetores uu e vv de catetos.

Note que o vetor projeção é um múltiplo escalar do vetor sobre o qual se projeta.

Note que, consequentemente, para qualquer vetor uu, dado um vetor vv não nulo podemos escrever o vetor uu como a soma w+Projvuw+\text{Proj}_{v}u, onde ww é um vetor ortogonal a vv. Essa decomposição de uu clarifica bem a seguinte interpretação geométrica que temos sobre esses vetores:

Relação geométrica entre os vetores.

Relação geométrica entre os vetores.

O vetor projeção possui muitos usos na Álgebra Linear, mas um dos principais é provar a Desigualdade de Cauchy-Schwarz, uma das mais importantes desigualdades da matemática.

Observe que vale a desigualdade se, e somente se, w=0w= 0. Ou seja, quando u=Projvuu=\text{Proj}_{v}u (uu é um múltiplo escalar de vv).

Como consequência de Teorema 7.11 (Cauchy-Schwarz), temos uma outra desigualdade muito utilizada.

Bases ortonormais

Especificamente, uma lista (v1,vn)(v_{1},\dots v_{n}) de vetores em VV é ortonormal quando vj,vk=0\langle v_{j} , v_{k} \rangle = 0 para jkj \neq k e vj,vk=1\langle v_{j} , v_{k} \rangle = 1 para j=kj = k (note que isso implica que vj=1\lVert v_{j} \rVert = 1 para todo vjv_{j} na lista).

Um exemplo imediato de vetores ortonormais é a base canônica de Rn\mathbb{R}^{n}, considerando o produto interno e a norma canônicos.

Como já mencionado, a base canônica de Rn\mathbb{R}^{n} é uma lista ortonormal, portanto é uma base ortonormal.

Processo de Gram-Schmidt

O importante resultado a seguir mostra que dada qualquer lista de vetores linearmente independentes é possível encontrar uma lista ortonormal que gera o mesmo subespaço que tal lista dada.

A demonstração desse teorema é feita fornecendo um procedimento para encontrar tal lista ortonormal, o qual é denominado Processo de Gram-Schmidt ou Algoritmo de Gram-Schmidt.

Complemento ortogonal

É fácil verificar que UU^{\perp} é um subespaço de VV. Além disso, tem-se V={0}V^{\perp}=\{ 0 \} e {0}=V\{ 0 \}^{\perp}=V.

O complemento ortogonal de um subespaço nos permite escrever o espaço o qual ele faz parte como uma soma direta envolvendo esse subespaço:

Footnotes
  1. Os principais exemplos de normas não induzidas por produto interno em Rn{} \mathbb{R}^{n} {} são a norma do infinito (ou norma do máximo), usualmente denotada por {} \lVert \cdot \rVert_{\infty} {} e dada pela maior coordenada em módulo do vetor, e a norma da soma (ou norma 1), usualmente denotada por S{} \lVert \cdot \rVert_{S} {} e dada pela soma dos módulos das coordenadas.