Produto vetorial
O produto vetorial é uma operação que associa a dois vetores no espaço um vetor. Esta definido apenas para espaços de três dimensões (existe um caso para sete dimensões, mas ele não será tratado aqui). Assim como o produto escalar, ele também é uma função e pode ser entendido como uma transformação linear, embora a formalização das transformações lineares seja feita apenas em álgebra linear. Como os vetores carregam em si a noção de sentido e direção no espaço, o produto vetorial precisa da noção de orientação do espaço para se definir para onde aponta o vetor resultante da operação.
Observe a figura:
Por convenção adota-se a regra da mão direita, onde o polegar aponta na direção do produto vetorial e o indicador no sentido do primeiro vetor. Temos os vetores [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math] determinando um plano. Se fizermos o produto [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} }[/math], estamos adotando o sentido anti-horário e portanto, o produto vetorial aponta para fora (símbolo: [math]\displaystyle{ \odot }[/math]) do plano determinando por [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math]. Se fizermos o produto [math]\displaystyle{ \overrightarrow{v} \times \overrightarrow{u} }[/math], estamos adotando o sentido horário e portanto, o produto vetorial aponta para dentro (símbolo: [math]\displaystyle{ \otimes }[/math]) do plano determinando por [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math].
Nota: os livros brasileiros adotam o símbolo [math]\displaystyle{ \wedge }[/math] para indicar o produto vetorial, enquanto os estrangeiros adotam [math]\displaystyle{ \times }[/math]. A notação com [math]\displaystyle{ \times }[/math] é mnemônica e remete à regra de Sarrus para o cálculo de determinantes.
A seguinte figura sintetiza a regra da mão direita:
Fazendo o produto vetorial de dois vetores, no sentido anti-horário (positivo), obtemos o terceiro. Se o produto for feito no sentido horário (negativo), obtemos um vetor oposto ao terceiro.
Bases positivas: concordam com a regra da mão direita.
Bases negativas: discordam da regra da mão direita.
O cálculo do produto vetorial, em relação a uma base ortonormal [math]\displaystyle{ \{\overrightarrow{e}_{x},\overrightarrow{e}_{y},\overrightarrow{e}_{z}\} }[/math], é definido da seguinte forma:
Que é equivalente ao determinate:
Expressão cartesiana do produto vetorial
Sejam [math]\displaystyle{ \overrightarrow{u} = x_1\overrightarrow{e}_x + y_1\overrightarrow{e}_y + z_1\overrightarrow{e}_z }[/math] e [math]\displaystyle{ \overrightarrow{v} = x_2\overrightarrow{e}_x + y_2\overrightarrow{e}_y + z_2\overrightarrow{e}_z }[/math], dois vetores no [math]\displaystyle{ \mathbb{R}^3 }[/math]. Temos que:
Aplicando a propriedade distributiva:
Cancelando os termos com produtos de vetores iguais e aplicando a regra da mão direita:
Fica assim demonstrada a fórmula do determinante apresentada anteriormente.
As propriedades do produto vetorial dependem apenas dos vetores [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math]. Assim como no produto escalar, elas não dependem da base escolhida, desde que seja ortonormal.
C1. [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{u} = \overrightarrow{0} }[/math] | (nulidade) |
C2. [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} = -\overrightarrow{v} \times \overrightarrow{u} }[/math] | (anticomutativa) |
C3. [math]\displaystyle{ \overrightarrow{u} \times (\overrightarrow{v} + \overrightarrow{w}) = \overrightarrow{u} \times \overrightarrow{v} + \overrightarrow{u} \times \overrightarrow{w} }[/math] | (distributiva) |
C4. [math]\displaystyle{ (\alpha \overrightarrow{u}) \times \overrightarrow{v} = \alpha (\overrightarrow{u} \times \overrightarrow{v}) }[/math] | (multiplicação por escalar) |
C5. [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} = \overrightarrow{0} \iff \overrightarrow{u} \text{ e } \overrightarrow{v} }[/math] forem LD | (paralelismo) |
C6. [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} }[/math] é simultaneamente ortogonal a [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math] | (ortogonalidade) |
C7. [math]\displaystyle{ \{\overrightarrow{u},\overrightarrow{v},\overrightarrow{u} \times \overrightarrow{v}\} }[/math] é uma base positiva | (convenção caso [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math] sejam LI) |
Prova de C1:
[math]\displaystyle{ \begin{align*} \overrightarrow{u} \times \overrightarrow{u} = \left|\begin{matrix} \overrightarrow{e}_{x} & \overrightarrow{e}_{y} & \overrightarrow{e}_{z} \\ x & y & z \\ x & y & z \end{matrix}\right| \end{align*} }[/math]
Se duas linhas da matriz são iguais o determinante se anula e portanto, as coordenadas do vetor são [math]\displaystyle{ (0,0,0) }[/math].
Prova de C2:
[math]\displaystyle{ \begin{align*} \overrightarrow{u} \times \overrightarrow{v} = \left|\begin{matrix} \overrightarrow{e}_{x} & \overrightarrow{e}_{y} & \overrightarrow{e}_{z} \\ x_1 & y_1 & z_1 \\ x_2 & y_2 & z_2 \end{matrix}\right|\end{align*} }[/math]
Inverter o produto vetorial é o mesmo que trocar duas linhas da matriz. Essa operação não afeta dependência linear, mas inverte o sinal do determinante.
Prova de C3:
[math]\displaystyle{ \begin{align*} \overrightarrow{w} & = (x_3,y_3,z_3) \\ \overrightarrow{v} + \overrightarrow{w} & = (x_2 + x_3,y_2 + y_3,z_2 + z_3) \\ \\ \overrightarrow{u} \times (\overrightarrow{v} + \overrightarrow{w}) & = \left|\begin{matrix} \overrightarrow{e}_{x} & \overrightarrow{e}_{y} & \overrightarrow{e}_{z} \\ x_1 & y_1 & z_1 \\ x_2 + x_3 & y_2 + y_3 & z_2 + z_3 \end{matrix}\right| \\ \\ & = \left|\begin{matrix} \overrightarrow{e}_{x} & \overrightarrow{e}_{y} & \overrightarrow{e}_{z} \\ x_1 & y_1 & z_1 \\ x_2 & y_2 & z_2 \end{matrix}\right| + \left|\begin{matrix} \overrightarrow{e}_{x} & \overrightarrow{e}_{y} & \overrightarrow{e}_{z} \\ x_1 & y_1 & z_1 \\ x_3 & + y_3 & + z_3 \end{matrix}\right| \\ \\ \therefore \overrightarrow{u} \times (\overrightarrow{v} + \overrightarrow{w}) & = \overrightarrow{u} \times \overrightarrow{v} + \overrightarrow{u} \times \overrightarrow{w} \end{align*} }[/math]
Prova de C4:
[math]\displaystyle{ \begin{align*} \alpha \overrightarrow{u} & = (\alpha x_1, \alpha y_1, \alpha z_1) \\ \\ (\alpha \overrightarrow{u}) \times \overrightarrow{v} & = \left|\begin{matrix} \overrightarrow{e}_{x} & \overrightarrow{e}_{y} & \overrightarrow{e}_{z} \\ \alpha x_1 & \alpha y_1 & \alpha z_1 \\ x_2 & y_2 & z_2 \end{matrix}\right| \\ \end{align*} }[/math]
Multiplicar uma linha por uma constante multiplica o determinante pelo mesmo fator.
[math]\displaystyle{ \begin{align*} (\alpha \overrightarrow{u}) \times \overrightarrow{v} & = \alpha \left|\begin{matrix} \overrightarrow{e}_{x} & \overrightarrow{e}_{y} & \overrightarrow{e}_{z} \\ x_1 & y_1 & z_1 \\ x_2 & y_2 & z_2 \end{matrix}\right| \\ \\ \therefore (\alpha \overrightarrow{u}) \times \overrightarrow{v} & = \alpha (\overrightarrow{u} \times \overrightarrow{v}) \end{align*} }[/math]
De modo análogo demonstra-se que: [math]\displaystyle{ \overrightarrow{u} \times (\alpha \overrightarrow{v}) = (\alpha \overrightarrow{u}) \times \overrightarrow{v} = \alpha (\overrightarrow{u} \times \overrightarrow{v}) }[/math]
Prova de C5:
Temos que [math]\displaystyle{ \overrightarrow{u} = \alpha \overrightarrow{v} }[/math], logo:
[math]\displaystyle{ \begin{align*} \overrightarrow{u} \times \overrightarrow{v} = \left|\begin{matrix} \overrightarrow{e}_{x} & \overrightarrow{e}_{y} & \overrightarrow{e}_{z} \\ \alpha x_2 & \alpha y_2 & \alpha z_2 \\ x_2 & y_2 & z_2 \end{matrix}\right| \end{align*} }[/math]
Se duas linhas são linearmente dependentes o determinante se anula.
Reciprocamente, se [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} = \overrightarrow{0} }[/math], então [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} = (0,0,0) }[/math]. Isso significa que, ou uma das linhas é de zeros, ou uma linha é linearmente dependente com outra. Portanto, ou um dos vetores é nulo ou eles são linearmente dependentes.
Prova de C6:
Temos que [math]\displaystyle{ \overrightarrow{u} \cdot (\overrightarrow{u} \times \overrightarrow{v}) = \overrightarrow{v} \cdot (\overrightarrow{u} \times \overrightarrow{v}) = 0 }[/math]. Então:
[math]\displaystyle{ \overrightarrow{u} \cdot (\overrightarrow{u} \times \overrightarrow{v}) = x_1(y_1z_2 - z_1y_2) + y_1(x_2z_1 - x_1z_2) + z_1(x_1y_2 - x_2y_1) = 0 }[/math]
Que é equivalente ao desenvolvimento do determinante:
[math]\displaystyle{ \overrightarrow{u} \cdot (\overrightarrow{u} \times \overrightarrow{v}) = \left|\begin{matrix} x_1 & y_1 & z_1 \\ x_1 & y_1 & z_1 \\ x_2 & y_2 & z_2 \end{matrix}\right| = 0 }[/math]
De maneira análoga verificamos [math]\displaystyle{ \overrightarrow{v} \cdot (\overrightarrow{u} \times \overrightarrow{v}) = 0 }[/math]
Concluímos então que [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} \perp \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} \times \overrightarrow{v} \perp \overrightarrow{u} }[/math]
A norma do produto vetorial é a área do paralelogramo formado por [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math]. Para este cálculo tanto faz a ordem do produto vetorial.
- [math]\displaystyle{ ||\overrightarrow{u} \times \overrightarrow{v}||^2 = ||\overrightarrow{u}||^2||\overrightarrow{v}||^2 - (\overrightarrow{u} \cdot \overrightarrow{v})^2 }[/math] (identidade de Lagrange)
[math]\displaystyle{ ||\overrightarrow{u} \times \overrightarrow{v}||^2 = (y_1z_2 - z_1y_2)^2 + (-x_1z_2 + z_1x_2)^2 + (x_1y_2 - y_1x_2)^2 }[/math]
(lembrando que: [math]\displaystyle{ ||\overrightarrow{u}||^2 = \overrightarrow{u} \cdot \overrightarrow{u} }[/math])
Por outro lado:
[math]\displaystyle{ ||\overrightarrow{u}||^2||\overrightarrow{v}||^2 = (x_1^2 + y_1^2 + z_1^2)(x_2^2 + y_2^2 + z_2^2) }[/math]
e
[math]\displaystyle{ (\overrightarrow{u} \cdot \overrightarrow{v})^2 = (x_1x_2 + y_1y_2 + z_1z_2)^2 }[/math]
Juntando os dois desenvolvimentos anteriores como indicado pela identidade de Lagrange provamos a fórmula.
A identidade é uma igualdade de números, então podemos tambem escrever:
[math]\displaystyle{ (\overrightarrow{u} \times \overrightarrow{v})(\overrightarrow{u} \times \overrightarrow{v}) = (\overrightarrow{u} \cdot \overrightarrow{u})(\overrightarrow{v} \cdot \overrightarrow{v}) - (\overrightarrow{u} \cdot \overrightarrow{v})^2 }[/math]
- Se [math]\displaystyle{ \overrightarrow{u} \neq \overrightarrow{0}, \overrightarrow{v} \neq \overrightarrow{0} }[/math] e se [math]\displaystyle{ \theta }[/math] é o ângulo entre os vetores [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math]:
[math]\displaystyle{ ||\overrightarrow{u} \times \overrightarrow{v}|| = ||\overrightarrow{u}|| ||\overrightarrow{v}|| \text{ sen } \theta }[/math]
De fato, de acordo com a identidade de Lagrange:
[math]\displaystyle{ ||\overrightarrow{u} \times \overrightarrow{v}||^2 = ||\overrightarrow{u}||^2||\overrightarrow{v}||^2 - (\overrightarrow{u} \cdot \overrightarrow{v})^2 }[/math] (lembrando que [math]\displaystyle{ \overrightarrow{u} \cdot \overrightarrow{v} = ||\overrightarrow{u}||||\overrightarrow{v}|| \cos \theta }[/math] e [math]\displaystyle{ \text{sen}^2 \theta + \cos^2 \theta = 1 }[/math])
[math]\displaystyle{ \begin{align*} & = ||\overrightarrow{u}||^2||\overrightarrow{v}||^2 - (||\overrightarrow{u}||||\overrightarrow{v}|| \cos \theta)^2 \\ & = ||\overrightarrow{u}||^2||\overrightarrow{v}||^2 - ||\overrightarrow{u}||^2||\overrightarrow{v}||^2 \cos^2 \theta \\ & = ||\overrightarrow{u}||^2||\overrightarrow{v}||^2(1 - \cos^2 \theta) \text{ }(\text{fator comum em evidencia})\\ & = ||\overrightarrow{u}||^2||\overrightarrow{v}||^2 \text{sen}^2 \theta \\ \therefore \\ & = ||\overrightarrow{u}||||\overrightarrow{v}|| \text{sen } \theta \end{align*} }[/math]
- Prova de que a norma do produto vetorial dá a área do paralelogramo
A área do paraleogramo é dada por [math]\displaystyle{ ||\overrightarrow{u}||h }[/math], com [math]\displaystyle{ h = ||\overrightarrow{v}|| \text{sen} \theta }[/math]. Então área do paralelogramo é [math]\displaystyle{ ||\overrightarrow{u}||||\overrightarrow{v}|| \text{sen } \theta }[/math]. Mas [math]\displaystyle{ ||\overrightarrow{u} \times \overrightarrow{v}|| = ||\overrightarrow{u}||||\overrightarrow{v}|| \text{sen } \theta }[/math]. Fica então provado que a norma do produto vetorial é igual a àrea do paralelogramo.
O produto vetorial depende da ordem. Portanto, temos que em geral [math]\displaystyle{ \overrightarrow{u} \times (\overrightarrow{v} \times \overrightarrow{w}) \neq (\overrightarrow{u} \times \overrightarrow{v}) \times \overrightarrow{w} }[/math]. Isto é, o produto vetorial não é associativo.
- [math]\displaystyle{ \overrightarrow{u} \times (\overrightarrow{v} \times \overrightarrow{w}) = (\overrightarrow{u} \cdot \overrightarrow{w})\overrightarrow{v} - (\overrightarrow{u} \cdot \overrightarrow{v})\overrightarrow{w} }[/math]
- [math]\displaystyle{ (\overrightarrow{u} \times \overrightarrow{v}) \times \overrightarrow{w} = (\overrightarrow{u} \cdot \overrightarrow{w})\overrightarrow{v} - (\overrightarrow{v} \cdot \overrightarrow{w})\overrightarrow{u} }[/math]
Em palavras: o duplo produto vetorial produz um vetor que é coplanar, ou linearmente dependente, aos vetores entre parênteses.
Regra prática para memorizar a fórmula:
Observe a seguinte figura:
Temos uma base ortonormal positiva orientada de tal forma que [math]\displaystyle{ \overrightarrow{e}_x }[/math] é paralelo a [math]\displaystyle{ \overrightarrow{u} }[/math], [math]\displaystyle{ \overrightarrow{e}_y }[/math] é coplanar com [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math], e [math]\displaystyle{ \overrightarrow{e}_z }[/math] paralelo [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} }[/math]. Considere [math]\displaystyle{ \overrightarrow{u} \neq \overrightarrow{0} }[/math] e que [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math] são linearmente independentes. O vetor [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} }[/math] é ortogonal a [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math]. Da mesma forma, [math]\displaystyle{ (\overrightarrow{u} \times \overrightarrow{v}) \times \overrightarrow{w} }[/math] é ortogonal a [math]\displaystyle{ \overrightarrow{w} }[/math] e a [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} }[/math]. Consequentemente, [math]\displaystyle{ (\overrightarrow{u} \times \overrightarrow{v}) \times \overrightarrow{w} }[/math] esta contido no plano determinado por [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math] e, portanto, [math]\displaystyle{ (\overrightarrow{u} \times \overrightarrow{v}) \times \overrightarrow{w} = \alpha \overrightarrow{v} + \beta \overrightarrow{w} }[/math].
As coordenadas dos vetores [math]\displaystyle{ \overrightarrow{u}, \overrightarrow{v}, \overrightarrow{w} }[/math] são:
[math]\displaystyle{ \begin{align*} \overrightarrow{u} & = (x_1,0,0) \\ \overrightarrow{v} & = (x_2,y_2,0) \\ \overrightarrow{w} & = (x_3,y_3,z_3) \end{align*} }[/math]
Calculemos agora as coordenadas do produto vetorial entre parênteses e do produto fora do parênteses:
[math]\displaystyle{ \begin{align*} \overrightarrow{u} \times \overrightarrow{v} = & \left|\begin{matrix} \overrightarrow{e}_x & \overrightarrow{e}_y & \overrightarrow{e}_z \\ x_1 & 0 & 0 \\ x_2 & y_2 & 0 \end{matrix}\right| = x_1y_2\overrightarrow{e}_z = (0,0,x_1y_2)\\ \\ (\overrightarrow{u} \times \overrightarrow{v}) \times \overrightarrow{w} = & \left|\begin{matrix} \overrightarrow{e}_x & \overrightarrow{e}_y & \overrightarrow{e}_z \\ 0 & 0 & x_1y_2 \\ x_3 & y_3 & z_3 \end{matrix}\right| = -x_1y_2y_3 \overrightarrow{e}_x + x_1y_2x_3 \overrightarrow{e}_y = (-x_1y_2y_3,x_1y_2x_3,0) \end{align*} }[/math]
Por outro lado:
[math]\displaystyle{ \alpha \overrightarrow{v} + \beta \overrightarrow{w} = \alpha(x_1,0,0) + \beta(x_2,y_2,0) = (\alpha x_1 + \beta x_2, \beta y_2, 0) }[/math]
Fazendo a igualdade entre os dois últimos vetores:
[math]\displaystyle{ (\alpha x_1 + \beta x_2, \beta y_2, 0) = (-x_1y_2y_3,x_1y_2x_3,0) }[/math]
Obtemos então:
[math]\displaystyle{ \begin{cases} \alpha x_1 + \beta x_2 & = -x_1y_2y_3 \\ \\ \beta y_2 & = x_1y_2x_3 \end{cases} }[/math]
Donde concluímos que:
[math]\displaystyle{ \begin{align*} \beta & = x_1x_3 \\ \\ \alpha & = -(x_2x_3 + y_2y_3) \end{align*} }[/math]
Note que:
[math]\displaystyle{ \begin{align*} x_1x_3 = \overrightarrow{u} \cdot \overrightarrow{w} \\ x_2x_3 + y_2y_3 = \overrightarrow{v} \cdot \overrightarrow{w} \end{align*} }[/math]
Assim fica provado que: [math]\displaystyle{ (\overrightarrow{u} \times \overrightarrow{v}) \times \overrightarrow{w} = (\overrightarrow{u} \cdot \overrightarrow{w})\overrightarrow{v} - (\overrightarrow{v} \cdot \overrightarrow{w})\overrightarrow{u} }[/math]
Esta fórmula pode ser expressa na forma de um determinante:
[math]\displaystyle{ \begin{align*} (\overrightarrow{u} \times \overrightarrow{v}) \times \overrightarrow{w} = \left|\begin{matrix} \overrightarrow{v} & \overrightarrow{u} \\ \overrightarrow{v} \cdot \overrightarrow{w} & \overrightarrow{u} \cdot \overrightarrow{w} \end{matrix}\right| \end{align*} }[/math]
E para o outro caso:
[math]\displaystyle{ \begin{align*} \overrightarrow{u} \times (\overrightarrow{v} \times \overrightarrow{w}) = \left|\begin{matrix} \overrightarrow{v} & \overrightarrow{w} \\ \overrightarrow{u} \cdot \overrightarrow{v} & \overrightarrow{u} \cdot \overrightarrow{w} \end{matrix}\right| \end{align*} }[/math]