Produto vetorial

From Applied Science
Orientação do espaço

O produto vetorial é uma operação que associa a dois vetores no espaço um vetor. Esta definido apenas para espaços de três dimensões (existe um caso para sete dimensões, mas ele não será tratado aqui). Assim como o produto escalar, ele também é uma função e pode ser entendido como uma transformação linear, embora a formalização das transformações lineares seja feita apenas em álgebra linear. Como os vetores carregam em si a noção de sentido e direção no espaço, o produto vetorial precisa da noção de orientação do espaço para se definir para onde aponta o vetor resultante da operação.

Observe a figura:

Por convenção adota-se a regra da mão direita, onde o polegar aponta na direção do produto vetorial e o indicador no sentido do primeiro vetor. Temos os vetores [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math] determinando um plano. Se fizermos o produto [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} }[/math], estamos adotando o sentido anti-horário e portanto, o produto vetorial aponta para fora (símbolo: [math]\displaystyle{ \odot }[/math]) do plano determinando por [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math]. Se fizermos o produto [math]\displaystyle{ \overrightarrow{v} \times \overrightarrow{u} }[/math], estamos adotando o sentido horário e portanto, o produto vetorial aponta para dentro (símbolo: [math]\displaystyle{ \otimes }[/math]) do plano determinando por [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math].

Nota: os livros brasileiros adotam o símbolo [math]\displaystyle{ \wedge }[/math] para indicar o produto vetorial, enquanto os estrangeiros adotam [math]\displaystyle{ \times }[/math]. A notação com [math]\displaystyle{ \times }[/math] é mnemônica e remete à regra de Sarrus para o cálculo de determinantes.

A seguinte figura sintetiza a regra da mão direita:

[math]\displaystyle{ \begin{align*} \overrightarrow{e}_x \times \overrightarrow{e}_y = -\overrightarrow{e}_y \times \overrightarrow{e}_x = \overrightarrow{e}_z \\ \overrightarrow{e}_y \times \overrightarrow{e}_z = -\overrightarrow{e}_z \times \overrightarrow{e}_y = \overrightarrow{e}_x \\ \overrightarrow{e}_z \times \overrightarrow{e}_x = -\overrightarrow{e}_x \times \overrightarrow{e}_z = \overrightarrow{e}_y \end{align*} }[/math]

Fazendo o produto vetorial de dois vetores, no sentido anti-horário (positivo), obtemos o terceiro. Se o produto for feito no sentido horário (negativo), obtemos um vetor oposto ao terceiro.

Bases positivas: concordam com a regra da mão direita.

Bases negativas: discordam da regra da mão direita.


Cálculo do produto vetorial

O cálculo do produto vetorial, em relação a uma base ortonormal [math]\displaystyle{ \{\overrightarrow{e}_{x},\overrightarrow{e}_{y},\overrightarrow{e}_{z}\} }[/math], é definido da seguinte forma:

[math]\displaystyle{ \begin{align*} \overrightarrow{u} & = (x_1, y_1, z_1) \\ \overrightarrow{v} & = (x_2, y_2, z_2) \\ \\ \overrightarrow{u} \times \overrightarrow{v} & = (y_1z_2 - z_1y_2, x_2z_1 - x_1z_2, x_1y_2 - x_2y_1) \end{align*} }[/math]

Que é equivalente ao determinate:

[math]\displaystyle{ \begin{align*} \overrightarrow{u} \times \overrightarrow{v} = \left|\begin{matrix} \overrightarrow{e}_{x} & \overrightarrow{e}_{y} & \overrightarrow{e}_{z} \\ x_1 & y_1 & z_1 \\ x_2 & y_2 & z_2 \end{matrix}\right| \end{align*} }[/math]

Expressão cartesiana do produto vetorial

Sejam [math]\displaystyle{ \overrightarrow{u} = x_1\overrightarrow{e}_x + y_1\overrightarrow{e}_y + z_1\overrightarrow{e}_z }[/math] e [math]\displaystyle{ \overrightarrow{v} = x_2\overrightarrow{e}_x + y_2\overrightarrow{e}_y + z_2\overrightarrow{e}_z }[/math], dois vetores no [math]\displaystyle{ \mathbb{R}^3 }[/math]. Temos que:

[math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} = (x_1\overrightarrow{e}_x + y_1\overrightarrow{e}_y + z_1\overrightarrow{e}_z) \times (x_2\overrightarrow{e}_x + y_2\overrightarrow{e}_y + z_2\overrightarrow{e}_z) }[/math]

Aplicando a propriedade distributiva:

[math]\displaystyle{ \begin{align*} \overrightarrow{u} \times \overrightarrow{v} = & x_1x_2(\overrightarrow{e}_x \times \overrightarrow{e}_x) + x_1y_2(\overrightarrow{e}_x \times \overrightarrow{e}_y) + x_1z_2(\overrightarrow{e}_x \times \overrightarrow{e}_z) + \\ & y_1x_2(\overrightarrow{e}_y \times \overrightarrow{e}_x) + y_1y_2(\overrightarrow{e}_y \times \overrightarrow{e}_y) + y_1z_2(\overrightarrow{e}_y \times \overrightarrow{e}_z) + \\ & z_1x_2(\overrightarrow{e}_z \times \overrightarrow{e}_x) + z_1y_2(\overrightarrow{e}_z \times \overrightarrow{e}_y) + z_1z_2(\overrightarrow{e}_z \times \overrightarrow{e}_z) \end{align*} }[/math]

Cancelando os termos com produtos de vetores iguais e aplicando a regra da mão direita:

[math]\displaystyle{ \begin{align*} \overrightarrow{u} \times \overrightarrow{v} & = x_1y_2(\overrightarrow{e}_z) + x_1z_2(-\overrightarrow{e}_y) + y_1x_2(-\overrightarrow{e}_z) + y_1z_2(\overrightarrow{e}_x) + z_1x_2(\overrightarrow{e}_y) + z_1y_2(-\overrightarrow{e}_x) \\ & = (y_1z_2 - y_2z_1)\overrightarrow{e}_x + (x_2z_1 - x_1z_2)\overrightarrow{e}_y + (x_1y_2 - x_2y_1)\overrightarrow{e}_z \end{align*} }[/math]

Fica assim demonstrada a fórmula do determinante apresentada anteriormente.


Propriedades do produto vetorial

As propriedades do produto vetorial dependem apenas dos vetores [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math]. Assim como no produto escalar, elas não dependem da base escolhida, desde que seja ortonormal.

C1. [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{u} = \overrightarrow{0} }[/math] (nulidade)
C2. [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} = -\overrightarrow{v} \times \overrightarrow{u} }[/math] (anticomutativa)
C3. [math]\displaystyle{ \overrightarrow{u} \times (\overrightarrow{v} + \overrightarrow{w}) = \overrightarrow{u} \times \overrightarrow{v} + \overrightarrow{u} \times \overrightarrow{w} }[/math] (distributiva)
C4. [math]\displaystyle{ (\alpha \overrightarrow{u}) \times \overrightarrow{v} = \alpha (\overrightarrow{u} \times \overrightarrow{v}) }[/math] (multiplicação por escalar)
C5. [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} = \overrightarrow{0} \iff \overrightarrow{u} \text{ e } \overrightarrow{v} }[/math] forem LD (paralelismo)
C6. [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} }[/math] é simultaneamente ortogonal a [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math] (ortogonalidade)
C7. [math]\displaystyle{ \{\overrightarrow{u},\overrightarrow{v},\overrightarrow{u} \times \overrightarrow{v}\} }[/math] é uma base positiva (convenção caso [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math] sejam LI)

Prova de C1:

[math]\displaystyle{ \begin{align*} \overrightarrow{u} \times \overrightarrow{u} = \left|\begin{matrix} \overrightarrow{e}_{x} & \overrightarrow{e}_{y} & \overrightarrow{e}_{z} \\ x & y & z \\ x & y & z \end{matrix}\right| \end{align*} }[/math]

Se duas linhas da matriz são iguais o determinante se anula e portanto, as coordenadas do vetor são [math]\displaystyle{ (0,0,0) }[/math].


Prova de C2:

[math]\displaystyle{ \begin{align*} \overrightarrow{u} \times \overrightarrow{v} = \left|\begin{matrix} \overrightarrow{e}_{x} & \overrightarrow{e}_{y} & \overrightarrow{e}_{z} \\ x_1 & y_1 & z_1 \\ x_2 & y_2 & z_2 \end{matrix}\right|\end{align*} }[/math]

Inverter o produto vetorial é o mesmo que trocar duas linhas da matriz. Essa operação não afeta dependência linear, mas inverte o sinal do determinante.


Prova de C3:

[math]\displaystyle{ \begin{align*} \overrightarrow{w} & = (x_3,y_3,z_3) \\ \overrightarrow{v} + \overrightarrow{w} & = (x_2 + x_3,y_2 + y_3,z_2 + z_3) \\ \\ \overrightarrow{u} \times (\overrightarrow{v} + \overrightarrow{w}) & = \left|\begin{matrix} \overrightarrow{e}_{x} & \overrightarrow{e}_{y} & \overrightarrow{e}_{z} \\ x_1 & y_1 & z_1 \\ x_2 + x_3 & y_2 + y_3 & z_2 + z_3 \end{matrix}\right| \\ \\ & = \left|\begin{matrix} \overrightarrow{e}_{x} & \overrightarrow{e}_{y} & \overrightarrow{e}_{z} \\ x_1 & y_1 & z_1 \\ x_2 & y_2 & z_2 \end{matrix}\right| + \left|\begin{matrix} \overrightarrow{e}_{x} & \overrightarrow{e}_{y} & \overrightarrow{e}_{z} \\ x_1 & y_1 & z_1 \\ x_3 & + y_3 & + z_3 \end{matrix}\right| \\ \\ \therefore \overrightarrow{u} \times (\overrightarrow{v} + \overrightarrow{w}) & = \overrightarrow{u} \times \overrightarrow{v} + \overrightarrow{u} \times \overrightarrow{w} \end{align*} }[/math]


Prova de C4:

[math]\displaystyle{ \begin{align*} \alpha \overrightarrow{u} & = (\alpha x_1, \alpha y_1, \alpha z_1) \\ \\ (\alpha \overrightarrow{u}) \times \overrightarrow{v} & = \left|\begin{matrix} \overrightarrow{e}_{x} & \overrightarrow{e}_{y} & \overrightarrow{e}_{z} \\ \alpha x_1 & \alpha y_1 & \alpha z_1 \\ x_2 & y_2 & z_2 \end{matrix}\right| \\ \end{align*} }[/math]

Multiplicar uma linha por uma constante multiplica o determinante pelo mesmo fator.

[math]\displaystyle{ \begin{align*} (\alpha \overrightarrow{u}) \times \overrightarrow{v} & = \alpha \left|\begin{matrix} \overrightarrow{e}_{x} & \overrightarrow{e}_{y} & \overrightarrow{e}_{z} \\ x_1 & y_1 & z_1 \\ x_2 & y_2 & z_2 \end{matrix}\right| \\ \\ \therefore (\alpha \overrightarrow{u}) \times \overrightarrow{v} & = \alpha (\overrightarrow{u} \times \overrightarrow{v}) \end{align*} }[/math]

De modo análogo demonstra-se que: [math]\displaystyle{ \overrightarrow{u} \times (\alpha \overrightarrow{v}) = (\alpha \overrightarrow{u}) \times \overrightarrow{v} = \alpha (\overrightarrow{u} \times \overrightarrow{v}) }[/math]


Prova de C5:

Temos que [math]\displaystyle{ \overrightarrow{u} = \alpha \overrightarrow{v} }[/math], logo:

[math]\displaystyle{ \begin{align*} \overrightarrow{u} \times \overrightarrow{v} = \left|\begin{matrix} \overrightarrow{e}_{x} & \overrightarrow{e}_{y} & \overrightarrow{e}_{z} \\ \alpha x_2 & \alpha y_2 & \alpha z_2 \\ x_2 & y_2 & z_2 \end{matrix}\right| \end{align*} }[/math]

Se duas linhas são linearmente dependentes o determinante se anula.

Reciprocamente, se [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} = \overrightarrow{0} }[/math], então [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} = (0,0,0) }[/math]. Isso significa que, ou uma das linhas é de zeros, ou uma linha é linearmente dependente com outra. Portanto, ou um dos vetores é nulo ou eles são linearmente dependentes.


Prova de C6:

Temos que [math]\displaystyle{ \overrightarrow{u} \cdot (\overrightarrow{u} \times \overrightarrow{v}) = \overrightarrow{v} \cdot (\overrightarrow{u} \times \overrightarrow{v}) = 0 }[/math]. Então:

[math]\displaystyle{ \overrightarrow{u} \cdot (\overrightarrow{u} \times \overrightarrow{v}) = x_1(y_1z_2 - z_1y_2) + y_1(x_2z_1 - x_1z_2) + z_1(x_1y_2 - x_2y_1) = 0 }[/math]

Que é equivalente ao desenvolvimento do determinante:

[math]\displaystyle{ \overrightarrow{u} \cdot (\overrightarrow{u} \times \overrightarrow{v}) = \left|\begin{matrix} x_1 & y_1 & z_1 \\ x_1 & y_1 & z_1 \\ x_2 & y_2 & z_2 \end{matrix}\right| = 0 }[/math]

De maneira análoga verificamos [math]\displaystyle{ \overrightarrow{v} \cdot (\overrightarrow{u} \times \overrightarrow{v}) = 0 }[/math]

Concluímos então que [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} \perp \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} \times \overrightarrow{v} \perp \overrightarrow{u} }[/math]


Interpretação geométrica do produto vetorial

A norma do produto vetorial é a área do paralelogramo formado por [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math]. Para este cálculo tanto faz a ordem do produto vetorial.

  • [math]\displaystyle{ ||\overrightarrow{u} \times \overrightarrow{v}||^2 = ||\overrightarrow{u}||^2||\overrightarrow{v}||^2 - (\overrightarrow{u} \cdot \overrightarrow{v})^2 }[/math] (identidade de Lagrange)

[math]\displaystyle{ ||\overrightarrow{u} \times \overrightarrow{v}||^2 = (y_1z_2 - z_1y_2)^2 + (-x_1z_2 + z_1x_2)^2 + (x_1y_2 - y_1x_2)^2 }[/math]

(lembrando que: [math]\displaystyle{ ||\overrightarrow{u}||^2 = \overrightarrow{u} \cdot \overrightarrow{u} }[/math])

Por outro lado:

[math]\displaystyle{ ||\overrightarrow{u}||^2||\overrightarrow{v}||^2 = (x_1^2 + y_1^2 + z_1^2)(x_2^2 + y_2^2 + z_2^2) }[/math]

e

[math]\displaystyle{ (\overrightarrow{u} \cdot \overrightarrow{v})^2 = (x_1x_2 + y_1y_2 + z_1z_2)^2 }[/math]

Juntando os dois desenvolvimentos anteriores como indicado pela identidade de Lagrange provamos a fórmula.

A identidade é uma igualdade de números, então podemos tambem escrever:

[math]\displaystyle{ (\overrightarrow{u} \times \overrightarrow{v})(\overrightarrow{u} \times \overrightarrow{v}) = (\overrightarrow{u} \cdot \overrightarrow{u})(\overrightarrow{v} \cdot \overrightarrow{v}) - (\overrightarrow{u} \cdot \overrightarrow{v})^2 }[/math]


  • Se [math]\displaystyle{ \overrightarrow{u} \neq \overrightarrow{0}, \overrightarrow{v} \neq \overrightarrow{0} }[/math] e se [math]\displaystyle{ \theta }[/math] é o ângulo entre os vetores [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math]:

[math]\displaystyle{ ||\overrightarrow{u} \times \overrightarrow{v}|| = ||\overrightarrow{u}|| ||\overrightarrow{v}|| \text{ sen } \theta }[/math]

De fato, de acordo com a identidade de Lagrange:

[math]\displaystyle{ ||\overrightarrow{u} \times \overrightarrow{v}||^2 = ||\overrightarrow{u}||^2||\overrightarrow{v}||^2 - (\overrightarrow{u} \cdot \overrightarrow{v})^2 }[/math] (lembrando que [math]\displaystyle{ \overrightarrow{u} \cdot \overrightarrow{v} = ||\overrightarrow{u}||||\overrightarrow{v}|| \cos \theta }[/math] e [math]\displaystyle{ \text{sen}^2 \theta + \cos^2 \theta = 1 }[/math])

[math]\displaystyle{ \begin{align*} & = ||\overrightarrow{u}||^2||\overrightarrow{v}||^2 - (||\overrightarrow{u}||||\overrightarrow{v}|| \cos \theta)^2 \\ & = ||\overrightarrow{u}||^2||\overrightarrow{v}||^2 - ||\overrightarrow{u}||^2||\overrightarrow{v}||^2 \cos^2 \theta \\ & = ||\overrightarrow{u}||^2||\overrightarrow{v}||^2(1 - \cos^2 \theta) \text{ }(\text{fator comum em evidencia})\\ & = ||\overrightarrow{u}||^2||\overrightarrow{v}||^2 \text{sen}^2 \theta \\ \therefore \\ & = ||\overrightarrow{u}||||\overrightarrow{v}|| \text{sen } \theta \end{align*} }[/math]


  • Prova de que a norma do produto vetorial dá a área do paralelogramo

A área do paraleogramo é dada por [math]\displaystyle{ ||\overrightarrow{u}||h }[/math], com [math]\displaystyle{ h = ||\overrightarrow{v}|| \text{sen} \theta }[/math]. Então área do paralelogramo é [math]\displaystyle{ ||\overrightarrow{u}||||\overrightarrow{v}|| \text{sen } \theta }[/math]. Mas [math]\displaystyle{ ||\overrightarrow{u} \times \overrightarrow{v}|| = ||\overrightarrow{u}||||\overrightarrow{v}|| \text{sen } \theta }[/math]. Fica então provado que a norma do produto vetorial é igual a àrea do paralelogramo.


Duplo produto vetorial

O produto vetorial depende da ordem. Portanto, temos que em geral [math]\displaystyle{ \overrightarrow{u} \times (\overrightarrow{v} \times \overrightarrow{w}) \neq (\overrightarrow{u} \times \overrightarrow{v}) \times \overrightarrow{w} }[/math]. Isto é, o produto vetorial não é associativo.

  • [math]\displaystyle{ \overrightarrow{u} \times (\overrightarrow{v} \times \overrightarrow{w}) = (\overrightarrow{u} \cdot \overrightarrow{w})\overrightarrow{v} - (\overrightarrow{u} \cdot \overrightarrow{v})\overrightarrow{w} }[/math]
  • [math]\displaystyle{ (\overrightarrow{u} \times \overrightarrow{v}) \times \overrightarrow{w} = (\overrightarrow{u} \cdot \overrightarrow{w})\overrightarrow{v} - (\overrightarrow{v} \cdot \overrightarrow{w})\overrightarrow{u} }[/math]

Em palavras: o duplo produto vetorial produz um vetor que é coplanar, ou linearmente dependente, aos vetores entre parênteses.

Regra prática para memorizar a fórmula:


Observe a seguinte figura:

Temos uma base ortonormal positiva orientada de tal forma que [math]\displaystyle{ \overrightarrow{e}_x }[/math] é paralelo a [math]\displaystyle{ \overrightarrow{u} }[/math], [math]\displaystyle{ \overrightarrow{e}_y }[/math] é coplanar com [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math], e [math]\displaystyle{ \overrightarrow{e}_z }[/math] paralelo [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} }[/math]. Considere [math]\displaystyle{ \overrightarrow{u} \neq \overrightarrow{0} }[/math] e que [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math] são linearmente independentes. O vetor [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} }[/math] é ortogonal a [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math]. Da mesma forma, [math]\displaystyle{ (\overrightarrow{u} \times \overrightarrow{v}) \times \overrightarrow{w} }[/math] é ortogonal a [math]\displaystyle{ \overrightarrow{w} }[/math] e a [math]\displaystyle{ \overrightarrow{u} \times \overrightarrow{v} }[/math]. Consequentemente, [math]\displaystyle{ (\overrightarrow{u} \times \overrightarrow{v}) \times \overrightarrow{w} }[/math] esta contido no plano determinado por [math]\displaystyle{ \overrightarrow{u} }[/math] e [math]\displaystyle{ \overrightarrow{v} }[/math] e, portanto, [math]\displaystyle{ (\overrightarrow{u} \times \overrightarrow{v}) \times \overrightarrow{w} = \alpha \overrightarrow{v} + \beta \overrightarrow{w} }[/math].


As coordenadas dos vetores [math]\displaystyle{ \overrightarrow{u}, \overrightarrow{v}, \overrightarrow{w} }[/math] são:

[math]\displaystyle{ \begin{align*} \overrightarrow{u} & = (x_1,0,0) \\ \overrightarrow{v} & = (x_2,y_2,0) \\ \overrightarrow{w} & = (x_3,y_3,z_3) \end{align*} }[/math]


Calculemos agora as coordenadas do produto vetorial entre parênteses e do produto fora do parênteses:

[math]\displaystyle{ \begin{align*} \overrightarrow{u} \times \overrightarrow{v} = & \left|\begin{matrix} \overrightarrow{e}_x & \overrightarrow{e}_y & \overrightarrow{e}_z \\ x_1 & 0 & 0 \\ x_2 & y_2 & 0 \end{matrix}\right| = x_1y_2\overrightarrow{e}_z = (0,0,x_1y_2)\\ \\ (\overrightarrow{u} \times \overrightarrow{v}) \times \overrightarrow{w} = & \left|\begin{matrix} \overrightarrow{e}_x & \overrightarrow{e}_y & \overrightarrow{e}_z \\ 0 & 0 & x_1y_2 \\ x_3 & y_3 & z_3 \end{matrix}\right| = -x_1y_2y_3 \overrightarrow{e}_x + x_1y_2x_3 \overrightarrow{e}_y = (-x_1y_2y_3,x_1y_2x_3,0) \end{align*} }[/math]


Por outro lado:

[math]\displaystyle{ \alpha \overrightarrow{v} + \beta \overrightarrow{w} = \alpha(x_1,0,0) + \beta(x_2,y_2,0) = (\alpha x_1 + \beta x_2, \beta y_2, 0) }[/math]


Fazendo a igualdade entre os dois últimos vetores:

[math]\displaystyle{ (\alpha x_1 + \beta x_2, \beta y_2, 0) = (-x_1y_2y_3,x_1y_2x_3,0) }[/math]


Obtemos então:

[math]\displaystyle{ \begin{cases} \alpha x_1 + \beta x_2 & = -x_1y_2y_3 \\ \\ \beta y_2 & = x_1y_2x_3 \end{cases} }[/math]


Donde concluímos que:

[math]\displaystyle{ \begin{align*} \beta & = x_1x_3 \\ \\ \alpha & = -(x_2x_3 + y_2y_3) \end{align*} }[/math]


Note que:

[math]\displaystyle{ \begin{align*} x_1x_3 = \overrightarrow{u} \cdot \overrightarrow{w} \\ x_2x_3 + y_2y_3 = \overrightarrow{v} \cdot \overrightarrow{w} \end{align*} }[/math]

Assim fica provado que: [math]\displaystyle{ (\overrightarrow{u} \times \overrightarrow{v}) \times \overrightarrow{w} = (\overrightarrow{u} \cdot \overrightarrow{w})\overrightarrow{v} - (\overrightarrow{v} \cdot \overrightarrow{w})\overrightarrow{u} }[/math]


Esta fórmula pode ser expressa na forma de um determinante:

[math]\displaystyle{ \begin{align*} (\overrightarrow{u} \times \overrightarrow{v}) \times \overrightarrow{w} = \left|\begin{matrix} \overrightarrow{v} & \overrightarrow{u} \\ \overrightarrow{v} \cdot \overrightarrow{w} & \overrightarrow{u} \cdot \overrightarrow{w} \end{matrix}\right| \end{align*} }[/math]

E para o outro caso:

[math]\displaystyle{ \begin{align*} \overrightarrow{u} \times (\overrightarrow{v} \times \overrightarrow{w}) = \left|\begin{matrix} \overrightarrow{v} & \overrightarrow{w} \\ \overrightarrow{u} \cdot \overrightarrow{v} & \overrightarrow{u} \cdot \overrightarrow{w} \end{matrix}\right| \end{align*} }[/math]