Encontrando pontos críticos de funções de várias variáveis
Da mesma forma que precisamos das derivadas para achar pontos críticos de uma função de uma variável, precisamos das derivadas parciais para achar pontos críticos de uma função de várias variáveis. A ideia de procurar por pontos onde existe uma tangente horizontal ou zero de função continua a mesma para funções de várias variáveis. Exceto que com duas variáveis tem-se um plano tangente, não apenas uma reta.
Critério para achar pontos críticos
Seja [math]\displaystyle{ f }[/math] uma função com domínio [math]\displaystyle{ D }[/math]. [math]\displaystyle{ P_0 \in D }[/math] é um ponto de máximo ou mínimo. Se [math]\displaystyle{ f }[/math] é diferenciável em [math]\displaystyle{ P_0 }[/math], então as suas derivadas parciais de primeira ordem são iguais a zero naquele ponto.
Com este teorema podemos reduzir a nossa busca por máximos ou mínimos locais para pontos onde as derivadas parciais são nulas. Todos os outros pontos do domínio da função, excluindo as bordas do domínio, onde as derivadas parciais não se anulam, já estão automaticamente descartados da busca.
Suponha que [math]\displaystyle{ (x_0,y_0) }[/math] seja um máximo local de [math]\displaystyle{ f }[/math]. Com [math]\displaystyle{ (x_0,y_0) }[/math] pertencendo a [math]\displaystyle{ D }[/math], excluindo a borda, existe uma bola aberta [math]\displaystyle{ B \subset D }[/math], centrada em [math]\displaystyle{ (x_0,y_0) }[/math], tal que, para todo [math]\displaystyle{ (x,y) }[/math] em [math]\displaystyle{ B }[/math]:
[math]\displaystyle{ f(x,y) \leq f(x_0,y_0) }[/math]
Por outro lado, existe um intervalo aberto [math]\displaystyle{ I }[/math], com [math]\displaystyle{ x_0 \in I }[/math], tal que para todo [math]\displaystyle{ x \in I }[/math], [math]\displaystyle{ (x_0,y_0) \in B }[/math]. Vamos considerar a função [math]\displaystyle{ g }[/math] dada por
[math]\displaystyle{ g(x) = f(x,y_0), \ x \in I }[/math]
Se você não entendeu a função [math]\displaystyle{ g }[/math] de uma variável, lembre-se que estamos mantendo a outra variável fixa, constante, como fazemos para calcular derivadas parciais.
Temos:
- [math]\displaystyle{ g }[/math] é diferenciável em [math]\displaystyle{ x_0 }[/math]
- [math]\displaystyle{ x_0 }[/math] é um ponto dentro de [math]\displaystyle{ I }[/math]
- [math]\displaystyle{ x_0 }[/math] é um ponto de máximo local de [math]\displaystyle{ g }[/math]
[math]\displaystyle{ g'(x_0) = \frac{\partial f}{\partial x}(x_0,y_0) = 0 }[/math]
Podemos repetir o mesmo raciocínio para provar que [math]\displaystyle{ \frac{\partial f}{\partial y}(x_0,y_0) = 0 }[/math]. Também podemos inverter o sinal da inequação para repetir a demonstração, agora para pontos de mínimo.
A interpretação geométrica da demonstração é que temos um plano horizontal tangente nos pontos onde a função tem um máximo ou mínimo local. É um ponto crítico e que também pode ser chamado de ponto estacionário. Podemos usar a física para explicar o significado de ponto estacionário. Quando estudamos trajetórias, qualquer objeto jogado para o alto será puxado para baixo pela gravidade, a menos que a sua velocidade seja no mínimo igual à velocidade de escape. O exato instante quando o vetor de velocidade vertical inverte de sinal corresponde a um ponto estacionário.
Observação: Eu segui o livro do Hamilton Guidorizzi.
O teste da segunda derivada
Continuando do teorema anterior. Para [math]\displaystyle{ (x_0,y_0) }[/math] ser um máximo local ou relativo temos que ter [math]\displaystyle{ \frac{\partial^2 f}{\partial x^2}(x_0,y_0) \leq 0 }[/math] e [math]\displaystyle{ \frac{\partial^2 f}{\partial y^2}(x_0,y_0) \leq 0 }[/math]. Inverta o sinal da inequação e temos a condição para um ponto ser um mínimo local ou relativo.
A interpretação geométrica é basicamente a mesma que temos para funções de uma variável. A derivada parcial de segunda ordem diz respeito à concavidade numa direção. Quando ambas são negativas a concavidade é para baixo em ambas as direções. Quando ambas são positivas a concavidade é para cima em ambas as direções. Já podemos adiantar e afirmar que se o sinal de cada derivada parcial de segunda ordem for o oposto da outra, temos aí um ponto de sela. O equivalente a um ponto de inflexão para funções de uma variável.
O raciocínio para esta demonstração é basicamente o mesmo que fizemos para uma função de uma variável. Exceto que a derivada de segunda ordem é agora uma derivada parcial.
A maioria dos livros dá a definição do Hessiano:
[math]\displaystyle{ H(x,y) = \left| \begin{matrix} \frac{\partial^2 f}{\partial x^2} & \frac{\partial^2 f}{\partial xy} \\ \frac{\partial^2 f}{\partial yx} & \frac{\partial^2 f}{\partial y^2} \end{matrix} \right| = \frac{\partial^2 f}{\partial x^2} \frac{\partial^2 f}{\partial y^2} - \frac{\partial^2 f}{\partial xy} \frac{\partial^2 f}{\partial yx} }[/math]
As condições para um máximo local ou um mínimo local devem ter ficado claras no parágrafo anterior. Vamos prosseguir para o ponto de sela:
Se [math]\displaystyle{ H \lt 0 }[/math] temos um ponto de sela. Da fórmula do Hessiano temos que o resultado é negativo quando o primeiro termo é menor do que o segundo.
Outro ponto de vista é pensar no Hessiano como um produto escalar entre dois vetores. Ele realmente se parece com a derivada direcional.
Se [math]\displaystyle{ H = 0 }[/math] não podemos afirmar nada sobre o ponto porque temos o mesmo problema que aparece com funções de uma variável. A derivada segunda pode nos fornecer informações sobre a concavidade da função se a derivada for diferente de zero. Quando a derivada segunda se anula não podemos ter certeza sobre o comportamento da função naquele ponto.