Estimativa de máxima probabilidade
A Estimativa de Máxima Verossimilhança (MLEs) é um modelo geral para estimar parâmetros de uma distribuição de probabilidade que depende das observações da amostra.
Em outras palavras, o EMV maximiza a probabilidade dos parâmetros das funções de densidade que dependem da distribuição de probabilidade e das observações da amostra.
Quando falamos de estimativa de máxima verossimilhança, devemos falar sobre a função de máxima verossimilhança . Matematicamente, dada uma amostra x=(x 1 ,…,x n ) e parâmetros, θ = (θ 1 , … , θ n ), então,
Não entre em pânico! Este símbolo significa a mesma coisa que soma para somas. Neste caso, é a multiplicação de todas as funções de densidade que dependem das observações da amostra (x i ) e dos parâmetros θ.
Quanto maior o valor de L(θ | x), ou seja, o valor da função de máxima verossimilhança, mais provável serão os parâmetros baseados na amostra.
Função logarítmica de EMV
Para encontrar as estimativas de máxima verossimilhança, temos que diferenciar (derivar) os produtos das funções de densidade e não é a maneira mais confortável de fazê-lo.
Quando nos deparamos com funções complicadas, o que podemos fazer é uma transformação monótona. Por outras palavras, seria como tentar desenhar a Europa numa escala real. Devemos reduzi-lo para caber em uma folha de papel.
Neste caso, a transformação monotônica é feita usando logaritmos naturais, uma vez que são funções monotônicas e crescentes. Matematicamente,
As propriedades dos logaritmos nos permitem expressar a multiplicação acima como a soma dos logaritmos naturais aplicados às funções de densidade.
Assim, a transformação monotônica usando logaritmos é simplesmente uma “escalonagem” para números menores.
O valor estimado dos parâmetros que maximiza a probabilidade dos parâmetros da função de máxima verossimilhança com logaritmos é equivalente ao valor estimado dos parâmetros que maximiza a probabilidade dos parâmetros da função de máxima verossimilhança original.
Assim, sempre vamos lidar com a modificação monotônica da função de máxima verossimilhança dada a sua maior facilidade para os cálculos.
Curiosidade
Por mais complexo e estranho que o EMV possa parecer, estamos continuamente aplicando-o sem perceber.
Quando?
Em todas as estimativas dos parâmetros de uma regressão linear sob hipóteses clássicas. Mais comumente conhecido como Mínimos Quadrados Ordinários (OLS).
Em outras palavras, quando estamos aplicando MCO, estamos aplicando EMV implicitamente, pois ambos são equivalentes em termos de consistência.
Inscrição
Como outros métodos, o EMV é baseado em iteração. Ou seja, repita uma determinada operação quantas vezes forem necessárias para encontrar o valor máximo ou mínimo de uma função. Este processo pode estar sujeito a restrições nos valores finais dos parâmetros. Por exemplo, que o resultado é maior ou igual a zero ou que a soma de dois parâmetros deve ser menor que um.
O modelo simétrico GARCH e suas diferentes extensões aplicam o EMV para encontrar o valor estimado dos parâmetros que maximiza a probabilidade dos parâmetros das funções de densidade.