O Variance Inflation Factor (VIF) mede a gravidade da multicolinearidade na análise de regressão. Análise de regressão A análise de regressão é um conjunto de métodos estatísticos usados para estimar as relações entre uma variável dependente e uma ou mais variáveis independentes. Pode ser utilizado para avaliar a força da relação entre as variáveis e para modelar a relação futura entre elas. . É um conceito estatístico que indica o aumento da variância de um coeficiente de regressão como resultado da colinearidade.
Resumo
- O fator de inflação de variância (VIF) é usado para detectar a gravidade da multicolinearidade na análise de regressão de mínimos quadrados ordinários (OLS).
- A multicolinearidade aumenta a variância e o erro tipo II. Isso torna o coeficiente de uma variável consistente, mas não confiável.
- VIF mede o número de variâncias inflacionadas causadas pela multicolinearidade.
Fator de inflação de variância e multicolinearidade
Na análise de regressão de mínimos quadrados ordinários (OLS), a multicolinearidade existe quando duas ou mais das variáveis independentes Variável independente Uma variável independente é uma entrada, suposição ou fator que é alterado para avaliar seu impacto em uma variável dependente (o resultado) . demonstrar uma relação linear entre eles. Por exemplo, para analisar a relação dos tamanhos e receitas das empresas com os preços das ações em um modelo de regressão, as capitalizações de mercado e as receitas são as variáveis independentes.
Capitalização de mercado de uma empresa Capitalização de mercado A capitalização de mercado (valor de mercado) é o valor de mercado mais recente das ações em circulação de uma empresa. O valor de mercado é igual ao preço atual da ação multiplicado pelo número de ações em circulação. A comunidade de investidores costuma usar o valor de capitalização de mercado para classificar as empresas e sua receita total está fortemente correlacionada. À medida que uma empresa obtém receitas crescentes, também cresce de tamanho. Isso leva a um problema de multicolinearidade na análise de regressão OLS. Se as variáveis independentes em um modelo de regressão mostram uma relação linear perfeitamente previsível, isso é conhecido como multicolinearidade perfeita.
Com a multicolinearidade, os coeficientes de regressão ainda são consistentes, mas não são mais confiáveis, uma vez que os erros padrão são aumentados. Isso significa que o poder preditivo do modelo não é reduzido, mas os coeficientes podem não ser estatisticamente significativos com um erro do tipo II Erro do tipo II No teste de hipótese estatística, um erro do tipo II é uma situação em que um teste de hipótese falha em rejeitar a hipótese nula de que é falso. Em outro.
Portanto, se os coeficientes das variáveis não são individualmente significativos - não podem ser rejeitados no teste t, respectivamente - mas podem explicar em conjunto a variância da variável dependente com rejeição no teste F e um alto coeficiente de determinação (R2), pode haver multicolinearidade. É um dos métodos para detectar a multicolinearidade.
VIF é outra ferramenta comumente usada para detectar se existe multicolinearidade em um modelo de regressão. Ele mede o quanto a variância (ou erro padrão) do coeficiente de regressão estimado é inflada devido à colinearidade.
Uso do fator de inflação de variação
O VIF pode ser calculado pela fórmula abaixo:
Onde R i 2 representa o coeficiente de determinação não ajustado para regredir a i-ésima variável independente nas restantes. O recíproco de VIF é conhecido como tolerância . Tanto o VIF quanto a tolerância podem ser usados para detectar multicolinearidade, dependendo da preferência pessoal.
Se R i 2 for igual a 0, a variância das variáveis independentes restantes não pode ser prevista a partir da i-ésima variável independente. Portanto, quando VIF ou tolerância é igual a 1, a i-ésima variável independente não se correlaciona com as demais, o que significa que não existe multicolinearidade neste modelo de regressão. Nesse caso, a variância do i-ésimo coeficiente de regressão não é inflada.
Geralmente, um VIF acima de 4 ou tolerância abaixo de 0,25 indica que pode existir multicolinearidade, e mais investigação é necessária. Quando o VIF é maior que 10 ou a tolerância é menor que 0,1, há uma multicolinearidade significativa que precisa ser corrigida.
No entanto, também existem situações em que VFIs altos podem ser ignorados com segurança sem sofrer de multicolinearidade. A seguir estão três dessas situações:
1. VIFs altos existem apenas em variáveis de controle, mas não em variáveis de interesse. Neste caso, as variáveis de interesse não são colineares entre si ou as variáveis de controle. Os coeficientes de regressão não são afetados.
2. Quando altos VIFs são causados como resultado da inclusão dos produtos ou poderes de outras variáveis, a multicolinearidade não causa impactos negativos. Por exemplo, um modelo de regressão inclui x e x2 como suas variáveis independentes.
3. Quando uma variável dummy que representa mais de duas categorias tem um VIF alto, a multicolinearidade não necessariamente existe. As variáveis sempre terão VIFs altos se houver uma pequena porção de casos na categoria, independentemente de as variáveis categóricas estarem correlacionadas a outras variáveis.
Correção de Multicolinearidade
Como a multicolinearidade aumenta a variância dos coeficientes e causa erros do tipo II, é essencial detectá-la e corrigi-la. Existem duas maneiras simples e comumente usadas para corrigir a multicolinearidade, conforme listado abaixo:
1. O primeiro é remover uma (ou mais) das variáveis altamente correlacionadas. Como a informação fornecida pelas variáveis é redundante, o coeficiente de determinação não será muito prejudicado pela remoção.
2. O segundo método é usar a análise de componentes principais (PCA) ou regressão de mínimos quadrados parciais (PLS) em vez de regressão OLS. A regressão PLS pode reduzir as variáveis a um conjunto menor, sem correlação entre elas. No PCA, novas variáveis não correlacionadas são criadas. Ele minimiza a perda de informações e melhora a previsibilidade de um modelo.
Mais recursos
Finanças é o fornecedor oficial da Certificação CBCA ™ de Certified Banking & Credit Analyst (CBCA) ™ O credenciamento Certified Banking & Credit Analyst (CBCA) ™ é um padrão global para analistas de crédito que cobre finanças, contabilidade, análise de crédito, análise de fluxo de caixa , modelagem de convênios, reembolsos de empréstimos e muito mais. programa de certificação, projetado para ajudar qualquer pessoa a se tornar um analista financeiro de classe mundial. Para continuar avançando em sua carreira, os recursos adicionais abaixo serão úteis:
- Conceitos Básicos de Estatística em Finanças Conceitos Básicos de Estatística em Finanças Um conhecimento sólido de estatística é crucialmente importante para nos ajudar a compreender melhor as finanças. Além disso, os conceitos de estatísticas podem ajudar os investidores a monitorar
- Métodos de previsão Métodos de previsão Principais métodos de previsão. Neste artigo, explicaremos quatro tipos de métodos de previsão de receita que os analistas financeiros usam para prever receitas futuras.
- Regressão linear múltipla Regressão linear múltipla A regressão linear múltipla se refere a uma técnica estatística usada para prever o resultado de uma variável dependente com base no valor das variáveis independentes
- Variável aleatória Variável aleatória Uma variável aleatória (variável estocástica) é um tipo de variável nas estatísticas cujos valores possíveis dependem dos resultados de um determinado fenômeno aleatório