Qual é o fator de inflação de variância (VIF)?

O Variance Inflation Factor (VIF) mede a gravidade da multicolinearidade na análise de regressão. Análise de regressão A análise de regressão é um conjunto de métodos estatísticos usados ​​para estimar as relações entre uma variável dependente e uma ou mais variáveis ​​independentes. Pode ser utilizado para avaliar a força da relação entre as variáveis ​​e para modelar a relação futura entre elas. . É um conceito estatístico que indica o aumento da variância de um coeficiente de regressão como resultado da colinearidade.

Fator de inflação de variância

Resumo

  • O fator de inflação de variância (VIF) é usado para detectar a gravidade da multicolinearidade na análise de regressão de mínimos quadrados ordinários (OLS).
  • A multicolinearidade aumenta a variância e o erro tipo II. Isso torna o coeficiente de uma variável consistente, mas não confiável.
  • VIF mede o número de variâncias inflacionadas causadas pela multicolinearidade.

Fator de inflação de variância e multicolinearidade

Na análise de regressão de mínimos quadrados ordinários (OLS), a multicolinearidade existe quando duas ou mais das variáveis ​​independentes Variável independente Uma variável independente é uma entrada, suposição ou fator que é alterado para avaliar seu impacto em uma variável dependente (o resultado) . demonstrar uma relação linear entre eles. Por exemplo, para analisar a relação dos tamanhos e receitas das empresas com os preços das ações em um modelo de regressão, as capitalizações de mercado e as receitas são as variáveis ​​independentes.

Capitalização de mercado de uma empresa Capitalização de mercado A capitalização de mercado (valor de mercado) é o valor de mercado mais recente das ações em circulação de uma empresa. O valor de mercado é igual ao preço atual da ação multiplicado pelo número de ações em circulação. A comunidade de investidores costuma usar o valor de capitalização de mercado para classificar as empresas e sua receita total está fortemente correlacionada. À medida que uma empresa obtém receitas crescentes, também cresce de tamanho. Isso leva a um problema de multicolinearidade na análise de regressão OLS. Se as variáveis ​​independentes em um modelo de regressão mostram uma relação linear perfeitamente previsível, isso é conhecido como multicolinearidade perfeita.

Com a multicolinearidade, os coeficientes de regressão ainda são consistentes, mas não são mais confiáveis, uma vez que os erros padrão são aumentados. Isso significa que o poder preditivo do modelo não é reduzido, mas os coeficientes podem não ser estatisticamente significativos com um erro do tipo II Erro do tipo II No teste de hipótese estatística, um erro do tipo II é uma situação em que um teste de hipótese falha em rejeitar a hipótese nula de que é falso. Em outro.

Portanto, se os coeficientes das variáveis ​​não são individualmente significativos - não podem ser rejeitados no teste t, respectivamente - mas podem explicar em conjunto a variância da variável dependente com rejeição no teste F e um alto coeficiente de determinação (R2), pode haver multicolinearidade. É um dos métodos para detectar a multicolinearidade.

VIF é outra ferramenta comumente usada para detectar se existe multicolinearidade em um modelo de regressão. Ele mede o quanto a variância (ou erro padrão) do coeficiente de regressão estimado é inflada devido à colinearidade.

Uso do fator de inflação de variação

O VIF pode ser calculado pela fórmula abaixo:

Fator de inflação de variância - Fórmula

Onde R i 2 representa o coeficiente de determinação não ajustado para regredir a i-ésima variável independente nas restantes. O recíproco de VIF é conhecido como tolerância . Tanto o VIF quanto a tolerância podem ser usados ​​para detectar multicolinearidade, dependendo da preferência pessoal.

Se R i 2 for igual a 0, a variância das variáveis ​​independentes restantes não pode ser prevista a partir da i-ésima variável independente. Portanto, quando VIF ou tolerância é igual a 1, a i-ésima variável independente não se correlaciona com as demais, o que significa que não existe multicolinearidade neste modelo de regressão. Nesse caso, a variância do i-ésimo coeficiente de regressão não é inflada.

Geralmente, um VIF acima de 4 ou tolerância abaixo de 0,25 indica que pode existir multicolinearidade, e mais investigação é necessária. Quando o VIF é maior que 10 ou a tolerância é menor que 0,1, há uma multicolinearidade significativa que precisa ser corrigida.

No entanto, também existem situações em que VFIs altos podem ser ignorados com segurança sem sofrer de multicolinearidade. A seguir estão três dessas situações:

1. VIFs altos existem apenas em variáveis ​​de controle, mas não em variáveis ​​de interesse. Neste caso, as variáveis ​​de interesse não são colineares entre si ou as variáveis ​​de controle. Os coeficientes de regressão não são afetados.

2. Quando altos VIFs são causados ​​como resultado da inclusão dos produtos ou poderes de outras variáveis, a multicolinearidade não causa impactos negativos. Por exemplo, um modelo de regressão inclui x e x2 como suas variáveis ​​independentes.

3. Quando uma variável dummy que representa mais de duas categorias tem um VIF alto, a multicolinearidade não necessariamente existe. As variáveis ​​sempre terão VIFs altos se houver uma pequena porção de casos na categoria, independentemente de as variáveis ​​categóricas estarem correlacionadas a outras variáveis.

Correção de Multicolinearidade

Como a multicolinearidade aumenta a variância dos coeficientes e causa erros do tipo II, é essencial detectá-la e corrigi-la. Existem duas maneiras simples e comumente usadas para corrigir a multicolinearidade, conforme listado abaixo:

1. O primeiro é remover uma (ou mais) das variáveis ​​altamente correlacionadas. Como a informação fornecida pelas variáveis ​​é redundante, o coeficiente de determinação não será muito prejudicado pela remoção.

2. O segundo método é usar a análise de componentes principais (PCA) ou regressão de mínimos quadrados parciais (PLS) em vez de regressão OLS. A regressão PLS pode reduzir as variáveis ​​a um conjunto menor, sem correlação entre elas. No PCA, novas variáveis ​​não correlacionadas são criadas. Ele minimiza a perda de informações e melhora a previsibilidade de um modelo.

Mais recursos

Finanças é o fornecedor oficial da Certificação CBCA ™ de Certified Banking & Credit Analyst (CBCA) ™ O credenciamento Certified Banking & Credit Analyst (CBCA) ™ é um padrão global para analistas de crédito que cobre finanças, contabilidade, análise de crédito, análise de fluxo de caixa , modelagem de convênios, reembolsos de empréstimos e muito mais. programa de certificação, projetado para ajudar qualquer pessoa a se tornar um analista financeiro de classe mundial. Para continuar avançando em sua carreira, os recursos adicionais abaixo serão úteis:

  • Conceitos Básicos de Estatística em Finanças Conceitos Básicos de Estatística em Finanças Um conhecimento sólido de estatística é crucialmente importante para nos ajudar a compreender melhor as finanças. Além disso, os conceitos de estatísticas podem ajudar os investidores a monitorar
  • Métodos de previsão Métodos de previsão Principais métodos de previsão. Neste artigo, explicaremos quatro tipos de métodos de previsão de receita que os analistas financeiros usam para prever receitas futuras.
  • Regressão linear múltipla Regressão linear múltipla A regressão linear múltipla se refere a uma técnica estatística usada para prever o resultado de uma variável dependente com base no valor das variáveis ​​independentes
  • Variável aleatória Variável aleatória Uma variável aleatória (variável estocástica) é um tipo de variável nas estatísticas cujos valores possíveis dependem dos resultados de um determinado fenômeno aleatório

Recomendado

O Crackstreams foi encerrado?
2022
O centro de comando do MC é seguro?
2022
Taliesin está deixando um papel crítico?
2022