Logotipo
Unionpédia
Comunicação
Disponível no Google Play
Novo! Faça o download do Unionpédia em seu dispositivo Android™!
Livre
Acesso mais rápido do que o navegador!
 

Medidas de dependência

Índice Medidas de dependência

Uma medida de dependência é um parâmetro associado a um par de variáveis aleatórias que codifica em seu valor a intensidade da dependência estatística entre as variáveis.

11 relações: Cópula (estatística), Coeficiente de correlação tau de Kendall, Correlação, Covariância, Estatística, Função monótona, Informação mútua, Quase certamente, Teoria da informação, Teoria das probabilidades, Variável aleatória.

Cópula (estatística)

Em estatística, uma função cópula é usada como método geral para formular distribuições multivariadas de maneira que diversos tipos gerais de dependência possam ser representados.

Novo!!: Medidas de dependência e Cópula (estatística) · Veja mais »

Coeficiente de correlação tau de Kendall

Em estatística, o coeficiente de correlação de postos de Kendall, comumente chamado de coeficiente tau de Kendall (devido à letra grega τ), é uma estatística usada para medir a correlação de postos entre duas quantidades medidas.

Novo!!: Medidas de dependência e Coeficiente de correlação tau de Kendall · Veja mais »

Correlação

Em probabilidade e estatística, correlação, dependência ou associação é qualquer relação estatística (causal ou não causal) entre duas variáveis e correlação é qualquer relação dentro de uma ampla classe de relações estatísticas que envolva dependência entre duas variáveis.

Novo!!: Medidas de dependência e Correlação · Veja mais »

Covariância

Em teoria da probabilidade e na estatística, a covariância, ou variância conjunta, é uma medida do grau de interdependência (ou inter-relação) numérica entre duas variáveis aleatóriasMILONE, Giuseppe.

Novo!!: Medidas de dependência e Covariância · Veja mais »

Estatística

Um exemplo de gráfico Estatística é a ciência que utiliza-se das teorias probabilísticas para explicar a frequência da ocorrência de eventos, tanto em estudos observacionais quanto em experimentos para modelar a aleatoriedade e a incerteza de forma a estimar ou possibilitar a previsão de fenômenos futuros, conforme o caso.

Novo!!: Medidas de dependência e Estatística · Veja mais »

Função monótona

A função f(x).

Novo!!: Medidas de dependência e Função monótona · Veja mais »

Informação mútua

Diagrama mostrando as relações aditivas e subtrativas de várias medidas de informação associadas com as variaveis correlacionadas ''X'' e ''Y''. A área contida pelos dois círculos é a entropia conjunta Η(''X'',''Y''). O círculo na esquerda (vermelho e violeta) é a entropia individual H(''X''), sendo o círculo vermelho a entropia condicional Η(''X''|''Y''). O círculo na direita (azul e violeta) é H(''Y''), sendo o azul Η(''Y''|''X''). O círculo violeta é a informação mútua ''I''(''X'';''Y''). Em teoria das probabilidades e Teoria da Informação, a informação mútua (em inglês MI de:en:Mutual information) de duas variáveis aleatórias é a medida da dependência mútua entre as duas variáveis.

Novo!!: Medidas de dependência e Informação mútua · Veja mais »

Quase certamente

Na teoria das probabilidades, um evento acontece quase certamente (q.c.) se a sua probabilidade é 1.

Novo!!: Medidas de dependência e Quase certamente · Veja mais »

Teoria da informação

A teoria matemática da informação estuda a quantificação, armazenamento e comunicação da informação.

Novo!!: Medidas de dependência e Teoria da informação · Veja mais »

Teoria das probabilidades

A teoria das probabilidades é o estudo matemático das probabilidades.

Novo!!: Medidas de dependência e Teoria das probabilidades · Veja mais »

Variável aleatória

Uma variável aleatória é uma variável quantitativa, cujo resultado (valor) depende de fatores aleatórios.

Novo!!: Medidas de dependência e Variável aleatória · Veja mais »

Redireciona aqui:

Medidas de Dependência.

CessanteEntrada
Ei! Agora estamos em Facebook! »