11 relações: Cópula (estatística), Coeficiente de correlação tau de Kendall, Correlação, Covariância, Estatística, Função monótona, Informação mútua, Quase certamente, Teoria da informação, Teoria das probabilidades, Variável aleatória.
Cópula (estatística)
Em estatística, uma função cópula é usada como método geral para formular distribuições multivariadas de maneira que diversos tipos gerais de dependência possam ser representados.
Novo!!: Medidas de dependência e Cópula (estatística) · Veja mais »
Coeficiente de correlação tau de Kendall
Em estatística, o coeficiente de correlação de postos de Kendall, comumente chamado de coeficiente tau de Kendall (devido à letra grega τ), é uma estatística usada para medir a correlação de postos entre duas quantidades medidas.
Novo!!: Medidas de dependência e Coeficiente de correlação tau de Kendall · Veja mais »
Correlação
Em probabilidade e estatística, correlação, dependência ou associação é qualquer relação estatística (causal ou não causal) entre duas variáveis e correlação é qualquer relação dentro de uma ampla classe de relações estatísticas que envolva dependência entre duas variáveis.
Novo!!: Medidas de dependência e Correlação · Veja mais »
Covariância
Em teoria da probabilidade e na estatística, a covariância, ou variância conjunta, é uma medida do grau de interdependência (ou inter-relação) numérica entre duas variáveis aleatóriasMILONE, Giuseppe.
Novo!!: Medidas de dependência e Covariância · Veja mais »
Estatística
Um exemplo de gráfico. Estatística é a ciência que utiliza as teorias probabilísticas para explicar a frequência da ocorrência de eventos, tanto em estudos observacionais quanto em experimentos para modelar a aleatoriedade e a incerteza de forma a estimar ou possibilitar a previsão de fenômenos futuros, conforme o caso.
Novo!!: Medidas de dependência e Estatística · Veja mais »
Função monótona
A função f(x).
Novo!!: Medidas de dependência e Função monótona · Veja mais »
Informação mútua
Diagrama mostrando as relações aditivas e subtrativas de várias medidas de informação associadas com as variaveis correlacionadas ''X'' e ''Y''. A área contida pelos dois círculos é a entropia conjunta Η(''X'',''Y''). O círculo na esquerda (vermelho e violeta) é a entropia individual H(''X''), sendo o círculo vermelho a entropia condicional Η(''X''|''Y''). O círculo na direita (azul e violeta) é H(''Y''), sendo o azul Η(''Y''|''X''). O círculo violeta é a informação mútua ''I''(''X'';''Y'') Em teoria das probabilidades e teoria da informação, a informação mútua (em inglês MI de:en:Mutual information) de duas variáveis aleatórias é a medida da dependência mútua entre as duas variáveis.
Novo!!: Medidas de dependência e Informação mútua · Veja mais »
Quase certamente
Na teoria das probabilidades, um evento acontece quase certamente (q.c.) se a sua probabilidade é 1.
Novo!!: Medidas de dependência e Quase certamente · Veja mais »
Teoria da informação
A teoria matemática da informação estuda a quantificação, armazenamento e comunicação da informação.
Novo!!: Medidas de dependência e Teoria da informação · Veja mais »
Teoria das probabilidades
A teoria das probabilidades é o estudo matemático das probabilidades.
Novo!!: Medidas de dependência e Teoria das probabilidades · Veja mais »
Variável aleatória
Uma variável aleatória é uma variável quantitativa, cujo resultado (valor) depende de fatores aleatórios.
Novo!!: Medidas de dependência e Variável aleatória · Veja mais »