Logotipo
Unionpédia
Comunicação
Disponível no Google Play
Novo! Faça o download do Unionpédia em seu dispositivo Android™!
Livre
Acesso mais rápido do que o navegador!
 

Capacidade de um canal

Índice Capacidade de um canal

Em engenharia elétrica, ciência da computação e teoria da informação, capacidade de canal é o limite superior da taxa na qual a informação pode ser transmitida de forma confiável através de um canal de comunicações.

37 relações: Bit rate, Canal (comunicação), Ciência da computação, Claude Shannon, Codificador, Decibel, Decodificador, Densidade espectral, Distribuição de probabilidade conjunta, Distribuição marginal, Eficiência espectral, Engenharia elétrica, Entropia da informação, Fading, Hertz, IEEE Transactions on Information Theory, Informação, Informação mútua, Largura de banda, Largura de barramento, Latência, Limitantes superiores e inferiores, Logaritmo, Logaritmo natural, Mimo, Nat (unidade), Receptor (comunicação), Redundância, Relação sinal-ruído, Ruído branco, Segunda Guerra Mundial, Supremo e ínfimo, Taxa de código, Teorema de Shannon–Hartley, Teoria da informação, Teoria dos grafos, Throughput.

Bit rate

Bit rate (as vezes escrito como bitrate) significa taxa ou fluxo de bits ou fluxo de transferência de bits.

Novo!!: Capacidade de um canal e Bit rate · Veja mais »

Canal (comunicação)

Em comunicação, canal (por vezes designado por canal de comunicação) designa o meio usado para transportar uma mensagem do emissor ao receptor.

Novo!!: Capacidade de um canal e Canal (comunicação) · Veja mais »

Ciência da computação

A Ciência da Computação lida com fundamentos teóricos da informação, computação, e técnicas práticas para suas implementações e aplicações.

Novo!!: Capacidade de um canal e Ciência da computação · Veja mais »

Claude Shannon

Claude Elwood Shannon (—) foi um matemático, engenheiro eletrônico e criptógrafo estadunidense, conhecido como "o pai da teoria da informação".

Novo!!: Capacidade de um canal e Claude Shannon · Veja mais »

Codificador

No contexto da informática, um codificador (também conhecido pelo termo inglês "encoder") é um software utilizado para codificar determinados arquivos/ficheiros (normalmente músicas ou vídeos) visando obter uma padronização e uma melhor qualidade e/ou menor tamanho para armazenamento.

Novo!!: Capacidade de um canal e Codificador · Veja mais »

Decibel

Exemplos de níveis sonoros, avaliados em decibel, de várias fontes sonoras e actividades (extraído da aplicação ''NIOSH Sound Level Meter'') O decibel (símbolo: dB) é uma unidade de medida relativa, adimensional, correspondente à décima parte de um bel (símbolo: B), que expressa o rácio de uma grandeza física (geralmente energia ou intensidade) em relação a um nível de referência especificado ou implícito, expressa numa escala logarítmica de base 10 (log10).

Novo!!: Capacidade de um canal e Decibel · Veja mais »

Decodificador

Um descodificador ou decodificador é um circuito combinatório, que tem o papel do inverso do codificador, isto é, converte um código binário de entrada (natural, BCD,...) de N bits de entrada em M linha de saída (em que N pode ser qualquer inteiro e M é um inteiro menor ou igual a 2N), de modo que cada linha de saída será ativada por uma única combinação das possíveis de entrada.

Novo!!: Capacidade de um canal e Decodificador · Veja mais »

Densidade espectral

Densidade espectral, ou power spectral density (PSD), ou energy spectral density (ESD); é uma função real positiva de uma frequência variável associada com um processo estocástico, ou uma função determinística do tempo, que possua dimensão de energia ou força por Hertz.

Novo!!: Capacidade de um canal e Densidade espectral · Veja mais »

Distribuição de probabilidade conjunta

No estudo de probabilidade, dado ao menos duas variáveis aleatórias X, Y,..., que são definidas em um espaço de probabilidade, a distribuição de probabilidade conjunta para X, Y,...

Novo!!: Capacidade de um canal e Distribuição de probabilidade conjunta · Veja mais »

Distribuição marginal

Em teoria das probabilidades e estatística, a distribuição marginal de um subconjunto de uma coleção de variáveis aleatórias é a distribuição de probabilidade das variáveis contidas no subconjunto.

Novo!!: Capacidade de um canal e Distribuição marginal · Veja mais »

Eficiência espectral

Eficiência espectral é uma medida da eficiência com que um dado sistema de comunicação usa a largura de banda de um canal.

Novo!!: Capacidade de um canal e Eficiência espectral · Veja mais »

Engenharia elétrica

Engenharia elétrica é o ramo da engenharia que trabalha com os estudos e aplicações da eletricidade, eletromagnetismo e eletrônica.

Novo!!: Capacidade de um canal e Engenharia elétrica · Veja mais »

Entropia da informação

Entropia, quando relacionada à termodinâmica, é a medida do grau de irreversibilidade de um determinado sistema.

Novo!!: Capacidade de um canal e Entropia da informação · Veja mais »

Fading

Em comunicação sem fio, fading é o desvio da atenuação que um sinal de telecomunicação de frequência modulada pelo portador experimenta sob certos meios de propagação.

Novo!!: Capacidade de um canal e Fading · Veja mais »

Hertz

O hertz (símbolo Hz) é a unidade de medida de frequência derivada do Sistema Internacional (SI), a qual expressa, em termos de ciclos por segundo, que descreve qualquer evento periódico, oscilações (vibrações) ou rotações por segundo (s−1 ou 1/s).

Novo!!: Capacidade de um canal e Hertz · Veja mais »

IEEE Transactions on Information Theory

A IEEE Transactions on Information Theory é uma revista científica, publicado pelo Instituto de Engenheiros Eletricistas e Eletrônicos (IEEE).

Novo!!: Capacidade de um canal e IEEE Transactions on Information Theory · Veja mais »

Informação

Informação é um conhecimento inscrito (gravado) sob a forma escrita (impressa ou numérica), oral ou audiovisual.

Novo!!: Capacidade de um canal e Informação · Veja mais »

Informação mútua

Diagrama mostrando as relações aditivas e subtrativas de várias medidas de informação associadas com as variaveis correlacionadas ''X'' e ''Y''. A área contida pelos dois círculos é a entropia conjunta Η(''X'',''Y''). O círculo na esquerda (vermelho e violeta) é a entropia individual H(''X''), sendo o círculo vermelho a entropia condicional Η(''X''|''Y''). O círculo na direita (azul e violeta) é H(''Y''), sendo o azul Η(''Y''|''X''). O círculo violeta é a informação mútua ''I''(''X'';''Y'') Em teoria das probabilidades e teoria da informação, a informação mútua (em inglês MI de:en:Mutual information) de duas variáveis aleatórias é a medida da dependência mútua entre as duas variáveis.

Novo!!: Capacidade de um canal e Informação mútua · Veja mais »

Largura de banda

A largura de banda é um conceito central em diversos campos de conhecimento, incluindo teoria da informação, rádio, processamento de sinais, eletrônica e espectroscopia.

Novo!!: Capacidade de um canal e Largura de banda · Veja mais »

Largura de barramento

Em telecomunicações, a largura da banda, largura de barramento ou apenas banda (também chamada de débito) usualmente se refere à bitrate de uma rede de transferência de dados, ou seja, a quantidade em bits/s que a rede suporta.

Novo!!: Capacidade de um canal e Largura de barramento · Veja mais »

Latência

Período de Latência é a diferença de tempo entre o início de um evento e o momento em que os seus efeitos se tornam perceptíveis.

Novo!!: Capacidade de um canal e Latência · Veja mais »

Limitantes superiores e inferiores

Em Matemática especialmente em Teoria da ordem, o limitante superior (cota superior em Análise Real) de um Subconjunto de um Conjunto parcialmente ordenado (K, ≤) é um elemento de K que é maior ou igual de cada elemento de S. O termo limitante inferior é definido dubiamente como um elemento de K que é menor ou igual de cada elemento de S. Um conjunto com o limite superior é dito limitado por cima por aquele limite, um conjunto com um limite inferior é dito limitado inferiormente para conjuntos que tem limites superior (respectivamente inferior). .

Novo!!: Capacidade de um canal e Limitantes superiores e inferiores · Veja mais »

Logaritmo

urlmorta.

Novo!!: Capacidade de um canal e Logaritmo · Veja mais »

Logaritmo natural

O gráfico do logaritmo natural. O logaritmo natural, também conhecido como logaritmo neperiano, é o logaritmo de base e, um número irracional aproximadamente igual a 2,71828.

Novo!!: Capacidade de um canal e Logaritmo natural · Veja mais »

Mimo

*Mime (teatro) - género teatral greco-romano.

Novo!!: Capacidade de um canal e Mimo · Veja mais »

Nat (unidade)

A unidade natural da informação (abreviada como nat, nit ou nepit) é unidade da informação ou entropia da informação, baseado nos logaritmos naturais e na exponenciação com a constante irracional ''e'' em vez de logaritmos binários que definem o bit.

Novo!!: Capacidade de um canal e Nat (unidade) · Veja mais »

Receptor (comunicação)

Receptor (comunicação) é um dos protagonistas do ato da comunicação: aquele a quem se dirige a mensagem, quem recebe a informação e a decodifica, isto é; transforma os impulsos físicos (sinais) em mensagem recuperada.

Novo!!: Capacidade de um canal e Receptor (comunicação) · Veja mais »

Redundância

* Pleonasmo.

Novo!!: Capacidade de um canal e Redundância · Veja mais »

Relação sinal-ruído

Relação sinal-ruído ou razão sinal-ruído (frequentemente abreviada por S/N ou SNR, do inglês, signal-to-noise ratio e RSR em português) é um conceito de telecomunicações, usado em diversos campos como ciência e engenharia que envolvem medidas de um sinal em meio ruidoso, definido como a razão da potência de um sinal e a potência do ruído sobreposto ao sinal, geralmente expressa em Decibel.

Novo!!: Capacidade de um canal e Relação sinal-ruído · Veja mais »

Ruído branco

Gráfico de um sinal de ruído branco gaussiano Em processamento de sinal, o ruído branco é um sinal aleatório com igual intensidade em diferentes frequências, o que lhe dá uma densidade espectral de potência constante.

Novo!!: Capacidade de um canal e Ruído branco · Veja mais »

Segunda Guerra Mundial

A Segunda Guerra Mundial foi um conflito militar global que durou de 1939 a 1945, envolvendo a maioria das nações do mundo — incluindo todas as grandes potências — organizadas em duas alianças militares opostas: os Aliados e o Eixo.

Novo!!: Capacidade de um canal e Segunda Guerra Mundial · Veja mais »

Supremo e ínfimo

Em matemática, definem-se os conceitos de majorante/cota superior, minorante/cota inferior, máximo, mínimo, supremo e ínfimo.

Novo!!: Capacidade de um canal e Supremo e ínfimo · Veja mais »

Taxa de código

Em telecomunicação e teoria da informação, a taxa de código (ou taxa de informação) de um código de correção adiantada de erros é a proporção do stream que é útil (não redundante).

Novo!!: Capacidade de um canal e Taxa de código · Veja mais »

Teorema de Shannon–Hartley

Na teoria da informação, o Teorema de Shannon–Hartley determina a taxa máxima na qual as informações podem ser transmitidas através de um canal de comunicação de uma determinada largura de banda na presença de ruído.

Novo!!: Capacidade de um canal e Teorema de Shannon–Hartley · Veja mais »

Teoria da informação

A teoria matemática da informação estuda a quantificação, armazenamento e comunicação da informação.

Novo!!: Capacidade de um canal e Teoria da informação · Veja mais »

Teoria dos grafos

Grafo com quatro vértices e 6 arestas. É um grafo completo, conexo e planar. A teoria dos grafos ou de grafos é um ramo da matemática que estuda as relações entre os objetos de um determinado conjunto.

Novo!!: Capacidade de um canal e Teoria dos grafos · Veja mais »

Throughput

Em redes de comunicação, como Ethernet ou packet radio, throughput, throughput de rede ou simplesmente taxa de transferência é a quantidade de dados transferidos de um lugar a outro, ou a quantidade de dados processados em um determinado espaço de tempo.

Novo!!: Capacidade de um canal e Throughput · Veja mais »

CessanteEntrada
Ei! Agora estamos em Facebook! »