15 relações: Albert Einstein, Bit, Ciência da informação, Claude Shannon, Codificação de canal, Engenharia elétrica, Entropia, Entropia (desambiguação), Informação, Norbert Wiener, Sistema, Sociedade da informação, Teoria da informação, Termodinâmica, 1950.
Albert Einstein
Albert Einstein (Ulm, 14 de março de 1879 – Princeton, 18 de abril de 1955) foi um físico teórico alemão, que desenvolveu a teoria da relatividade geral, um dos pilares da física moderna ao lado da mecânica quântica.
Novo!!: Entropia da informação e Albert Einstein · Veja mais »
Bit
O bit (simplificação para dígito binário, em inglês, binary digit) é a menor unidade de informação que pode ser armazenada ou transmitida, usada na Computação e na Teoria da Informação.
Novo!!: Entropia da informação e Bit · Veja mais »
Ciência da informação
A ciência da informação é um campo interdisciplinar principalmente preocupado com a análise, coleta, classificação, manipulação, armazenamento, recuperação e disseminação da informação.
Novo!!: Entropia da informação e Ciência da informação · Veja mais »
Claude Shannon
Claude Elwood Shannon (—) foi um matemático, engenheiro eletrônico e criptógrafo estadunidense, conhecido como "o pai da teoria da informação".
Novo!!: Entropia da informação e Claude Shannon · Veja mais »
Codificação de canal
Em matemática, ciência da computação, telecomunicações, engenharia elétrica, estatística e teoria da informação, chama-se codificação de canal, ou detecção e correção de erros, à codificação de sinais de informação com o objetivo de diminuir a taxa de erro de símbolo e/ou de bit durante a transmissão dos mesmos através de um canal de comunicação.
Novo!!: Entropia da informação e Codificação de canal · Veja mais »
Engenharia elétrica
Engenharia elétrica é o ramo da engenharia que trabalha com os estudos e aplicações da eletricidade, eletromagnetismo e eletrônica.
Novo!!: Entropia da informação e Engenharia elétrica · Veja mais »
Entropia
Gelo derretendo: um exemplo clássico de aumento de entropia A entropia (do grego εντροπία, entropía), unidade (joules por kelvin), é uma grandeza termodinâmica que mede o grau de liberdade molecular de um sistema, e está associado ao seu número de configurações (ou microestados), ou seja, de quantas maneiras as partículas (átomos, íons ou moléculas) podem se distribuir em níveis energéticos quantizados, incluindo translacionais, vibracionais, rotacionais, e eletrônicos.
Novo!!: Entropia da informação e Entropia · Veja mais »
Entropia (desambiguação)
Entropia pode se referir a.
Novo!!: Entropia da informação e Entropia (desambiguação) · Veja mais »
Informação
Informação é um conhecimento inscrito (gravado) sob a forma escrita (impressa ou numérica), oral ou audiovisual.
Novo!!: Entropia da informação e Informação · Veja mais »
Norbert Wiener
Norbert Wiener (Columbia (Missouri), — Estocolmo) foi um matemático estadunidense, conhecido como o fundador da cibernética.
Novo!!: Entropia da informação e Norbert Wiener · Veja mais »
Sistema
Um sistema (do grego σύστημα systēma, através do latim systēma), é um conjunto de elementos interdependentes de modo a formar um todo organizado.
Novo!!: Entropia da informação e Sistema · Veja mais »
Sociedade da informação
A sociedade da informação surgiu no século XX no momento em que a tecnologia teve grandes avanços e diz respeito a nossa sociedade atual, onde a informação se tornou uma ferramenta de fácil acesso e essencial para o desenvolvimento pessoal e coletivo.
Novo!!: Entropia da informação e Sociedade da informação · Veja mais »
Teoria da informação
A teoria matemática da informação estuda a quantificação, armazenamento e comunicação da informação.
Novo!!: Entropia da informação e Teoria da informação · Veja mais »
Termodinâmica
A termodinâmica (do grego θερμη, therme, significa "calor" e δυναμις, dynamis, significa "potência") é o ramo da física que estuda as causas e os efeitos de mudanças na temperatura, pressão e volume — e de outras grandezas termodinâmicas fundamentais em casos menos gerais — em sistemas físicos em escala macroscópica.
Novo!!: Entropia da informação e Termodinâmica · Veja mais »
1950
----.
Novo!!: Entropia da informação e 1950 · Veja mais »