Logotipo
Unionpédia
Comunicação
Disponível no Google Play
Novo! Faça o download do Unionpédia em seu dispositivo Android™!
Faça o download
Acesso mais rápido do que o navegador!
 

Teoria da informação

Índice Teoria da informação

A teoria matemática da informação estuda a quantificação, armazenamento e comunicação da informação.

168 relações: Abraham Lempel, Aleksandr Khinchin, Alfred Rényi, Algoritmo de memória externa, Análise de rede, Andrei Kolmogorov, Aprendiz indutivo de primeira ordem, Aprendizagem de árvore de decisão, És Tu, Brasil, Bioinformática, Bit, Broadcasting (rede de computadores), Cadeias estocásticas com memória de alcance variável, Canal binário simétrico, Canal de eliminação binária, Capacidade de um canal, Código de correção de erro, Chave (criptografia), Ciência, Ciência da computação, Ciência da computação teórica, Ciência da informação, Ciência da informação quântica, Ciência de sistemas, Ciências aplicadas, Ciências formais, Ciências humanas, Cibernética, Claude Shannon, Codificação, Codificação de canal, Codificação de Huffman, Cognitivismo (psicologia), Complexidade de Kolmogorov, Complexidade especificada, Compressão de dados, Computação científica, Comunicação, Conversão de padrões de televisão, Criptografia, Critério de informação de Akaike, Cronologia das descobertas científicas, Cronometria mental, CSPRNG, Cultura digital, Dados digitais, Dave Forney, David A. Huffman, Descrição de comprimento mínimo, Design inteligente, ..., Desigualdade de Kraft, Direito computacional, Distância de Hamming, Distância Levenshtein, Divergência de Kullback-leibler, Emissor, Engenharia de computação, Entropia cruzada, Entropia da informação, Escala logarítmica, Escola de Palo Alto, Escola Semiótica de Tartu-Moscou, Estrutura de dados sucinta, Física digital, Filosofia da ciência, Filosofia da informação, Fluxo de informação, Geometria diferencial, Ginestra Bianconi, Giuliano Toraldo di Francia, Harry Nyquist, Henry Landau, Hex (jogo), História da criptografia, História da entropia, História da termodinâmica, Hubert Yockey, IEEE Transactions on Information Theory, Inércia quantizada, Inferência estatística, Informação, Informação mútua, Informação teoricamente segura, Informática, Inteligência artificial, Jacob Ziv, John Larry Kelly, Joseph Kampé de Fériet, Karl Steinbuch, Katalin Marton, Kazimierz Urbanik, Kees Schouhamer Immink, Konrad Jacobs, Largura de banda, Lei de Hick, Lista de pessoas consideradas pai ou mãe de um campo científico, Logaritmo, Logaritmo binário, Marcel-Paul Schützenberger, Matemática, Matemática aplicada, Matemática discreta, Máquina molecular, Máxima entropia, Medidas de dependência, Mineração de Opinião, Modulação por divisão ortogonal de frequência, Morte, Morte teórica de informação, MPEG-1, N-grama, Número de Shannon, Obra Aberta, Ordenação por comparação, Paradoxo EPR, Perplexidade, Petabit, Peter Elias, Peter Zoller, Prêmio Claude E. Shannon, Probabilidade, Probabilidade indutiva, Processamento de linguagem natural, Processamento digital de sinais, Pseudoaleatoriedade, Ralph Hartley, Rede de fluxo, Rede Neural, Rede neural artificial, Repertório, Restrição (teoria da informação), Robert Fano, Robert Gray Gallager, Robert McEliece, Ronald Fisher, Ruído, Sergio Verdú, Shlomo Shamai, Sistema físico, Sistema linear invariante no tempo, Sistemas complexos, Sistemas de Processamento de Informações Neurais, Subaditividade, Superioridade ilusória, Tamanho da chave, Taxa de código, Teorema da amostragem de Nyquist–Shannon, Teorema de Sanov, Teorema de Shannon–Hartley, Teoria algorítmica da informação, Teoria da aprendizagem computacional, Teoria da informação quântica, Teoria geral de sistemas, Termodinâmica estatística, Thomas Kailath, Timsort, Transmissão de dados, Turing completude, Universidade de Dakota do Norte, Vantagem do primeiro movimento no xadrez, Viés cognitivo, Vladimir Kotelnikov, Warren Weaver, Werner Meyer-Eppler, Wojciech Zurek, Yin-yang na medicina tradicional chinesa, Yuri Linnik, 1948 na ciência. Expandir índice (118 mais) »

Abraham Lempel

Abraham Lempel (Lviv, – 5 de fevereiro de 2023) foi um cientista da computação israelense nascido na Polônia.

Novo!!: Teoria da informação e Abraham Lempel · Veja mais »

Aleksandr Khinchin

Aleksandr Yakovlevich Khinchin (Алекса́ндр Я́ковлевич Хи́нчин, Alexandre Khintchine; Kondrovo, —) foi um matemático russo e um dos cientistas soviéticos mais importantes na escola da teoria das probabilidades.

Novo!!: Teoria da informação e Aleksandr Khinchin · Veja mais »

Alfred Rényi

Alfréd Rényi (Budapeste, – Budapeste) foi um matemático húngaro com contribuições nos campos da combinatória, teoria dos grafos, teoria dos números mas principalmente na teoria das probabilidades.

Novo!!: Teoria da informação e Alfred Rényi · Veja mais »

Algoritmo de memória externa

Na computação, os algoritmos de memória externa ou algoritmos fora do núcleo são algoritmos projetados para processar dados que são grandes demais para caber na memória principal de um computador de uma só vez.

Novo!!: Teoria da informação e Algoritmo de memória externa · Veja mais »

Análise de rede

A análise de redes é a área de tecnologia da informação e das ciências sociais que trata do processo de analisar qualquer tipo de rede por meio da teoria das redes.

Novo!!: Teoria da informação e Análise de rede · Veja mais »

Andrei Kolmogorov

Andrei Nikolaevich Kolmogorov (Андрей Николаевич Колмогоров; Tambov, — Moscou) foi um matemático soviético, que fez contribuições significativas em teoria das probabilidades, topologia, lógica intuicionista, turbulência, mecânica clássica, Teoria Algorítmica da Informação e análise de algoritmos.

Novo!!: Teoria da informação e Andrei Kolmogorov · Veja mais »

Aprendiz indutivo de primeira ordem

No aprendizado de máquina, o Aprendiz Indutivo de Primeira Ordem (AIPO) é um algoritmo de aprendizado baseado em regras.

Novo!!: Teoria da informação e Aprendiz indutivo de primeira ordem · Veja mais »

Aprendizagem de árvore de decisão

O aprendizado de árvore de decisão ou indução de árvores de decisão é uma das abordagens de modelagem preditiva usadas em estatística, mineração de dados e aprendizado de máquina.

Novo!!: Teoria da informação e Aprendizagem de árvore de decisão · Veja mais »

És Tu, Brasil

És tu, Brasil é um documentário brasileiro de 2003, dirigido por Murilo Salles.

Novo!!: Teoria da informação e És Tu, Brasil · Veja mais »

Bioinformática

Mapa do cromossomo X humano (a partir do site NCBI). O mapeamento do genoma humano é uma das maiores conquistas da bioinformática Bioinformática é um campo interdisciplinar que corresponde à aplicação das técnicas da informática, no sentido de análise da informação, nas áreas de estudo da biologia.

Novo!!: Teoria da informação e Bioinformática · Veja mais »

Bit

O bit (simplificação para dígito binário, em inglês, binary digit) é a menor unidade de informação que pode ser armazenada ou transmitida, usada na Computação e na Teoria da Informação.

Novo!!: Teoria da informação e Bit · Veja mais »

Broadcasting (rede de computadores)

250px Em telecomunicações e teoria da informação, broadcasting (do inglês to broadcast, "transmitir") é um método de transferência de mensagem para todos os receptores simultaneamente.

Novo!!: Teoria da informação e Broadcasting (rede de computadores) · Veja mais »

Cadeias estocásticas com memória de alcance variável

Cadeias estocásticas com memória de alcance variável constituem uma família de cadeias estocásticas de ordem finita em um alfabeto finito.

Novo!!: Teoria da informação e Cadeias estocásticas com memória de alcance variável · Veja mais »

Canal binário simétrico

O canal binário simétrico (ou BSC) é um modelo de canal de comunicações, estudado no contexto de teoria de códigos, comunicações e teoria da informação.

Novo!!: Teoria da informação e Canal binário simétrico · Veja mais »

Canal de eliminação binária

Em teoria da codificação e teoria da informação, um canal de eliminação binária (BEC) é um modelo de canal de comunicação.

Novo!!: Teoria da informação e Canal de eliminação binária · Veja mais »

Capacidade de um canal

Em engenharia elétrica, ciência da computação e teoria da informação, capacidade de canal é o limite superior da taxa na qual a informação pode ser transmitida de forma confiável através de um canal de comunicações.

Novo!!: Teoria da informação e Capacidade de um canal · Veja mais »

Código de correção de erro

Em computação, telecomunicações, teoria da informação e teoria de codificação, um código de correção de erro (CCE), em inglês error correction code (ECC), é usado para controlar erros em dados em canais de comunicação não confiáveis ​​ou ruidosos.

Novo!!: Teoria da informação e Código de correção de erro · Veja mais »

Chave (criptografia)

Uma chave é um pedaço de informação que controla a operação de um algoritmo de criptografia.

Novo!!: Teoria da informação e Chave (criptografia) · Veja mais »

Ciência

Ciência (do latim scientia, traduzido por "conhecimento") refere-se a qualquer conhecimento ou prática sistemáticos.

Novo!!: Teoria da informação e Ciência · Veja mais »

Ciência da computação

A Ciência da Computação lida com fundamentos teóricos da informação, computação, e técnicas práticas para suas implementações e aplicações.

Novo!!: Teoria da informação e Ciência da computação · Veja mais »

Ciência da computação teórica

Ciência da computação teórica (TCS) ou informática teórica é uma divisão ou subconjunto de ciências da computação e matemática que incide sobre os aspectos mais abstratos ou matemáticos da computação e inclui a teoria da computação.

Novo!!: Teoria da informação e Ciência da computação teórica · Veja mais »

Ciência da informação

A ciência da informação é um campo interdisciplinar principalmente preocupado com a análise, coleta, classificação, manipulação, armazenamento, recuperação e disseminação da informação.

Novo!!: Teoria da informação e Ciência da informação · Veja mais »

Ciência da informação quântica

A ciência da informação quântica é um campo interdisciplinar que busca entender a análise, processamento e transmissão de informações usando princípios da mecânica quântica.

Novo!!: Teoria da informação e Ciência da informação quântica · Veja mais »

Ciência de sistemas

A ciência de sistemas é um campo interdisciplinar preocupado com a compreensão de sistemas - dos simples aos complexos - na natureza, sociedade, cognição, engenharia, tecnologia e na própria ciência.

Novo!!: Teoria da informação e Ciência de sistemas · Veja mais »

Ciências aplicadas

As ciências aplicadas são os ramos das ciências que visam às aplicações do conhecimento para a solução de problemas práticos.

Novo!!: Teoria da informação e Ciências aplicadas · Veja mais »

Ciências formais

As ciências formais são os ramos da ciência que estudam os sistemas formais, como por exemplo, a lógica, matemática, teoria dos sistemas e os aspectos teóricos da ciência computacional, teoria da informação, microeconomia, teoria da decisão, estatística e linguística.

Novo!!: Teoria da informação e Ciências formais · Veja mais »

Ciências humanas

As ciências humanas são disciplinas do conhecimento criteriosamente organizados da produção criativa humana.

Novo!!: Teoria da informação e Ciências humanas · Veja mais »

Cibernética

A cibernética é o estudo interdisciplinar da estrutura dos sistemas reguladores, suas estruturas, restrições e possibilidades.

Novo!!: Teoria da informação e Cibernética · Veja mais »

Claude Shannon

Claude Elwood Shannon (—) foi um matemático, engenheiro eletrônico e criptógrafo estadunidense, conhecido como "o pai da teoria da informação".

Novo!!: Teoria da informação e Claude Shannon · Veja mais »

Codificação

Em processamento digital de sinais, Codificação é a modificação de chave de um sinal para torná-lo mais apropriado para uma aplicação específica, como por exemplo transmissão ou armazenamento de dados.

Novo!!: Teoria da informação e Codificação · Veja mais »

Codificação de canal

Em matemática, ciência da computação, telecomunicações, engenharia elétrica, estatística e teoria da informação, chama-se codificação de canal, ou detecção e correção de erros, à codificação de sinais de informação com o objetivo de diminuir a taxa de erro de símbolo e/ou de bit durante a transmissão dos mesmos através de um canal de comunicação.

Novo!!: Teoria da informação e Codificação de canal · Veja mais »

Codificação de Huffman

A codificação de Huffman é um método de compressão que usa as probabilidades de ocorrência dos símbolos no conjunto de dados a ser comprimido para determinar códigos de tamanho variável para cada símbolo.

Novo!!: Teoria da informação e Codificação de Huffman · Veja mais »

Cognitivismo (psicologia)

Em psicologia, cognitivismo é uma abordagem teórica para o entendimento da mente.

Novo!!: Teoria da informação e Cognitivismo (psicologia) · Veja mais »

Complexidade de Kolmogorov

A complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade, profunda e sofisticada, que trata da quantidade de informação de objetos individuais, medida através do tamanho de sua menor descrição algorítmica.

Novo!!: Teoria da informação e Complexidade de Kolmogorov · Veja mais »

Complexidade especificada

A complexidade especificada é um argumento proposto por William Dembski e usado por ele e outros para promover a pseudociência do design inteligente.

Novo!!: Teoria da informação e Complexidade especificada · Veja mais »

Compressão de dados

A compressão de dados é o ato de reduzir o espaço ocupado por dados num determinado dispositivo.

Novo!!: Teoria da informação e Compressão de dados · Veja mais »

Computação científica

A ciência computacional, também conhecida como computação científica, é um campo de rápido crescimento que usa recursos de computação avançados para entender e resolver problemas complexos.

Novo!!: Teoria da informação e Computação científica · Veja mais »

Comunicação

A comunicação (do latim communicatio.onis, que significa "ação de participar") é um processo que envolve a troca de informações entre dois ou mais interlocutores por meio de signos e regras semióticas mutuamente entendíveis.

Novo!!: Teoria da informação e Comunicação · Veja mais »

Conversão de padrões de televisão

A conversão de padrões de televisão é o processo efetuado para alterar um tipo de sistema de televisão para outro.

Novo!!: Teoria da informação e Conversão de padrões de televisão · Veja mais »

Criptografia

Enigma, uma máquina utilizada na cifragem e decifragem de mensagens criptografadas. chave é utilizada para cifrar e decifrar. Criptografia (kryptós, "escondido", e gráphein, "escrita") é uma área da criptologia que estuda e pratica princípios e técnicas para comunicação segura na presença de terceiros, chamados "adversários".

Novo!!: Teoria da informação e Criptografia · Veja mais »

Critério de informação de Akaike

O critério de informação de Akaike (AIC) é uma métrica que mensura a qualidade de um modelo estatístico visando também a sua simplicidade.

Novo!!: Teoria da informação e Critério de informação de Akaike · Veja mais »

Cronologia das descobertas científicas

A linha do tempo a seguir mostra a data de publicação das principais teorias e descobertas científicas, assim como quem fez a descoberta.

Novo!!: Teoria da informação e Cronologia das descobertas científicas · Veja mais »

Cronometria mental

Cronometria mental é o estudo do tempo de reação (TR; também conhecido como "tempo de resposta") em tarefas motoras perceptivas para inferir o conteúdo, a duração e o sequenciamento temporal das operações mentais.

Novo!!: Teoria da informação e Cronometria mental · Veja mais »

CSPRNG

Um gerador de número pseudo-aleatório criptograficamente seguro (CSPRNG, na sigla em inglês) ou gerador de números pseudoaleatórios criptográfico (CPRNG, na sigla em inglês) é um gerador de números pseudoaleatórios (PRNG) com propriedades que o torna adequado para o uso na criptografia.

Novo!!: Teoria da informação e CSPRNG · Veja mais »

Cultura digital

''Microprocessador'' Intel 80486DX2 (1992). Foram vários os momentos que, ao longo da história, determinaram uma série de infraestruturas da comunicação e do ciberespaço que marcaram diferentes etapas até à contemporaneidade.

Novo!!: Teoria da informação e Cultura digital · Veja mais »

Dados digitais

Relógio digital. O tempo mostrado pelos dígitos no rosto em qualquer instante é um dado digital. O tempo preciso real é um dado analógico Dados digitais, na teoria da informação e nos sistemas de informação, são informações representadas como uma cadeia de símbolos discretos, cada um dos quais pode assumir um de apenas um número finito de valores de algum alfabeto, como letras ou dígitos.

Novo!!: Teoria da informação e Dados digitais · Veja mais »

Dave Forney

George David "Dave" Forney, Jr. (Nova Iorque) é um engenheiro eletricista estadunidense.

Novo!!: Teoria da informação e Dave Forney · Veja mais »

David A. Huffman

David Albert Huffman (9 de agosto de 1925 — Santa Cruz, 7 de outubro de 1999) foi um pioneiro no campo da ciência da computação.

Novo!!: Teoria da informação e David A. Huffman · Veja mais »

Descrição de comprimento mínimo

O Princípio da descrição de comprimento mínimo (DCM) é uma formalização da Navalha de Occam na qual a melhor hipótese para um dado conjunto de dados é a que leva a máxima compressão dos mesmos.

Novo!!: Teoria da informação e Descrição de comprimento mínimo · Veja mais »

Design inteligente

O desenho inteligente, design inteligente ou projeto inteligente (em inglês Intelligent Design) é uma hipótese pseudocientífica, Article available from baseada na assertiva de que certas características do universo e dos seres vivos são mais bem explicadas por uma causa inteligente, e não por um processo não-direcionado (e não estocástico) como a seleção natural; e que é possível a inferência inequívoca de projeto sem que se façam necessários conhecimentos sobre o projetista, seus objetivos ou sobre os métodos por esse empregados na execução do projeto.

Novo!!: Teoria da informação e Design inteligente · Veja mais »

Desigualdade de Kraft

A Desigualdade de Kraft é um importante teorema da Teoria de Códigos e Teoria da Informação usado para verificar se um código é livre de prefixo, ou seja, se todas as palavras-código são folhas na representação em árvore.

Novo!!: Teoria da informação e Desigualdade de Kraft · Veja mais »

Direito computacional

O direito computacional é a área da informática legal que trata da automatização do raciocínio legal.

Novo!!: Teoria da informação e Direito computacional · Veja mais »

Distância de Hamming

Na teoria da informação, a distância de Hamming entre duas strings de mesmo comprimento é o número de posições nas quais elas diferem entre si.

Novo!!: Teoria da informação e Distância de Hamming · Veja mais »

Distância Levenshtein

Em teoria da informação, a distância Levenshtein ou distância de edição entre dois "strings" (duas sequências de caracteres) é dada pelo número mínimo de operações necessárias para transformar um string no outro.

Novo!!: Teoria da informação e Distância Levenshtein · Veja mais »

Divergência de Kullback-leibler

A divergência de Kullback-Leibler (também chamada de entropia relativa) é uma medida não-simétrica da diferença entre duas distribuições de probabilidade.

Novo!!: Teoria da informação e Divergência de Kullback-leibler · Veja mais »

Emissor

Um emissor, remetente ou fonte é um dos conceitos básicos de comunicação e processamento de informações.

Novo!!: Teoria da informação e Emissor · Veja mais »

Engenharia de computação

A Engenharia de Computação é um curso que integra conhecimentos das áreas da Ciência da Computação e da Engenharia Eletrônica necessários para desenvolver hardware e software.

Novo!!: Teoria da informação e Engenharia de computação · Veja mais »

Entropia cruzada

Na teoria da informação, a entropia cruzada se refere à diferença entre duas distribuições de probabilidade p (verdadeira) e q (estimada) sobre o mesmo conjunto de eventos.

Novo!!: Teoria da informação e Entropia cruzada · Veja mais »

Entropia da informação

Entropia, quando relacionada à termodinâmica, é a medida do grau de irreversibilidade de um determinado sistema.

Novo!!: Teoria da informação e Entropia da informação · Veja mais »

Escala logarítmica

Uma escala logarítmica é uma escala que usa o logaritmo de uma grandeza em vez da grandeza propriamente dita.

Novo!!: Teoria da informação e Escala logarítmica · Veja mais »

Escola de Palo Alto

A Escola de Palo Alto é uma corrente de pensamento e pesquisa que tomou o nome da cidade de Palo Alto, na Califórnia, a partir do início dos anos 1950.

Novo!!: Teoria da informação e Escola de Palo Alto · Veja mais »

Escola Semiótica de Tartu-Moscou

A Escola de Semiótica Tartu-Moscou (ESTM) é uma corrente filosófica dentro do campo da Semiótica, constituída por acadêmicos como Juri Lotman, Boris Uspenskii, Vyacheslav Ivanov, Vladimir Toporov, Alexander Piatigorsky, Isaak I. Revzin, Mikhail Gasparov, Juri Levin, and others.

Novo!!: Teoria da informação e Escola Semiótica de Tartu-Moscou · Veja mais »

Estrutura de dados sucinta

Em ciência da computação, uma estrutura de dados sucinta é uma estrutura de dados que usa uma quantidade de espaço que é "próxima" ao mínimo espaço teórico de informação, mas que, ao contrário de outras representações comprimidas, permite operações de consulta eficientes.

Novo!!: Teoria da informação e Estrutura de dados sucinta · Veja mais »

Física digital

Em física e cosmologia, a física digital (também denominada ontologia digital ou filosofia digital) é uma coleção de perspetivas teóricas baseadas na premisa de que o universo é fundamentalmente descritível por informação.

Novo!!: Teoria da informação e Física digital · Veja mais »

Filosofia da ciência

Filosofia da ciência (do grego Φιλοσοφία της Επιστήμης/Filosofía tes Epistémes) é o campo da pesquisa filosófica que estuda os fundamentos, pressupostos e implicações filosóficas da ciência, incluindo as ciências naturais como física e biologia, e as ciências sociais, como psicologia e economia.

Novo!!: Teoria da informação e Filosofia da ciência · Veja mais »

Filosofia da informação

A Filosofia da Informação, abreviado para (PI) philosophy of information inglês ou (FI) em português) é um campo da pesquisa filosófica voltado para a investigação crítica da estrutura conceitual e dos princípios básicos da informação e ainda da elaboração e aplicação da teoria da informação e das metodologias computacionais aos problemas filosóficos, segundo definição do filósofo italiano Luciano Floridi, mas é também objeto de estudos da Ciência da Informação.

Novo!!: Teoria da informação e Filosofia da informação · Veja mais »

Fluxo de informação

O conceito de Fluxo de Informação é utilizado por três campos diferentes de conhecimento: a Semiótica, que considera a influência dos fluxos na construção do discurso; a Teoria da Informação, fortemente influenciada por modelos matemáticos e de informática; e a Teoria da Comunicação, que identifica tais fluxos com a organização geopolítica e geocultural do mundo.

Novo!!: Teoria da informação e Fluxo de informação · Veja mais »

Geometria diferencial

Geometria diferencial é o estudo da geometria usando o cálculo.

Novo!!: Teoria da informação e Geometria diferencial · Veja mais »

Ginestra Bianconi

Ginestra Bianconi é uma físico-matemática italiana, conhecida por seus trabalhos na mecânica estatística e em teoria das redes, em especial o desenvolvimento do modelo Bianconi-Barabasi que possui a propriedade do condensado de Bose-Einstein.

Novo!!: Teoria da informação e Ginestra Bianconi · Veja mais »

Giuliano Toraldo di Francia

Giuliano Toraldo di Francia (Florença, – Florença) foi um físico e filósofo italiano.

Novo!!: Teoria da informação e Giuliano Toraldo di Francia · Veja mais »

Harry Nyquist

Harry Nyquist, nascido Harry Theodor Nyqvist (7 de fevereiro de 1889 — Harlingen, 4 de abril de 1976) foi um engenheiro eletrônico nascido na Suécia, teórico da informação, de nacionalidade estadunidense.

Novo!!: Teoria da informação e Harry Nyquist · Veja mais »

Henry Landau

Henry Jacob Landau é um matemático estadunidense, conhecido por suas contribuições à teoria da informação.

Novo!!: Teoria da informação e Henry Landau · Veja mais »

Hex (jogo)

Hex é um jogo de tabuleiro jogado em uma grade hexagonal, teoricamente de qualquer tamanho e diversas formas possíveis, mas tradicionalmente como um losango 11x11.

Novo!!: Teoria da informação e Hex (jogo) · Veja mais »

História da criptografia

A história da criptografia começa há milhares de anos.

Novo!!: Teoria da informação e História da criptografia · Veja mais »

História da entropia

O conceito de entropia se desenvolveu em resposta à observação de que uma certa quantidade de energia funcional liberada das reações de combustão é sempre perdida por dissipação ou atrito e, portanto, não é transformada em trabalho útil.

Novo!!: Teoria da informação e História da entropia · Veja mais »

História da termodinâmica

Motor de Savery" de 1698 – a primeira máquina a vapor com utilidade comercial foi construída por Thomas Savery A história da termodinâmica é um ramo fundamental da história da física, da história da química e da história da ciência em geral e teve início no começo do século XIX.

Novo!!: Teoria da informação e História da termodinâmica · Veja mais »

Hubert Yockey

Hubert P. Yockey (-) foi um físico e teorista da informação estadunidense.

Novo!!: Teoria da informação e Hubert Yockey · Veja mais »

IEEE Transactions on Information Theory

A IEEE Transactions on Information Theory é uma revista científica, publicado pelo Instituto de Engenheiros Eletricistas e Eletrônicos (IEEE).

Novo!!: Teoria da informação e IEEE Transactions on Information Theory · Veja mais »

Inércia quantizada

Inércia Quantizada (IQ), a princípio conhecida como Inércia Modificada por um efeito Casimir em escala Hubble, é uma hipótese sobre a origem da inércia.

Novo!!: Teoria da informação e Inércia quantizada · Veja mais »

Inferência estatística

Inferência estatística é um ramo da Estatística cujo objetivo é fazer afirmações a partir de um conjunto de valores representativo (amostra) sobre um universo (população), assume-se que a população é muito maior do que o conjunto de dados observados, a amostra.

Novo!!: Teoria da informação e Inferência estatística · Veja mais »

Informação

Informação é um conhecimento inscrito (gravado) sob a forma escrita (impressa ou numérica), oral ou audiovisual.

Novo!!: Teoria da informação e Informação · Veja mais »

Informação mútua

Diagrama mostrando as relações aditivas e subtrativas de várias medidas de informação associadas com as variaveis correlacionadas ''X'' e ''Y''. A área contida pelos dois círculos é a entropia conjunta Η(''X'',''Y''). O círculo na esquerda (vermelho e violeta) é a entropia individual H(''X''), sendo o círculo vermelho a entropia condicional Η(''X''|''Y''). O círculo na direita (azul e violeta) é H(''Y''), sendo o azul Η(''Y''|''X''). O círculo violeta é a informação mútua ''I''(''X'';''Y'') Em teoria das probabilidades e teoria da informação, a informação mútua (em inglês MI de:en:Mutual information) de duas variáveis aleatórias é a medida da dependência mútua entre as duas variáveis.

Novo!!: Teoria da informação e Informação mútua · Veja mais »

Informação teoricamente segura

Um sistema criptográfico é informação-teoricamente seguro se a sua segurança deriva puramente da teoria da informação.

Novo!!: Teoria da informação e Informação teoricamente segura · Veja mais »

Informática

Informática (do frances: "informatique", do alemã "informatik"; composição: "informação" e "automática") é um termo usado para descrever o conjunto das ciências relacionadas à coleta, armazenamento, transmissão e processamento de informações nos meios digitais, estando incluídas neste grupo: a ciência da computação, os sistemas de informação, a teoria da informação, o processo de cálculo, a análise numérica e, os métodos teóricos da representação dos conhecimentos e da modelagem dos problemas.

Novo!!: Teoria da informação e Informática · Veja mais »

Inteligência artificial

Inteligência artificial (de sigla: IA; do inglês: artificial intelligence, de sigla: AI) é um campo de estudo multidisciplinar que abrange varias áreas do conhecimento.

Novo!!: Teoria da informação e Inteligência artificial · Veja mais »

Jacob Ziv

Jacob Ziv (יעקב זיו, também Yaakov Ziv; Tiberíades, – 25 de março de 2023) foi um engenheiro eletricista israelense.

Novo!!: Teoria da informação e Jacob Ziv · Veja mais »

John Larry Kelly

John Larry Kelly, Jr. (Corsicana, 1923 — 1965) foi um físico estadunidense.

Novo!!: Teoria da informação e John Larry Kelly · Veja mais »

Joseph Kampé de Fériet

Marie-Joseph Kampé de Fériet (Paris, — Villeneuve-d'Ascq) foi um matemático francês.

Novo!!: Teoria da informação e Joseph Kampé de Fériet · Veja mais »

Karl Steinbuch

Dr.

Novo!!: Teoria da informação e Karl Steinbuch · Veja mais »

Katalin Marton

Katalin Marton (Budapeste, –) foi uma matemática húngara.

Novo!!: Teoria da informação e Katalin Marton · Veja mais »

Kazimierz Urbanik

Kazimierz Urbanik (Kremenets, 5 de fevereiro de 1930 — Wrocław, 29 de maio de 2005) foi um matemático polonês.

Novo!!: Teoria da informação e Kazimierz Urbanik · Veja mais »

Kees Schouhamer Immink

Kornelis Antonie (Kees) Schouhamer Immink (Roterdã) é um engenheiro eletricista e inventor neerlandês.

Novo!!: Teoria da informação e Kees Schouhamer Immink · Veja mais »

Konrad Jacobs

Konrad Jacobs (Rostock, –) foi um matemático alemão.

Novo!!: Teoria da informação e Konrad Jacobs · Veja mais »

Largura de banda

A largura de banda é um conceito central em diversos campos de conhecimento, incluindo teoria da informação, rádio, processamento de sinais, eletrônica e espectroscopia.

Novo!!: Teoria da informação e Largura de banda · Veja mais »

Lei de Hick

A lei de Hick ou lei de Hick–Hyman, formulada por William Edmund Hick e Ray Hyman, descreve o tempo que uma pessoa leva para tomar uma decisão com base no número de opções possíveis a serem escolhidas: aumentar o número de opções vai aumentar o tempo de decisão logaritmicamente.

Novo!!: Teoria da informação e Lei de Hick · Veja mais »

Lista de pessoas consideradas pai ou mãe de um campo científico

Esta é uma lista de pessoas consideradas um "pai" ou "mãe" (ou "pai fundador" ou "mãe fundadora") de um campo científico.

Novo!!: Teoria da informação e Lista de pessoas consideradas pai ou mãe de um campo científico · Veja mais »

Logaritmo

urlmorta.

Novo!!: Teoria da informação e Logaritmo · Veja mais »

Logaritmo binário

Na matemática, logaritmo binário (log2 n) é o logaritmo de base 2.

Novo!!: Teoria da informação e Logaritmo binário · Veja mais »

Marcel-Paul Schützenberger

Marcel-Paul "Marco" Schützenberger (24 de outubro de 1920 – 29 de julho de 1996) foi um matemático e Doutor em medicina francês.

Novo!!: Teoria da informação e Marcel-Paul Schützenberger · Veja mais »

Matemática

problemas matemáticos Matemática (dos termos gregos: μάθημα, transliterado máthēma, 'ciência', conhecimento' ou 'aprendizagem; e μαθηματικός, transliterado mathēmatikós, 'inclinado a aprender') é a ciência do raciocínio lógico e abstrato, que estuda quantidades (teoria dos números), espaço e medidas (geometria), estruturas, variações e estatística.

Novo!!: Teoria da informação e Matemática · Veja mais »

Matemática aplicada

Soluções eficientes para o problema de roteamento de veículos (usado para diminuir os congestionamentos, entre outros...) requerem ferramental da otimização combinatória e programação inteira A matemática aplicada é uma área da matemática no qual se trata da aplicação do conhecimento matemático a outros domínios.

Novo!!: Teoria da informação e Matemática aplicada · Veja mais »

Matemática discreta

propriedades matemáticas, a sua utilidade como modelos de problemas do mundo real, e sua importância no desenvolvimento de algoritmos computacionais. Matemática discreta, também chamada matemática finita, é o estudo das estruturas algébricas que são fundamentalmente discretas, em vez de contínuas.

Novo!!: Teoria da informação e Matemática discreta · Veja mais »

Máquina molecular

Uma máquina molecular, ou nanomáquina, é uma entidade com um número discreto de componentes em escala molecular ligados por ligações químicas, interações intermoleculares ou ligações mecânicas, que podem desempenhar movimentos mecânicos em resposta a um ou mais estímulos específicos.

Novo!!: Teoria da informação e Máquina molecular · Veja mais »

Máxima entropia

O desenvolvimento do método da máxima entropia (ME) ocorreu através de duas linhas de pesquisa: inferência estatística (Bernoulli, Bayes, Laplace, Jeffreys, Cox) e modelagem estatística de problemas em mecânica, física e de informação (Maxwell, Boltzmann, Gibbs, Shannon).

Novo!!: Teoria da informação e Máxima entropia · Veja mais »

Medidas de dependência

Uma medida de dependência é um parâmetro associado a um par de variáveis aleatórias que codifica em seu valor a intensidade da dependência estatística entre as variáveis.

Novo!!: Teoria da informação e Medidas de dependência · Veja mais »

Mineração de Opinião

A Web produz e divulga informações de vital importância para o mercado financeiro.

Novo!!: Teoria da informação e Mineração de Opinião · Veja mais »

Modulação por divisão ortogonal de frequência

Nas Telecomunicações a modulação por divisão ortogonal de frequência, em inglês Orthogonal Frequency Division Multiplexing (OFDM), consiste em um esquema de modulação digital que codifica a informação em múltiplas portadoras.

Novo!!: Teoria da informação e Modulação por divisão ortogonal de frequência · Veja mais »

Morte

Morte (do termo latino mors), óbito (do termo latino obitu), falecimento (falecer+mento), passamento (passar+mento), ou ainda desencarne (deixar a carne), são sinônimos usados para se referir ao processo irreversível de cessamento das atividades biológicas necessárias à caracterização e manutenção da vida em um sistema orgânico.

Novo!!: Teoria da informação e Morte · Veja mais »

Morte teórica de informação

Morte teórica de informação é a destruição da informação contida dentro de um cérebro humano (ou qualquer estrutura cognitiva capaz de constituir uma pessoa) a tal ponto que a recuperação da pessoa original é teoricamente impossível, por qualquer meio físico.

Novo!!: Teoria da informação e Morte teórica de informação · Veja mais »

MPEG-1

MPEG-1 é um padrão para compactação com perdas de vídeo e áudio.

Novo!!: Teoria da informação e MPEG-1 · Veja mais »

N-grama

Nos campos de linguística computacional e probabilidade, um n-grama é uma sequência contígua de n itens de uma determinada amostra de texto ou fala.

Novo!!: Teoria da informação e N-grama · Veja mais »

Número de Shannon

Número de Shannon (10120) é uma estimativa da complexidade de jogo do xadrez.

Novo!!: Teoria da informação e Número de Shannon · Veja mais »

Obra Aberta

Obra aberta é um livro escrito por Umberto Eco, que reúne uma coletânea de ensaios a respeito das formas de indeterminação das poéticas contemporâneas, tanto em literatura, como em artes plásticas e música.

Novo!!: Teoria da informação e Obra Aberta · Veja mais »

Ordenação por comparação

Um algoritmo de comparação é um tipo de algoritmo de ordenação que lê apenas os elementos da lista através de uma operação de comparação abstrata única (muitas vezes um operador "menor ou igual a"), que determina qual dos dois elementos devem ocorrer em primeiro lugar na lista final de classificação.

Novo!!: Teoria da informação e Ordenação por comparação · Veja mais »

Paradoxo EPR

estado emaranhado na mecânica quântica. Assumindo-se uma postura realista, não espera-se que luz atravessasse os três polarizadores. Entretanto a experiência fornece resultado contraditório. Na mecânica quântica, o paradoxo EPR ou Paradoxo de Einstein-Podolsky-Rosen é um experimento mental que questiona a natureza da previsão oriunda da teoria quântica de que o resultado de uma medição realizada em uma parte do sistema quântico pode ter um efeito instantâneo no resultado de uma medição realizada em outra parte, independentemente da distância que separa as duas partes.

Novo!!: Teoria da informação e Paradoxo EPR · Veja mais »

Perplexidade

Em teoria da informação, a perplexidade é uma medida de quão bem uma distribuição de probabilidade ou modelo de probabilidade prevê uma amostra.

Novo!!: Teoria da informação e Perplexidade · Veja mais »

Petabit

O petabit (Pb) é um múltiplo do bit, a unidade básica de informação em teoria da informação, computação e comunicações digitais.

Novo!!: Teoria da informação e Petabit · Veja mais »

Peter Elias

Peter Elias (New Brunswick, Nova Jérsei, – Cambridge, Massachusetts) foi um cientista estadunidense, professor de Teoria da informação no Instituto de Tecnologia de Massachusetts (MIT).

Novo!!: Teoria da informação e Peter Elias · Veja mais »

Peter Zoller

Peter Zoller (Innsbruck, 16 de setembro de 1952) é um físico austríaco.

Novo!!: Teoria da informação e Peter Zoller · Veja mais »

Prêmio Claude E. Shannon

O Prêmio Claude E. Shannon (Claude E. Shannon Award) foi instituido pela IEEE Information Theory Society em reconhecimento a contribuições consistentes e profundas no campo da teoria da informação.

Novo!!: Teoria da informação e Prêmio Claude E. Shannon · Veja mais »

Probabilidade

A palavra probabilidade deriva do Latim probare (provar ou testar).

Novo!!: Teoria da informação e Probabilidade · Veja mais »

Probabilidade indutiva

A probabilidade indutiva tenta aferir a probabilidade de eventos futuros baseado em eventos passados.

Novo!!: Teoria da informação e Probabilidade indutiva · Veja mais »

Processamento de linguagem natural

10.1145/1643823.1643908 Processamento de língua natural (PLN) é uma subárea da ciência da computação, inteligência artificial e da linguística que estuda os problemas da geração e compreensão automática de línguas humanas naturais.

Novo!!: Teoria da informação e Processamento de linguagem natural · Veja mais »

Processamento digital de sinais

O processamento digital de sinais (DSP) é o uso de processamento digital, como por computadores ou processadores de sinal digital mais especializados, para realizar uma ampla variedade de operações de processamento de sinal.

Novo!!: Teoria da informação e Processamento digital de sinais · Veja mais »

Pseudoaleatoriedade

Um processo pseudoaleatório é um processo que parece ser aleatório, mas não é.

Novo!!: Teoria da informação e Pseudoaleatoriedade · Veja mais »

Ralph Hartley

Ralph Vinton Lyon Hartley (30 de novembro de 1888 — 1 de maio de 1970) foi um engenheiro eletrônico estadunidense.

Novo!!: Teoria da informação e Ralph Hartley · Veja mais »

Rede de fluxo

Em teoria dos grafos, uma rede de fluxo (também conhecida como rede de transporte) é um grafo orientado, onde cada aresta tem uma capacidade e recebe um fluxo.

Novo!!: Teoria da informação e Rede de fluxo · Veja mais »

Rede Neural

A rede neural é uma rede ou circuito de neurônios biológicos, ou em um sentido mais moderno, uma rede neural artificial, composta de neurônios artificiais ou nodos.

Novo!!: Teoria da informação e Rede Neural · Veja mais »

Rede neural artificial

Diagrama simplificado de uma rede neural. Em ciência da computação e campos relacionados, (RNAs) são modelos computacionais inspirados pelo sistema nervoso central de um animal (em particular o cérebro) que são capazes de realizar o aprendizado de máquina bem como o reconhecimento de padrões.

Novo!!: Teoria da informação e Rede neural artificial · Veja mais »

Repertório

Na Teoria da informação, o conceito de Repertório se refere ao nível de conhecimento do receptor, o seu nível cultural, a sua instrução; é todo conhecimento armazenado, que modifica e confirma os ideais do ser.

Novo!!: Teoria da informação e Repertório · Veja mais »

Restrição (teoria da informação)

Restrição em teoria da informação se refere ao grau de dependência estatística entre variáveis.

Novo!!: Teoria da informação e Restrição (teoria da informação) · Veja mais »

Robert Fano

Robert Mario Fano (Turim, - Naples) foi um cientista da computação estadunidense nascido na Itália.

Novo!!: Teoria da informação e Robert Fano · Veja mais »

Robert Gray Gallager

Robert Gray Gallager (Filadélfia) é um engenheiro eletrônico estadunidense.

Novo!!: Teoria da informação e Robert Gray Gallager · Veja mais »

Robert McEliece

Robert J. McEliece (- 8 de maio de 2019) foi um matemático e engenheiro estadunidense.

Novo!!: Teoria da informação e Robert McEliece · Veja mais »

Ronald Fisher

Ronald Aylmer Fisher, FRS (Londres, 17 de fevereiro de 1890 – Adelaide, 29 de julho de 1962) foi um estatístico, biólogo evolutivo e geneticista inglês.

Novo!!: Teoria da informação e Ronald Fisher · Veja mais »

Ruído

No senso comum, a palavra ruído significa barulho, som ou poluição sonora não desejada.

Novo!!: Teoria da informação e Ruído · Veja mais »

Sergio Verdú

Sergio Verdú (Barcelona) é um teórico da informação espanhol-estadunidense.

Novo!!: Teoria da informação e Sergio Verdú · Veja mais »

Shlomo Shamai

Shlomo Shamai (União Soviética) é um teórico da informação israelense.

Novo!!: Teoria da informação e Shlomo Shamai · Veja mais »

Sistema físico

Um sistema físico é um agregado de objetos ou entidades materiais entre cujas partes existe uma vinculação ou interação de tipo causal (ainda que não necessariamente determinista ou causal no sentido da Teoria da relatividade).

Novo!!: Teoria da informação e Sistema físico · Veja mais »

Sistema linear invariante no tempo

Sistemas lineares e invariantes no tempo são de importância central no estudo da engenharia elétrica, principalmente nas áreas de processamento de sinais e sistemas de controle.

Novo!!: Teoria da informação e Sistema linear invariante no tempo · Veja mais »

Sistemas complexos

Um Sistema Complexo (SC) é um conjunto de unidades que interagem entre si e que exibem propriedades coletivas emergentes.

Novo!!: Teoria da informação e Sistemas complexos · Veja mais »

Sistemas de Processamento de Informações Neurais

A Conferência e Workshop sobre Sistemas de Processamento de Informação Neural (abreviada como NeurIPS e anteriormente NIPS) é uma conferência de aprendizado de máquina e neurociência computacional realizada anualmente, no mês de dezembro.

Novo!!: Teoria da informação e Sistemas de Processamento de Informações Neurais · Veja mais »

Subaditividade

Em matemática, a subaditividade é uma propriedade de uma função que afirma, grosso modo, que avaliar a função para a soma de dois elementos do domínio sempre retorna algo menor ou igual à soma dos valores da função em cada elemento.

Novo!!: Teoria da informação e Subaditividade · Veja mais »

Superioridade ilusória

Superioridade ilusória ou ilusão da superioridade é um conceito usado na psicologia social para descrever uma condição de viés cognitivo em que uma pessoa superestima suas próprias qualidades e habilidades, em relação às mesmas qualidades e habilidades de outras pessoas.

Novo!!: Teoria da informação e Superioridade ilusória · Veja mais »

Tamanho da chave

Em criptografia, tamanho da chave ou comprimento da chave é o tamanho medido em bits da chave usada em um algoritmo criptográfico (tal como uma cifra).

Novo!!: Teoria da informação e Tamanho da chave · Veja mais »

Taxa de código

Em telecomunicação e teoria da informação, a taxa de código (ou taxa de informação) de um código de correção adiantada de erros é a proporção do stream que é útil (não redundante).

Novo!!: Teoria da informação e Taxa de código · Veja mais »

Teorema da amostragem de Nyquist–Shannon

O teorema da amostragem de Nyquist–Shannon, também conhecido simplesmente como teorema de Nyquist, é fundamental no campo da teoria da informação, particularmente na área de telecomunicações e processamento de sinais.

Novo!!: Teoria da informação e Teorema da amostragem de Nyquist–Shannon · Veja mais »

Teorema de Sanov

Em teoria da informação, o teorema de Sanov dá um limite à probabilidade de observar uma sequência atípica de amostras a partir de uma dada distribuição de probabilidade.

Novo!!: Teoria da informação e Teorema de Sanov · Veja mais »

Teorema de Shannon–Hartley

Na teoria da informação, o Teorema de Shannon–Hartley determina a taxa máxima na qual as informações podem ser transmitidas através de um canal de comunicação de uma determinada largura de banda na presença de ruído.

Novo!!: Teoria da informação e Teorema de Shannon–Hartley · Veja mais »

Teoria algorítmica da informação

A teoria algorítmica da informação é um subcampo da teoria da informação e da ciência da computação que se preocupa com a relação entre computação e informação.

Novo!!: Teoria da informação e Teoria algorítmica da informação · Veja mais »

Teoria da aprendizagem computacional

A teoria da aprendizagem computacional é um sub-campo da inteligência artificial e teoria da computação que busca construir modelos formais de projeto e analise de agentes de aprendizado baseados em máquinas de estado.

Novo!!: Teoria da informação e Teoria da aprendizagem computacional · Veja mais »

Teoria da informação quântica

Na ciência da informação quântica, a teoria da informação quântica é a generalização da teoria da informação de Shannon para o domínio da mecânica quântica.

Novo!!: Teoria da informação e Teoria da informação quântica · Veja mais »

Teoria geral de sistemas

A teoria geral de sistemas (também conhecida pela sigla, T.G.S.) surgiu com os trabalhos do biólogo austríaco Ludwig von Bertalanffy, publicados entre 1950 e 1968.

Novo!!: Teoria da informação e Teoria geral de sistemas · Veja mais »

Termodinâmica estatística

Termodinâmica estatística ou mecânica estatísticaOs termos termodinâmica estatística e mecânica estatística são usados alternadamente.

Novo!!: Teoria da informação e Termodinâmica estatística · Veja mais »

Thomas Kailath

Thomas Kailath (Pune) é um engenheiro eletrônico, teórico da informação, engenheiro de controle e empreendedor indiano naturalizado estadunidense.

Novo!!: Teoria da informação e Thomas Kailath · Veja mais »

Timsort

Timsort é um algoritmo de ordenação híbrido derivado do merge sort e do insertion sort, projetado para ter boa performance em vários tipos de dados do mundo real.

Novo!!: Teoria da informação e Timsort · Veja mais »

Transmissão de dados

Transmissão de dados, transmissão digital, ou comunicação digital, é a transferência dos dados físicos (num fluxo de bits digital ou um sinal analógico digitalizado) ao longo de um canal de comunicação ponto-a-ponto ou multiponto.

Novo!!: Teoria da informação e Transmissão de dados · Veja mais »

Turing completude

Na teoria da computação, a completude de Turing ou Turing-completo (do inglês: Turing-completeness; batizado em memória de Alan Turing), também chamado computacionalmente universal, é um conjunto de regras para manipulação de dados (semelhante a uma linguagem de programação, um autómato celular, um conjunto de instruções) que pode ser usado para resolver qualquer problema de computação (simula a lógica de qualquer algoritmo de computador).

Novo!!: Teoria da informação e Turing completude · Veja mais »

Universidade de Dakota do Norte

A Universidade de Dakota do Norte (a em Grand Forks, no estado de Dakota do Norte nos Estados Unidos da América. Ela foi criada em 1883 e é a mais antiga universidade do estado. Sua equipes esportivas competem pela Divisão I da NCAA.

Novo!!: Teoria da informação e Universidade de Dakota do Norte · Veja mais »

Vantagem do primeiro movimento no xadrez

Wilhelm Steinitz, que em 1889 argumentou que o xadrez é um empate caso os melhores movimentos sejam utilizados. A vantagem do primeiro movimento no xadrez se refere ao possível benefício que o enxadrista que controla as peças brancas possui ao realizar o primeiro movimento em um jogo de xadrez.

Novo!!: Teoria da informação e Vantagem do primeiro movimento no xadrez · Veja mais »

Viés cognitivo

Um viés cognitivo (ou tendência cognitiva) é um padrão de distorção de julgamento que ocorre em situações particulares, levando à distorção perceptiva, ao julgamento pouco acurado, à interpretação ilógica, ou ao que é amplamente chamado de irracionalidade.

Novo!!: Teoria da informação e Viés cognitivo · Veja mais »

Vladimir Kotelnikov

Vladimir Aleksandrovich Kotelnikov (Владимир Александрович Котельнико; Kazan, — Moscou) foi um teórico da informação e pioneiro da astronomia de radar da União Soviética.

Novo!!: Teoria da informação e Vladimir Kotelnikov · Veja mais »

Warren Weaver

Warren Weaver (Reedsburg, Wisconsin, 17 de julho de 1894 — New Milford, Connecticut, 24 de novembro de 1978) foi um matemático estadunidense.

Novo!!: Teoria da informação e Warren Weaver · Veja mais »

Werner Meyer-Eppler

Werner Meyer-Eppler (Antuérpia, 30 de abril de 1913 — Bonn, 8 de julho de 1960) foi um físico e teórico da informação da Alemanha.

Novo!!: Teoria da informação e Werner Meyer-Eppler · Veja mais »

Wojciech Zurek

Wojciech Hubert Zurek é um físico teórico estadunidense de origem polonesa que trabalha com os fundamentos da mecânica quântica, teoria da informação e os aspectos da física e astrofísica.

Novo!!: Teoria da informação e Wojciech Zurek · Veja mais »

Yin-yang na medicina tradicional chinesa

Nota: se procura o conceito de Yin/Yang na Filosofia Chinesa, consulte Yin Yang.

Novo!!: Teoria da informação e Yin-yang na medicina tradicional chinesa · Veja mais »

Yuri Linnik

Yuri Vladimirovitch Linnik (Ю́рий Влади́мирович Ли́нник; (Bila Tserkva (Oblast de Kiev, Império Russo), 8 de janeiro de 1915 – Leningrado 30 de junho de 1972) foi um matemático nascido no território da atual Ucrânia e que atuava em teoria dos números, teoria das probabilidades e estatística. Linnik nasceu em Bila Tserkva, atualmente território da Ucrânia. Veio para a Universidade de Leningrado onde seu supervisor foi Vladimir Tartakovski, e posteriormente trabalhou no Instituto Steklov. Foi um membro da Academia Russa de Ciências, como foi sei pai, Vladimir Pavlovitch Linnik. Foi agraciado com o Prêmio Estatal da URSS e com o Prêmio Lenin. Morreu em Leningrado em 1972.

Novo!!: Teoria da informação e Yuri Linnik · Veja mais »

1948 na ciência

Sem descrição

Novo!!: Teoria da informação e 1948 na ciência · Veja mais »

Redireciona aqui:

História da teoria da informação, Teoria da Informação, Teoria da informação de Shannon, Teoria matemática da comunicação.

CessanteEntrada
Ei! Agora estamos em Facebook! »