Arquivos da Tag: teoria da informação

Uma Meta-Lei para reger todas as outras: físicos elaboram uma “Teoria de Tudo”

Post inicialmente criado por Zeeya Merali, no site Scientific American.

Shannonmouse

Shannon e seu famoso Teseu, um rato eletromecânico que tentou se resolver o labirinto em uma das primeiras experiências de inteligência artificial. Copiado de wikipedia.

 

“Uma vez eliminado o impossível”, famosamente opinou o detetive fictício Sherlock Holmes, “o que resta, por mais improvável que seja, deve ser a verdade”. Esse ditado forma o princípio fundamental da “Teoria do Construtor” — uma “Teoria de Tudo” candidata, esboçada primeiramente em 2012, na Universidade de Oxford, pelo físico quântico David Deutsch. Seu objetivo era encontrar uma estrutura que pudesse abranger todas as teorias físicas, determinando um conjunto abrangente de “meta-leis” que descrevesse o que pode acontecer no universo e o que é proibido. Em um artigo publicado em 23 de maio para o repositório artigos de física, arXiv, a “Teoria do Construtor” aponta para o seu primeiro sucesso em direção a esse objetivo, unificando duas teorias distintas usadas atualmente para descrever o processamento de informação em sistemas macroscópicos clássicos, assim como em objetos quânticos subatômicos.

Os cientistas da computação atualmente usam uma teoria desenvolvida em 1940 pelo matemático americano e criptógrafo Claude Shannon. Ela descreve como a informação clássica pode ser codificada e transmitida através de canais ruidosos de forma eficiente — o que, por exemplo, é a maioria dos dados que podem ser transmitidos, em teoria, por um cabo de fibra óptica, sem se tornar irremediavelmente corrompida. Ao mesmo tempo, os físicos estão se esforçando para construir computadores quânticos que possam, em princípio, explorar aspectos peculiares do mundo subatômico para executar determinadas tarefas em um ritmo muito mais rápido do que as máquinas clássicas de hoje.

Mas os princípios definidos pela teoria de Shannon não podem ser aplicados ao processamento de informação por computadores quânticos. Na verdade, Deutsch observa que os físicos ainda nem possuem uma definição clara sobre o que é “informação quântica” ou como ela se relaciona com a informação clássica. “Se quisermos progredir na busca de novos algoritmos para computadores quânticos, precisamos entender o que informação quântica realmente é!”, diz. “Até agora, os algoritmos que foram descobertos por computadores quânticos foram surpresas descobertas aos tropeços, pois não temos uma teoria mais fundamental para nos guiar.”

Em 2012, Deutsch esboçou uma teoria construtor, no qual, ele acredita que pode proporcionar a base fundamental para uma grande unificação de todas as teorias em ambos os domínios, clássico e quântico. Este último artigo é um primeiro passo em direção a esse objetivo maior, uma demonstração de como a informação clássica e quântica podem ser usadas para unificar duas teorias físicas. De acordo com a teoria do construtor, os componentes mais fundamentais da realidade são entidades (“construtores”) que realizam tarefas específicas, acompanhadas de um conjunto de leis que definem quais as tarefas são realmente possíveis de um construtor realizar. Por exemplo, uma chaleira com uma fonte de alimentação pode servir como um construtor que pode desempenhar a função de aquecimento de água. “A linguagem da teoria construtor dá um caminho natural para descrever os princípios fundamentais que devem ser obedecidos por todas as teorias subsidiárias, como a conservação de energia”, explica Chiara Marletto, uma física quântica também da Universidade de Oxford, co-autora do novo estudo. “Você simplesmente diz que a tarefa de criar energia a partir do nada é impossível.”

Dean Rickles, um filósofo de física na Universidade de Sydney, que não estava envolvido no desenvolvimento da teoria, está intrigado com o seu potencial de unificar as leis da natureza. “É uma nova visão muito curiosa sobre a noção de uma teoria de tudo”, diz ele. “Em princípio, todo o possível em nosso universo poderia ser escrito em um grande livro que consiste em nada além de tarefas [e] neste grande livro também serão codificadas todas as leis da física.”

Para desenvolver sua descrição de informação, Deutsch e Marletto se basearam em uma tarefa fundamental que é possível em sistemas clássicos, mas impossível em sistemas quânticos: a capacidade de fazer uma cópia. Desde a década de 1980 os físicos sabem que é impossível fazer uma cópia idêntica de um estado quântico desconhecido. Em seu novo artigo, Deutsch e Marletto definem um meio de informação clássica como aquele em que os estados podem ser precisamente copiados. Eles, então, descobriram quais tarefas devem ser possíveis em um sistema desse tipo para permanecer em conformidade com a teoria de Shannon.

Os colaboradores, em seguida, passaram a definir o conceito de um meio de “superinformação” que codifica mensagens que especificam determinados estados físicos – neste caso, em que a cópia é impossível. Eles descobriram que um subconjunto particular de seus meios de superinformação exibe as propriedades associadas com o processamento da informação quântica. “Descobrimos que, com esta única restrição em vigor, dizendo o que você não pode fazer em um meio de superinformação — a tarefa de cópia —, você acaba descobrindo o novo poder estranho de processamento de informação que é uma propriedade de sistemas quânticos”, diz Marletto.

A equipe mostrou que, com esta restrição de copiar em vigor, uma série de outras propriedades começam a surgir: Medir o estado de um meio superinformação inevitavelmente perturbá-la — uma característica comumente associada a sistemas quânticos. Mas como é impossível fazer uma cópia exata de certos conjuntos de estados em um meio superinformação, isso força alguma incerteza no resultado da medição.

A equipe também mostrou que o emaranhamento – a assustadora propriedade que liga objetos quânticos de forma que eles atuam em conjunto, não importa o quão longe eles estejam – também surge naturalmente, uma vez que essa restrição em copiar está em vigor. De acordo com Marletto, a propriedade crucial de um sistema que contém dois estados emaranhados é que a informação armazenada no sistema combinado é mais do que a informação que pode ser adquirida apenas através da análise de cada membro do par individualmente. O conjunto quântico é mais do que a soma das suas partes.

No seu artigo, Deutsch e Marletto demonstram que a informação pode ser codificada em dois meios de superinformação de tal maneira que é impossível recuperá-la através da medição dos subsistemas individuais separadamente – isto é, o emaranhamento é inevitável. Da mesma forma, num meio clássico, o emaranhamento é impossível. “A coisa mais interessante sobre este formalismo é a forma que características comuns da mecânica quântica se desdobram”, diz Patrick Hayden, um físico quântico na Universidade de Stanford, acrescentando: “. Tenho verdadeiro respeito pelo pensamento criativo por trás da teoria do construtor e suas ambições” Ele observa, porém, que há tentativas concorrentes de outros pesquisadores para o desenvolvimento de uma compreensão mais profunda da mecânica quântica, incluindo idéias baseadas em cópia, e ainda é muito cedo para dizer qual delas, se houver, será a melhor descrição.

Rickles concorda que isso vai levar tempo para os físicos verificar que a teoria – que ainda não passou por revisão por pares – é verdadeiramente bem-sucedida em unir a teoria da informação clássica e quântica. Mas afirma-se, que daria um impulso ao objetivo de Deutsch em contribuir na busca pela tão procurada teoria da gravidade quântica, unindo a teoria quântica e relatividade geral, atualmente incompatíveis. “Esta é a primeira vez na história da ciência que se sabe que as nossas teorias mais profundas estão erradas, por isso é óbvio que precisamos de uma teoria mais profunda”, diz Deutsch.

Rickles acredita que a teoria do construtor tem o potencial de prescrever meta-leis que a relatividade geral e a teoria quântica devem obedecer. “As meta-leis são criaturas mais estáveis, eles sobrevivem a revoluções científicas”, diz ele. “Ter esses princípios em mão no dá uma melhor compreensão da natureza da realidade. Eu diria que é uma boa vantagem.”

Fonte: http://www.scientificamerican.com/article/a-meta-law-to-rule-them-all-physicists-devise-a-theory-of-everything/

Sem a Teoria da Informação de Shannon não haveria Internet

Post inicialmente criado por Alok Jha, no site The Observer.
Teoria da Informação de Shannon

Teoria da Informação de Shannon

Esta equação foi publicada no livro A Teoria Matemática da Comunicação (1949) escrito por Claude Shannon e Warren Weaver. É uma maneira elegante de descobrir o quão eficiente um código pode ser, o que transformou “informação” de uma palavra relativamente vaga em uma forma de representar o quanto alguém sabe sobre algo utilizando uma unidade matemática precisa que pode ser medida, manipulada e transmitida. Foi o início da ciência da “Teoria da Informação”, um conjunto de idéias que nos permitiu construir a Internet, computadores digitais e sistemas de telecomunicações. Quando alguém fala sobre a revolução da informação das últimas décadas, é a idéia da informação de Shannon que se está falando.

Claude Shannon foi um matemático e engenheiro eletrônico que trabalhou no Laboratório da Bell, nos EUA, em meados do século 20. Seu local de trabalho foi o braço de pesquisa e desenvolvimento célebre da Bell Telephone Company, principal fornecedora dos EUA de serviços de telefonia até a década de 1980, quando foi rompida por causa de sua posição monopolista. Durante a segunda guerra mundial, Shannon trabalhou em códigos e métodos de envio de mensagens de forma eficiente e segura através de longas distâncias, ideias que se tornaram as sementes para a sua Teoria da Informação.

Antes da Teoria da Informação, comunicações remotas eram feita usando sinais analógicos. O envio de uma mensagem envolva transformá-la em diferentes impulsos de tensão ao longo de um fio, que poderia ser medido na outra extremidade e interpretado novamente em palavras. Isso geralmente é bom para distâncias curtas, mas, se você quiser enviar alguma coisa através de um oceano, isso se torna inutilizável. Cada metro que um sinal elétrico analógico viaja ao longo de um fio, o deixa mais fraco e o faz sofrer mais com flutuações aleatórias, conhecido como ruído. Obviamente, você poderia aumentar o sinal do início, mas isso terá o efeito indesejado de também aumentar o ruído.

A teoria da informação ajudou a superar este problema. Nela, Shannon definiu as unidades de informação, os menores pedaços possíveis que não podem mais ser divididos, no qual ele chamou de “bits” (abreviação de binary digit), cadeia de caracteres de que podem ser usadas para codificar qualquer mensagem. O código digital mais amplamente utilizado na eletrônica moderna é baseado em bits, no qual cada unidade pode ter apenas um dos dois valores: 0 ou 1.

Esta ideia simples melhora imediatamente a qualidade das comunicações. Converte sua mensagem, letra por letra, em um código feito de 0s e 1s e, em seguida, envia essa longa seqüência de dígitos por um fio – cada 0 representado por um breve sinal de baixa tensão e cada 1 representado por um breve salto de alta tensão. Estes sinais, evidentemente, sofrerão os mesmos problemas de um sinal analógico, a saber, o enfraquecimento e ruído. Mas o sinal digital tem uma vantagem: os 0s e 1s são estados tão obviamente diferentes que, mesmo depois da deterioração, o seu estado original pode ser reconstruído ao longo fio. Uma outra forma de manter a mensagem digital limpa é lê-la, usando dispositivos eletrônicos, em intervalos ao longo de sua rota e reenviar uma repetição limpa.

Shannon mostrou o verdadeiro poder desses bits, no entanto, colocando-os em uma estrutura matemática. Sua equação define uma quantidade (H), no qual é conhecida como entropia de Shannon e pode ser considerada como uma medida da informação de uma mensagem, medida em bits.

Em uma mensagem, a probabilidade de um determinado símbolo (x) se propagar é representado por p(x). O lado direito da equação acima soma as probabilidades de toda série de símbolos que podem aparecer em uma mensagem, ponderada pelo número de bits necessários para representar esse valor de x, um termo dado por log p(x). (Um logaritmo é o processo inverso de elevar algo à potência. Dizemos que o logaritmo de 1000 na base 10 — escrito por log 10 (1000) — é 3, pois 10 3 = 1000.)

Um sorteio, por exemplo, tem dois resultados possíveis (ou símbolos) — x poderia ser cara ou coroa. Cada resultado tem uma probabilidade de 50% de ocorrência e, neste caso, p(cara) e p(coroa) são cada um ½. A teoria de Shannon usa base 2 em seus logaritmos e log 2 (½) é -1. Isso nos dá a quantidade total de informação ao jogar uma moeda, um valor para o H, de 1 bit. Uma vez que o sorteio tenha sido concluído, nós ganhamos um bit de informação, ou melhor, reduzimos a nossa incerteza em um bit.

Um único caractere tirado de um alfabeto de 27 caracteres tem cerca de 4,76 bits de informação — em outras palavras log 2 (1/27) —, pois cada caractere é ou não é uma letra particular desse alfabeto. Uma vez que existem 27 destas possibilidades binárias, a probabilidade de cada um é de 1/27. Essa é uma descrição básica de um alfabeto Inglês básico (26 caracteres e um espaço), se cada caractere tiver a mesma probabilidade de ser transmitido em uma mensagem. Por este cálculo, mensagens em Inglês necessitam de largura de banda para armazenamento ou transmissão igual ao número de caracteres multiplicada por 4,76.

Mas sabemos que, em Inglês, cada caractere não aparece na mesma proporção. Um “u” geralmente segue um “q” e “e” é mais comum do que “z“. Leve em conta esses detalhes estatísticos e será possível reduzir o valor de H dos caracteres em inglês para menos de um bit. O que é útil se você quiser acelerar a comunicação ou ocupar menos espaço no disco rígido.

A Teoria da Informação foi criada para encontrar formas práticas de tornar códigos melhores, mais eficientes e encontrar os limites de como computadores rápidos poderiam processar sinais digitais. Cada pedaço de informação digital é o resultado de códigos que foram examinados e melhorados através da equação de Shannon. Ela fornece a base matemática para o aumento do armazenamento e compressão de dados — arquivos Zip, MP3s e JPGs não poderiam existir sem ela. E nenhum dos vídeos de alta definição on-line teria sido possível sem a matemática de Shannon.

Fonte: http://www.theguardian.com/science/2014/jun/22/shannon-information-theory.