{"id":245,"date":"2014-06-26T19:04:19","date_gmt":"2014-06-26T22:04:19","guid":{"rendered":"http:\/\/blog.brelaz.com.br\/?p=245"},"modified":"2014-06-26T19:06:58","modified_gmt":"2014-06-26T22:06:58","slug":"sem-a-teoria-da-informacao-de-shannon-nao-haveria-internet","status":"publish","type":"post","link":"https:\/\/blog.brelaz.com.br\/?p=245","title":{"rendered":"Sem a Teoria da Informa\u00e7\u00e3o de Shannon n\u00e3o haveria Internet"},"content":{"rendered":"<address>Post inicialmente criado por <a href=\"http:\/\/www.theguardian.com\/profile\/alokjha\" target=\"_blank\">Alok Jha<\/a>, no site <a href=\"http:\/\/www.theguardian.com\/science\/2014\/jun\/22\/shannon-information-theory\" target=\"_blank\">The Observer<\/a>.<\/address>\n<div id=\"attachment_246\" style=\"width: 470px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/blog.brelaz.com.br\/wp-content\/uploads\/2014\/06\/Shannon-s-information-the-009.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-246\" class=\"wp-image-246 size-full\" src=\"https:\/\/blog.brelaz.com.br\/wp-content\/uploads\/2014\/06\/Shannon-s-information-the-009.jpg\" alt=\"Teoria da Informa\u00e7\u00e3o de Shannon\" width=\"460\" height=\"276\" srcset=\"https:\/\/blog.brelaz.com.br\/wp-content\/uploads\/2014\/06\/Shannon-s-information-the-009.jpg 460w, https:\/\/blog.brelaz.com.br\/wp-content\/uploads\/2014\/06\/Shannon-s-information-the-009-300x180.jpg 300w\" sizes=\"auto, (max-width: 460px) 100vw, 460px\" \/><\/a><p id=\"caption-attachment-246\" class=\"wp-caption-text\">Teoria da Informa\u00e7\u00e3o de Shannon<\/p><\/div>\n<p>Esta equa\u00e7\u00e3o foi publicada no livro A Teoria Matem\u00e1tica da Comunica\u00e7\u00e3o (1949) escrito por Claude Shannon e Warren Weaver. \u00c9 uma maneira elegante de descobrir o qu\u00e3o eficiente um c\u00f3digo pode ser, o que transformou &#8220;informa\u00e7\u00e3o&#8221; de uma palavra relativamente vaga em uma forma de representar o quanto algu\u00e9m sabe sobre algo utilizando uma unidade matem\u00e1tica precisa que pode ser medida, manipulada e transmitida. Foi o in\u00edcio da ci\u00eancia da &#8220;Teoria da Informa\u00e7\u00e3o&#8221;, um conjunto de id\u00e9ias que nos permitiu construir a Internet, computadores digitais e sistemas de telecomunica\u00e7\u00f5es. Quando algu\u00e9m fala sobre a revolu\u00e7\u00e3o da informa\u00e7\u00e3o das \u00faltimas d\u00e9cadas, \u00e9 a id\u00e9ia da informa\u00e7\u00e3o de Shannon que se est\u00e1 falando.<\/p>\n<p>Claude Shannon foi um matem\u00e1tico e engenheiro eletr\u00f4nico que trabalhou no Laborat\u00f3rio da Bell, nos EUA, em meados do s\u00e9culo 20. Seu local de trabalho foi o bra\u00e7o de pesquisa e desenvolvimento c\u00e9lebre da <em>Bell Telephone Company<\/em>, principal fornecedora dos EUA de servi\u00e7os de telefonia at\u00e9 a d\u00e9cada de 1980, quando foi rompida por causa de sua posi\u00e7\u00e3o monopolista. Durante a segunda guerra mundial, Shannon trabalhou em c\u00f3digos e m\u00e9todos de envio de mensagens de forma eficiente e segura atrav\u00e9s de longas dist\u00e2ncias, ideias que se tornaram as sementes para a sua Teoria da Informa\u00e7\u00e3o.<\/p>\n<p>Antes da Teoria da Informa\u00e7\u00e3o, comunica\u00e7\u00f5es remotas eram feita usando sinais anal\u00f3gicos. O envio de uma mensagem envolva transform\u00e1-la em diferentes impulsos de tens\u00e3o ao longo de um fio, que poderia ser medido na outra extremidade e interpretado novamente em palavras. Isso geralmente \u00e9 bom para dist\u00e2ncias curtas, mas, se voc\u00ea quiser enviar alguma coisa atrav\u00e9s de um oceano, isso se torna inutiliz\u00e1vel. Cada metro que um sinal el\u00e9trico anal\u00f3gico viaja ao longo de um fio, o deixa mais fraco e o faz sofrer mais com flutua\u00e7\u00f5es aleat\u00f3rias, conhecido como ru\u00eddo. Obviamente, voc\u00ea poderia aumentar o sinal do in\u00edcio, mas isso ter\u00e1 o efeito indesejado de tamb\u00e9m aumentar o ru\u00eddo.<\/p>\n<p>A teoria da informa\u00e7\u00e3o ajudou a superar este problema. Nela, Shannon definiu as unidades de informa\u00e7\u00e3o, os menores peda\u00e7os poss\u00edveis que n\u00e3o podem mais ser divididos, no qual ele chamou de &#8220;<em>bits<\/em>&#8221; (abrevia\u00e7\u00e3o de <em>binary digit<\/em>), cadeia de caracteres de que podem ser usadas para codificar qualquer mensagem. O c\u00f3digo digital mais amplamente utilizado na eletr\u00f4nica moderna \u00e9 baseado em bits, no qual cada unidade pode ter apenas um dos dois valores: 0 ou 1.<\/p>\n<p>Esta ideia simples melhora imediatamente a qualidade das comunica\u00e7\u00f5es. Converte sua mensagem, letra por letra, em um c\u00f3digo feito de 0s e 1s e, em seguida, envia essa longa seq\u00fc\u00eancia de d\u00edgitos por um fio &#8211; cada 0 representado por um breve sinal de baixa tens\u00e3o e cada 1 representado por um breve salto de alta tens\u00e3o. Estes sinais, evidentemente, sofrer\u00e3o os mesmos problemas de um sinal anal\u00f3gico, a saber, o enfraquecimento e ru\u00eddo. Mas o sinal digital tem uma vantagem: os 0s e 1s s\u00e3o estados t\u00e3o obviamente diferentes que, mesmo depois da deteriora\u00e7\u00e3o, o seu estado original pode ser reconstru\u00eddo ao longo fio. Uma outra forma de manter a mensagem digital limpa \u00e9 l\u00ea-la, usando dispositivos eletr\u00f4nicos, em intervalos ao longo de sua rota e reenviar uma repeti\u00e7\u00e3o limpa.<\/p>\n<p>Shannon mostrou o verdadeiro poder desses bits, no entanto, colocando-os em uma estrutura matem\u00e1tica. Sua equa\u00e7\u00e3o define uma quantidade (<em><span style=\"color: #008000;\">H<\/span><\/em>), no qual \u00e9 conhecida como <em>entropia<\/em> de Shannon e pode ser considerada como uma medida da informa\u00e7\u00e3o de uma mensagem, medida em <em>bits<\/em>.<\/p>\n<p>Em uma mensagem, a probabilidade de um determinado s\u00edmbolo (<em><span style=\"color: #008000;\">x<\/span><\/em>) se propagar \u00e9 representado por <em><span style=\"color: #008000;\">p(x)<\/span><\/em>. O lado direito da equa\u00e7\u00e3o acima soma as probabilidades de toda s\u00e9rie de s\u00edmbolos que podem aparecer em uma mensagem, ponderada pelo n\u00famero de bits necess\u00e1rios para representar esse valor de <em><span style=\"color: #008000;\">x<\/span><\/em>, um termo dado por <em><span style=\"color: #008000;\">log p(x)<\/span><\/em>. (Um logaritmo \u00e9 o processo inverso de elevar algo \u00e0 pot\u00eancia.\u00a0Dizemos que o logaritmo de 1000 na base 10 \u2014\u00a0escrito por <em><span style=\"color: #008000;\">log<sub> 10 <\/sub>(1000)<\/span><\/em> \u2014 \u00e9 <em><span style=\"color: #008000;\">3<\/span><\/em>, pois <em><span style=\"color: #008000;\">10<sup> 3<\/sup> = 1000<\/span><\/em>.)<\/p>\n<p>Um sorteio, por exemplo, tem dois resultados poss\u00edveis (ou s\u00edmbolos) \u2014\u00a0<em><span style=\"color: #008000;\">x<\/span><\/em> poderia ser <em>cara<\/em> ou <em>coroa<\/em>. Cada resultado tem uma probabilidade de 50% de ocorr\u00eancia e, neste caso, <em><span style=\"color: #008000;\">p(cara)<\/span><\/em> e <em><span style=\"color: #008000;\">p(coroa)<\/span><\/em> s\u00e3o cada um <span style=\"color: #008000;\">\u00bd<\/span>. A teoria de Shannon usa base 2 em seus logaritmos e <em><span style=\"color: #008000;\">log<sub> 2 <\/sub>(\u00bd)<\/span><\/em> \u00e9 <em><span style=\"color: #008000;\">-1<\/span><\/em>. Isso nos d\u00e1 a quantidade total de informa\u00e7\u00e3o ao jogar uma moeda, um valor para o <em><span style=\"color: #008000;\">H<\/span><\/em>, de <em>1 bit<\/em>. Uma vez que o sorteio tenha sido conclu\u00eddo, n\u00f3s ganhamos <em>um bit de informa\u00e7\u00e3o<\/em>, ou melhor, reduzimos a nossa incerteza em um bit.<\/p>\n<p>Um \u00fanico caractere tirado de um alfabeto de 27 caracteres tem cerca de <em><span style=\"color: #008000;\">4,76 bits<\/span><\/em> de informa\u00e7\u00e3o \u2014\u00a0em outras palavras <em><span style=\"color: #008000;\">log<sub>\u00a02<\/sub>\u00a0(1\/27)<\/span><\/em>\u00a0\u2014, pois cada caractere \u00e9 ou n\u00e3o \u00e9 uma letra particular desse alfabeto. Uma vez que existem 27 destas possibilidades bin\u00e1rias, a probabilidade de cada um \u00e9 de 1\/27. Essa \u00e9 uma descri\u00e7\u00e3o b\u00e1sica de um alfabeto Ingl\u00eas b\u00e1sico (26 caracteres e um espa\u00e7o), se cada caractere tiver a mesma probabilidade de ser transmitido em uma mensagem. Por este c\u00e1lculo, mensagens em Ingl\u00eas necessitam de largura de banda para armazenamento ou transmiss\u00e3o igual ao n\u00famero de caracteres multiplicada por 4,76.<\/p>\n<p>Mas sabemos que, em Ingl\u00eas, cada caractere n\u00e3o aparece na mesma propor\u00e7\u00e3o. Um &#8220;<em>u<\/em>&#8221; geralmente segue um &#8220;<em>q<\/em>&#8221; e &#8220;<em>e<\/em>&#8221; \u00e9 mais comum do que &#8220;<em>z<\/em>&#8220;. Leve em conta esses detalhes estat\u00edsticos e ser\u00e1\u00a0poss\u00edvel reduzir o valor de <span style=\"color: #008000;\"><em>H<\/em><\/span>\u00a0dos caracteres em ingl\u00eas para menos de um <em>bit<\/em>. O que \u00e9 \u00fatil se voc\u00ea quiser acelerar a comunica\u00e7\u00e3o ou ocupar menos espa\u00e7o no disco r\u00edgido.<\/p>\n<p>A Teoria da Informa\u00e7\u00e3o foi criada para encontrar formas pr\u00e1ticas de tornar c\u00f3digos melhores, mais eficientes e encontrar os limites de como computadores r\u00e1pidos poderiam processar sinais digitais. Cada peda\u00e7o de informa\u00e7\u00e3o digital \u00e9 o resultado de c\u00f3digos que foram examinados e melhorados atrav\u00e9s da equa\u00e7\u00e3o de Shannon. Ela fornece a base matem\u00e1tica para o aumento do armazenamento e compress\u00e3o de dados \u2014\u00a0arquivos <em>Zip<\/em>, <em>MP3s<\/em> e <em>JPGs<\/em> n\u00e3o poderiam existir sem ela. E nenhum dos v\u00eddeos de alta defini\u00e7\u00e3o on-line teria sido poss\u00edvel sem a matem\u00e1tica de Shannon.<\/p>\n<p>Fonte:\u00a0<a title=\"Without Shannon's information theory there would have been no internet\" href=\"http:\/\/www.theguardian.com\/science\/2014\/jun\/22\/shannon-information-theory\" target=\"_blank\">http:\/\/www.theguardian.com\/science\/2014\/jun\/22\/shannon-information-theory<\/a>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Ela mostra como tornar a comunica\u00e7\u00e3o mais r\u00e1pida e como ocupar menos espa\u00e7o no disco r\u00edgido, tornando a Internet poss\u00edvel. <a href=\"https:\/\/blog.brelaz.com.br\/?p=245\">Continuar lendo <span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[4],"tags":[30,29],"class_list":["post-245","post","type-post","status-publish","format-standard","hentry","category-noticias","tag-shannon","tag-teoria-da-informacao"],"_links":{"self":[{"href":"https:\/\/blog.brelaz.com.br\/index.php?rest_route=\/wp\/v2\/posts\/245","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.brelaz.com.br\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.brelaz.com.br\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.brelaz.com.br\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.brelaz.com.br\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=245"}],"version-history":[{"count":3,"href":"https:\/\/blog.brelaz.com.br\/index.php?rest_route=\/wp\/v2\/posts\/245\/revisions"}],"predecessor-version":[{"id":249,"href":"https:\/\/blog.brelaz.com.br\/index.php?rest_route=\/wp\/v2\/posts\/245\/revisions\/249"}],"wp:attachment":[{"href":"https:\/\/blog.brelaz.com.br\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=245"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.brelaz.com.br\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=245"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.brelaz.com.br\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=245"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}