Upload
internet
View
112
Download
2
Embed Size (px)
Citation preview
John Fiske (Introduction to Communication Studies) aplica os conceitos de redundância e entropia ao layout de um jornal popular inglês.
A foto mostra o confronto entre policiais ingleses e manifestantes negros em Londres.
A mulher em primeiro plano (“bem vestida”, observa preconceituosamente? - Fiske) Ela, no centro da cena, está sendo agarrada por um policial e outro avança em sua direção. Ela ocupa o centro da cena.
A fotografia foi editada na primeira página do Daily Mirror.
Fiske considera a situação – policiais agredindo manifestantes negros – entrópica, isto é, improvável para o senso comum, segundo o qual negros são arruaceiros e policiais ingleses defensores da lei. Mas terá a polícia tanto prestígio para o homem comum na Inglaterra?
A interpretação permite vários questionamentos:
A foto, aberta, recebe a legenda “Confrontação” e o título “Manifestantes negros chocam-se com a polícia de Londres”. Outra foto, menor, no canto da página, mostra o transporte de um policial ferido para a ambulância
Segundo Fiske, a transformação da agressão policial em “confronto” e a informação suplementar de que houve um soldado ferido representam uma intervenção no sentido de reafirmar o senso comum de que os negros são perigosos e a polícia protege os cidadãos desse perigo.
A edição teria transformado o entrópico em redundante.
1. Pode-se julgar uma situação prolongada por um flagrante?
2. Há razões técnicas para a edição?
3. Há intenções assim sutis na edição de uma página de jornal?
Tomemos a série das primeiras oito letras do alfabeto:
ABCDEFGH
Em um jogo de adivinhação, trata-se de saber quantas perguntas serão necessárias para identificar uma letra qualquer dessas – seja o A, o B, o C, o D, o E, o F, o G ou o H, selecionada pelo parceiro.
Perguntas do tipo “é esta?”, em qualquer ordem – do começo para o fim, do fim para o começo ou em série aleatória –, permitirão que se chegue ao resultado, em média, com quatro perguntas.
Seguindo-se a melhor estratégia possível, no entanto, chega-se ao resultado com três perguntas. Suponhamos que seja a letra D:
1 ª - A letra escolhida fica antes do E? ABCD EFGH
- Sim.
2 a - A letra escolhida fica antes do C? AB CD
- Não.
3 ª - A letra escolhida fica antes do D? C D
- Não.
- É o D.
Se duplicarmos o número de letras (para 16), o resultado, pela estratégia ótima, será alcançado com quatro perguntas:
1 ª - A letra escolhida fica antes do I? ABCDEFGH IJKLMNOP
- Sim.
2 ª - A letra escolhida fica antes do E? ABCD EFGH
- Sim.
3 ª - A letra escolhida fica antes do C? AB CD
- Não.
4 ª - A letra escolhida fica antes do D? C D
- Não.
- É o D.
Se duplicarmos novamente o número de letras (para 32), recorrendo a caracteres gregos, o número de perguntas necessárias, pela estratégia ótima, será cinco.
Verifiquem:
ABCDEFGHIJKLMNOP QRSTUVWXYZ .ΦΓΨΠ .
Comparando o número de letras n e o número de escolhas H, montamos uma tabela:
Grandeza do conjunto n
Número de perguntas H
1
2
4
8
16
0
1
2
3
4
A relação entre a grandeza de um conjunto n e o número de escolhas H para se chegar a um elemento desse conjunto, em situação de equiprobabilidade, é:
n = 2H ou H = log2 n
H mede a incerteza ou entropia de um conjunto. Seu valor será inteiro para qualquer valor do conjunto que pertença à progressão geométrica 1,2,4,8,16.
Consideremos, agora, situações não equiprováveis – isto é, em que há certa tendenciosidade.
Por exemplo, letras recortadas de um jornal. Admitindo-se que há mais letras A do que letras B e estas muito mais do que Z, a distribuição do conjunto de letras será desigual ou, em termos matemáticos, ponderada.
Supondo que existem duas letras B para cada letra C ou D e duas letras A para cada letra B, teríamos:
AAAABBCD
O número de perguntas para encontrar uma letra escolhida ao acaso na série acima varia: uma se for A, duas se for B, três se forem C ou D. Calculemos o número médio de perguntas – que corresponde, como vimos, à entropia considerando os fatores de ponderação:
Solução Número de Perguntas
Fator de Ponderação
A
B
C
D
1
2
3
3
1/2
1/4
1/8
1/8
Para isso, somaremos os produtos dos números de perguntas pelo fator de ponderação de cada letra:
(1 .1/2) + (2 . 1/4) + (3. 1/8) + (3 . 1/8) = 1/2 + 1/ 2 + 3/8 + 3/8 = 1 3/4
Observe-se na tabela que o número de perguntas necessárias para se encontrar cada letra é igual ao logaritmo base dois do inverso do fator de ponderação – ou seja, ao fator de ponderação elevado a –1: 1 é o logaritmo de 2, 2 o de 4 e 3 o de 8.
Os produtos alinhados acima correspondem, cada um, à multiplicação do fator de ponderação pelo logaritmo binário do inverso dele mesmo – ou dele mesmo elevado a –1.
A entropia é a soma desses produtos, ou seja:
H = (Σ pi.I)/ log2 pi
ou
H = (Σ pi.I) . (log2 pi)-1
em que p é o fator de ponderação e i um elemento qualquer i do conjunto.
A quantidade de informação expressa em bits contida em determinada solução é o número de perguntas necessárias para se chegar a essa solução.
Esse número é, como vimos, igual ao logaritmo da base 2 do inverso da probabilidade desse evento em particular, ou:
I = log2 1/pi ou I = log2 pi-1
em que pi é a probabilidade do evento i em particular.
A unidade em que se expressa a quantidade de informação é o bit, trocadilho criado por Tukey a partir da expressão binary digit (dígito binário). Bit, em inglês, quer dizer “pedaço”.
A condição binária do bit remete à álgebra da lógica, criada por George Boole, nos livros A análise matemática da Lógica, de 1847, e Investigações sobre as leis do pensamento, de 1854. Boole parte da concepção de que a interseção dos conjuntos descritos por duas proposições, P e Q, é igual o produto de P e Q:
P ∩Q = P . Q , ou PQ
Observa, então, que a classe dos indivíduos que são eles mesmos é igual a si mesma (a classe dos indivíduos ingleses que são ingleses é a classe dos indivíduos ingleses) e que, portanto,
PP = P
Isso apenas acontece, matematicamente, para os valores 1 e 0 de P. Por isso, na álgebra de Boole, os dois únicos valores reconhecidos são 0 e 1, representando, o primeiro, o conjunto vazio e o segundo o conjunto universo, ou universo do discurso.
Tomemos a afirmação “hoje é sexta-feira”. Qual a quantidade de informação que ela contém?
Depende. Se sabemos que ontem foi quinta, a resposta é:
I = log2 1 = 0 bits
Se temos que escolher entre os dias de trabalho, de segunda a sexta, a resposta é:
I = log2 5 = 2,32 bits
Se o universo é toda a semana, então:
I = log2 7 = 2,81 bits
A quantidade de informação expressa em bits de um evento singular é o número de escolhas binárias para se chegar a esse evento. Já a quantidade de informação de uma série ou conjunto de eventos é tão maior quanto mais esses eventos sejam independentes entre si, não se articulem uns com os outros.
A informação é igual à entropia ou desordem da série ou conjunto, o que significa dizer que há mais informação em uma série aleatória do que em qualquer série ordenada.
No entanto, o cérebro humano procura captar o máximo de informação com o mínimo de custo. Isso o leva a selecionar ordenações no mundo real para a percepção – por exemplo, para reconhecer e, portanto, dar nomes genéricos às coisas.
A forma ou Gestalt (plural Gestalten) reúne eventos ou elementos (gráficos, sonoros etc.) com alguma relação entre si, seja espacial (funções matemáticas), seja por semelhança, causa / conseqüência, etc. As formas mais articuladas (boas) serão mais facilmente percebidas
O processo do pensamento parte da realidade para, abstraindo o que ela tem de singular, torná-la inteligível, isto é, agrupá-la em conceitos genéricos.
A redundância reduz a quantidade de informação (ou torna a mensagem mais extensa, com a mesma quantidade de informação); envolve, entre outros mecanismos possíveis, a repetição, a simetria e a analogia.
Tudo aquilo que, na comunicação, não corresponde à mensagem (ao que se pretendeu comunicar) é chamado de ruído. Pode ser um ruído branco, desordenado (entrópico), como a cintilação no televisor quando não há emissora no canal; ou um ruído colorido, quando apresenta ordenação própria, como acontece nas linhas cruzadas.
A redundância reduz a possibilidade de o ruído afetar a percepção da mensagem.
Para a avaliação da quantidade de redundância deve-se considerar, por um lado, o custo do ruído (o prejuízo que ele pode causar) e, por outro, o grau de entropia ou imprevisibilidade da mensagem (maior, por exemplo, em códigos alfanuméricos, como aqueles que identificam reservas de passagens aéreas ou itens de um catálogo).
Ruídos, correspondendo a erros, podem significar, no entanto, enriquecimento da informação.
É o caso das mutações que, selecionadas, vão adaptando espécies biológicas ao habitat, ou de inserções do acaso na pesquisa científica – como a que levou à descoberta dos antibióticos.
Geralmente relaciona-se ruído ao fundo e mensagem ao primeiro plano. No entanto, o ruído pode ser capaz de competir com a mensagem – o primeiro plano com o fundo, como acontece em Céu e Inferno (gravura), de Maurits Escher.
Eu creio navida mansa!!