La comunicación humana y la teoría matemática de la comunicación

Preview:

Citation preview

LA COMUNICACIÓN HUMANA

Recapitulación y crítica del modelo informacional de la

comunicación

Warren Weaver1894-1978

Claude E. Shannon1916-2001

TEORÍAMATEMÁTICA

DE LA INFORMACIÓN

¿Para qué fue creada esta Teoría?

¿Cuál es su función?

Shannon, matemático e ingeniero elaboró esta teoría por encargo de los Laboratorios de la Bell Telephone, que intentaban optimizar la transmisión de la información por cable telefónico, de modo que se evitaran distorsiones, o ruidos de fondo, y se economizara al máximo la transmisión. Es decir, que se utilizaran el mínimo número de elementos posible para transmitir la misma información.

También ha sido aplicada para desencriptar códigos nazis en la II

Guerra Mundial, fabricar discos compactos o estudiar la diversidad

de coleópteros en los bosques tropicales.

¿A partir de qué principios ideó Shannon

esta Teoría?

¿Cuál fue su fuente de inspiración?

Sus ideas iniciales sobre esta teoría surgieron a partir de la observación de las similitudes entre los principios de

la lógica (verdadero-falso), los circuitos lógicos de la conmutación

por teléfono y los dos estados (abierto-cerrado) de las llaves

electromecánicas

Shannon logró explicar este proceso de manera sencilla:

1 significaba “On” cuando el interruptor estaba cerrado y el circuito

encendido,…

…mientras que 0 significaba “Off” cuando el interruptor estaba abierto y el circuito apagado.

Utilizar el código binario le permitió básicamente cuantificar el valor de la información o medir

la información.

Entonces…

… la unidad del índice de Shannon es el bit (que es la

unidad mínima de información y significa “disyunción binaria”).

Un bit es algo que puede estar en dos estados diferentes (sistema

binario).

Su fórmula es:

I (en bits) = log2n

Es decir, que el valor informativo de un

mensaje es el logaritmo en base 2 de

n, siendo n, la cantidad total de elementos

del repertorio e I el valor de la información contenida por cada mensaje.

Para saber el número de bits que tiene algo: es el número de

preguntas que hay que hacerse para conocer un suceso

equiprobable (sin memoria, porque todas las ocurrencias

tienen la misma probabilidad de salir).

Un ejemplo:

¿cuántas posibilidades tengo de acertar “cara” o “ceca” al arrojar una moneda?

El 50% de posibilidades

Porque 2 2 , es decir, 1,0 0 1

Otro ejemplo:

Esta figura ¿cuántos bits de información contiene?

… o ¿cuántas preguntas me tendrían que hacer para saber con total seguridad en cuál estoy pensando?

Solo 3, preguntas:

¿es un polígono?, ¿es azul?, ¿tiene ángulos rectos?,

Porque 8 2 0 4 2 0 2 2 0 1 10002

porque: 0 + 0.2 + 0.2² + 1.2³ = 810

Y… en lenguaje matemático:

8 objetos equiprobables tienen 3 bits de información.

…y podríamos continuar averiguando cuántos bits de información contiene un determinado suceso equiprobable, según sus probabilidades de ocurrencia, por ejemplo, un dado, los números de la ruleta, etc.

El esquema básico para representar esta teoría es:

•Una fuente de información: dispositivo que transmite y codifica convenientemente la información o un mensaje por un medio concreto. •El medio o el canal por el que se transmite el mensaje. •Un dispositivo de recepción que descifra el mensaje con cierta aproximación al original. •El destinatario (receptor) del mensaje. •Una fuente del ruido (interferencias impredecibles o distorsiones).

Otros conceptos asociados al modelo:

•Información: se calcula según su probabilidad de aparición. El mensaje que se trasmite es una selección determinada de un conjunto de mensajes posibles formados por sucesiones de unos símbolos dados. •Entropía / Negentropía: cuanto mayor es la libertad de elección, mayor es la incertidumbre de que el mensaje sea algún mensaje en particular. A mayor desorden, mayor es la cantidad de información que necesito para recuperar un mensaje. La información suministrada por un grupo de mensajes es una medida de organización. La cantidad de información transmitida será equivalente a la reducción de la entropía. A más información, menos desorden.•Redundancia: por redundancia se entiende lo que se dice en exceso con respecto a lo estrictamente necesario para la comprensión del receptor. Cumple la función de compensar los posibles ruidos del canal.

¿Cuál es la crítica que se le realiza al modelo?

La crítica no se realiza al modelo desde la

disciplina y función para la que fue creado,

sino por las extrapolaciones que de él se

han realizado, forzando a dar respuestas

que el modelo no, como premisa, no

pretendía resolver.

Paralelamente a los matemáticos, los

estudiosos del campo de las Ciencias

Sociales, especialmente los lingüistas y

semióticos, introdujeron en la ciencia de

la comunicación los aspectos

cualitativos que permitían la

interpretación de los mensajes.

Entre ellos, Norbert Wiener y Roman Jakobson. Ya es conocida la

equiparación realizada por Jakobson al esquema del modelo de la TMI.

Si bien, Jakobson le incorporó algunas variables funcionales como la …

1.- Emotiva: centrada en el emisor quien pone de manifiesto emociones, sentimientos, estados de ánimo, etc.

2.- Conativa: centrada en el receptor o destinatario.3.- Referencial: centrada en el contenido del mensaje.4.- Metalingüística: centrada en el código , en su

autorreferencialidad.5.- Fática: se centra en todos aquellos recursos que

pretenden mantener la interacción.6.- Poética: se centra en la construcción lingüística elegida

para producir un efecto especial en el destinatario: goce, emoción, entusiasmo, etc.

Sin embargo, no deja de ser un esquema lineal en el que se reitera el concepto de E M R, y que recuerda al modelo “telegráfico” o la “metáfora del tubo”…

Mensaje o la Información

CanalEmisor Receptor

…que supone que las interacciones son instructivas, como si del otro lado hay un ente programable que interpreta de una forma “única” cada mensaje.

Pareciera que los códigos “garantizan que la

comunicación se lleve a cabo: precisamente

como una simple transferencia de

información. El contenido de esa información

y la representación que de él se haga el

destinatario están predeterminados por las

reglas y límites de uso del código en

cuestión.”, como sostiene Gonzalo Abril…

En este sentido, este autor sostiene…

“…antes que codificar o decodificar, los sujetos de la comunicación proponen hipótesis interpretativas y se orientan mediante

razonamientos estratégicos implícitos o explícitos, […] recurren a códigos (gramáticas, reglas y convenciones muy variadas), pero los

aplican con un sentido contextual, es decir, flexiblemente orientado a las características de

la situación y de la relación comunicativo en que intervienen.”

“Así que los interlocutores -en el caso de una comunicación lingüística- han de llevar a cabo inferencias que: a) completan la información explícita;

b) explican y justifican los motivos, metas y razones de las propias expresiones y de las del interlocutor.

A las primeras, Brown y Yule (1993: 320-321) las llaman inferencias elaboradoras; a las segundas, inferencias evaluadoras. ”

Entonces, y a pesar de que la TMI

tiene aún vigencia en diferentes textos

y concepciones centradas en los

dispositivos y erogaciones que

posibilitan las prácticas

comunicacionales de las llamadas

NTICs, …

… la Teoría Matemática de la Información

posibilita medir el valor informativo de

cualquier mensaje en relación al esfuerzo

requerido para su trasmisión,

desvinculándolo de manera absoluta del

sentido que pueda tener el mensaje.

El modelo de Shannon supone que el

sentido está contenido en el mensaje, y el

sentido no está nunca contenido en el

mensaje. El sentido se crea en el momento

de la lectura o de la interpretación.

Entonces sólo hay sentido, al

momento de la “lectura”, de la

interpretación, antes de la lectura, no

hay sentido, sino proyectos de sentido.

Recommended