Upload
jezzmi
View
4
Download
0
Embed Size (px)
DESCRIPTION
teoría de los juegos. En busca de la ecología de la forma. ecología urbana y criterios de sostenibilidad.arquitetura urbanismo, teorias.
Citation preview
ANEXO A
CONCEPTOS
OPERATIVOS
ANNEX A
OPERATIVE CONCEPTS
ANEXO A
MANUEL JOS SIERRA HERNNDEZ
371
El presente anexo trata de una exposicin resumida y concisa de
los conceptos operativos que en este trabajo se utilizan.
Principalmente, son los siguientes:
- Teora de la informacin o de la comunicacin.
- Valores discretos y valores continuos.
- Lgica difusa.
- Teora de juegos.
- Teora de la complejidad computacional.
- Incompletitud.
1. A Mathematical Theory of Communication [1]
El artculo que da ttulo a este punto, fue publicado en 1948 en la
revista The Bell System Technical Journal por el ingeniero
elctrico y matemtico estadounidense Claude Elwood Shannon.
Aunque algunas de las leyes matemticas en l descritas ya fueron
presentadas veinte aos atrs por Hartley, uno de sus colegas en
los laboratorios Bell, y sus planteamientos tericos introducidos
por varios autores, es en este artculo donde por primera vez se
fundamenta el hecho que si la nocin de comunicacin se puede
entender como todos aquellos procedimientos mediante los
cuales una mente puede influir en otra [2], entonces, adems de
atender en el comunicado a la componente semntica (cmo se
estructura para dar significado) o pragmtica (las modificaciones
en la conducta que el mensaje produce), tendramos que
preguntarnos adems por el procedimiento de transmisin entre el
emisor y el receptor. En otras palabras, los aspectos tcnicos del
comunicado. No porque se hable o se intente comunicar algo toda
la informacin puede ser comprendida o interceptada por el
receptor; si el canal se halla contaminado por ruido de otra
procedencia, o si el propio emisor ofrece informacin de ms, el
sentido podra incluso perderse, tornarse confuso. La
comunicacin, de repente, pasa a ser algo susceptible de ser
imperfecto. Para ello, el propsito inicial de la Teora de la
Comunicacin, o de la Informacin, supuso el ser un intento de
modelizar matemticamente los problemas que los incipientes
medios de informacin en pleno desarrollo (la radio, la televisin, el
telfono, etc.) planteaban. En este contexto, las preguntas a las
que este modelo tena que responder eran las siguientes: Cul es
la capacidad de carga de un determinado medio o canal?, Qu
medio es el mejor para reproducir un determinado tipo de
mensaje? y cmo separar las distorsiones, el ruido, la informacin
de ms, del mensaje? Con estas premisas, haba que conformar
una metodologa que permitiera computar, hacer cuantificable, la
capacidad del canal, el ruido del canal y la informacin contenida
en el mensaje.
Un primer paso para desentramar esta metodologa sera cmo
conceptualizar la transmisin del mensaje. En un comunicado
podemos distinguir entre el contenido o lo que se expresa, el
cdigo que sirve para configurar el mensaje, el modo de
transmisin, el medio o canal por el que se transmite, y el tiempo
requerido para la comprensin del contenido. Por ejemplo, un
poema de Garcilaso, las variantes fonticas del castellano, la voz
humana, el aire de una sala, y a la par que se pronuncia el poema.
ANEXO A
373
This annex contains a brief exposition of the
operative concepts that mainly have been used:
- Theory of Communication or of
Information
- Computational Complexity Theory
- Discrete and Continuous Mathematics
- Fuzzy Logic
- Game Theory
- Incompleteness
1. A Mathematical Theory of Communication [1]
In the study of the communication there is a
semantic perspective (how the language is
structured to produce meanings) and there is
also a pragmatic one (the effect that the
communication produces in the receiver). It
should also have a technical perspective, we
would have to wonder about the transmission
method between an originator and a receiver. It
is possible that although we emit a message it
could not arrive to the receiver.
In 1948, Claude Elwood Shannon
formulated the Mathematical Theory of
Communication (or of the information), to
respond the necessity of studying these technical
aspects. We need, to communicate a message,
a system of signs to configure it, a channel to
transmit it and a method that would be
compatible with the necessary time that the
receiver needs to understand the message
appropriately. The first step would be not to keep
in mind the meaning of the message, but only
the signs that are transmitted. We have a group
of signs with which we can configure infinite
messages. The quantity of information of the
message would be the probability that aleatorily,
with that system of signs, we can configure it.
For example, a position in a chess board. The
probability would be of 1/64 because the board
La teora de la informacin apareci para estudiar
los aspectos tcnicos de los primeros medios de
comunicacin. The theory of information appeared
to study the technical aspects of the first media. Sin
referencia. Without reference.
Una primera conclusin es que, lgicamente, para que se
transmita el mensaje a travs de un medio, ste tiene que ser
compatible con el modo de transmisin. La palabra hablada no se
transmite en el vaco. Por otra parte, el modo de transmisin debe
ser capaz de formular todos los diferentes matices que puede dar
de s el cdigo. Y en tercer lugar, el contenido tiene que poder ser
construido con ese cdigo. Con estas relaciones obtenemos que
un mensaje es susceptible de ser enviado si su contenido es
codificable, toda la variedad de matices de ste es abordable por
el modo de transmisin, su naturaleza es compatible con el medio
o canal, y el tiempo requerido para su transmisin es el correcto.
Un segundo paso consistira en tratar de reducir todas estas
variables. Si la naturaleza del modo de transmisin es compatible
con el medio o canal entonces pueden simplificarse a una sola: el
canal. Y, modificando el orden entre el contenido y el cdigo,
quizs resultase mejor si en vez de partir de un contenido
especfico del mensaje, pensar que ese sistema de codificacin,
aparte de poder generar ese comunicado en concreto, es capaz de
hacerlo con otros muchos. De este modo, resulta mucho ms
prctico trabajar con todos los contenidos posibles que con uno
solo, contemplar la comunicacin ms que como la transmisin de
un contenido como la transmisin de un grado de libertad, que se
caracterizara por esa esta variedad de mensajes posibles. Por
ejemplo, si cada colocacin en un tablero de ajedrez fuera un
mensaje, el nmero sera igual a sesenta y cuatro posibles
colocaciones.
Aunque, no es que se elimine el poder trabajar con un
contenido en concreto, sino que lo que se hace es relacionarlo con
ese grado de libertad. Se introduce el concepto de cantidad de
informacin de un mensaje y se introduce como la probabilidad
[3] o incertidumbre de que aleatoriamente se pueda formular ese
contenido mediante ese cdigo. En un tablero de ajedrez,
siguiendo con el ejemplo, existe una probabilidad, o incertidumbre,
de uno contra 64 (o 6 bits de informacin, como se explica ms
adelante) de que aleatoriamente se opte por una colocacin
concreta. En mensajes ms complicados como escribir una
palabra, la incertidumbre se multiplicara por la eleccin de cada
letra (con cada paso la informacin o grado de libertad es de 28
posibles caracteres).
Un tercer paso sera ya definir cmo computar la informacin. Esto
se realiza a travs de una unidad de medida, el bit de informacin,
que se puede definir como el nmero de preguntas con una
cantidad de respuestas posibles fija que seran necesarias para
distinguir un mensaje en concreto dentro del grado de libertad.
Normalmente, el nmero de respuestas fijas es de dos: s/no,
blanco/negro, 0/1, etc., obteniendo as un cdigo binario. Ahora
bien, si entendemos que cada una de estas preguntas reduce a la
mitad los posibles mensajes, entonces no habr dificultades a la
hora de catalogar que si la cantidad de informacin de un
comunicado es de 6 bits, no es que haya (2x6) 12 posibles
mensajes esperando a ser utilizados, sino 64 (2 elevado a 6). Por lo
tanto, para calcular la cantidad de informacin de un comunicado,
la frmula sera log
2
A (logaritmo en base 2 de A), siendo A el
nmero de posibles contenidos que se pudieran enviar.
Con esto ltimo ya podemos saber la cantidad de
informacin de un comunicado, no obstante necesitaramos de una
ANEXO A
374
has 64 cells.
The measure unit is the bit. The bit is
defined as the number of questions with a finite
number of answers that would be necessary to
configure the message. That number of answers
is usually two (yes/no, white/black, 0/1.)
obtaining this way a binary system. Every time
we formulate a question we reduce the number
of possibilities in half, therefore if in a chess
board we have 64 possible placements, the
number of questions or of bits it is log
2
64 = 6.
The following step would be to define
the necessary time to transmit the message. We
have a transmission channel. The capacity of the
channel is the number of signs that is able to
transmit for unit of time multiplied for the variety
of signs with which it configures the message.
For example, a channel that only transmits 0 and
1 and whose transmission speed is of 6 signs
per second. Its capacity would be of 1bit x 6 = 6
bits/s. This channel would take one second in
transmitting a position in a chess board.
Nevertheless, let us imagine that we
want to transmit a video. They are twenty-four
images per second, each picture is made up of
100 pixels, and 256 tonalities exist. The previous
channel of 6 bits/s would take 400 seconds in
transmitting a single picture. If we are patient this
transmission speed is correct. But, what happens
if we want to see the video on real time? This
transmission speed is insufficient. The
appropriate channel is that that can transmit the
message in the time that we want.
Now then, the quantity of information
can decrease. If in the message exists signs that
are more usual than others, we understand that
there is a redundancy of that sign. This way, the
probability to conform a message aleatorily is
smaller since we know that this sign is more
usual.
However, the quantity of information of a
message can also increase. We have a channel,
and through it the information that we want to
transmit is transmitted, but at the same time,
without realizing, another class of information
64 posibles colocaciones igual a 6 bits de
informacin. 64 cells equal to 6 bits of information.
Malfada, de Quino.
quinta variable, el tiempo requerido, para analizar su inteligibilidad,
o mejor dicho, su adecuacin o fidelidad de reproduccin en un
determinado canal. Por ejemplo, intentando dar respuesta a una de
las preguntas que al principio se sealaron: cul es la capacidad
de transmisin de un canal? En ausencia de ruido, si el nmero de
caracteres diferentes que contiene el sistema de codificacin es de
32 (5 bits), y el nmero de estos caracteres que puede enviar por
segundo, o representar simultneamente, es de N, entonces la
capacidad del canal es de 5xN bits/segundo o 5xN bits
simultneos. Esto conectara con otra pregunta: qu medio es el
mejor para reproducir un determinado tipo de mensaje? Aquel que
permita combinar la reproduccin de la cantidad de informacin
del mensaje con el tiempo o espacio que se estimara necesario
para que el contenido adquiera sentido. Siguiendo con el ejemplo
del tablero de ajedrez, con 64 posibles situaciones, si en el anterior
medio o canal 5xN bits, N es igual a 1, entonces se tardaran dos
segundos en enviar un mensaje. Esto en principio parece viable,
pero imaginemos que en vez de la colocacin de una ficha en un
tablero de ajedrez, se enva una grabacin de video de 8 bits de
color (256 tonalidades diferentes). Podemos enviar la imagen por
este canal? S, igualmente. Incluso se podra enviar dicha imagen a
travs de un cdigo morse, con seales largas y cortas que
funcionan como ceros y unos que codifiquen cada una de las
tonalidades. Otra cuestin es si se pretende que el receptor
contemple la imagen a tiempo real a la vez que la enva el emisor.
Tenemos un canal de 5 bits por segundo, para una grabacin de 8
bits multiplicada por el tamao de la imagen y por el nmero de
imgenes por segundo que requiere para simular el movimiento.
Resultara del todo insuficiente. Para ver la imagen con estos
requisitos de tiempo necesitaramos una capacidad al menos igual
o superior que la que dicha imagen necesita. A este requerimiento
de bits de informacin en el tiempo o de manera simultnea, se le
llama tasa de transmisin, un nmero que relaciona la cantidad de
informacin del mensaje y el tiempo que se requiere para su
transmisin.
Ahora bien, la cantidad de informacin de un mensaje puede
reducirse si se hiciera constar las repeticiones o la redundancia
que dentro de su contenido tienen determinados fragmentos de
cdigo. Dicho de otro modo, si se repiten palabras, o se repiten
posiciones, o existe un determinado reglamento, por ejemplo de
tipo ortogrfico, entonces la probabilidad de que un mensaje se
conforme aleatoriamente bajo dichas reglas, es mayor que si no
existiese dicha redundancia en los contenidos, y por tanto la
cantidad de informacin es menor. Por ejemplo, en una situacin
de inicio de partida de ajedrez, la colocacin de la reina se reduce
a un bit de informacin (dos posiciones a un lado y al otro del
tablero), la de los alfiles, los caballos y las torres, a dos bits, y la de
los peones a cuatro bits. No obstante, si decidimos que slo nos
incumbe la posicin de los peones negros, la informacin se
reduce a tres bits, y que un pen negro es indistinguible de otro
pen negro, entonces a medio bit: cualquier posicin de la
segunda fila del lado de las negras.
No obstante, el contenido del mensaje tambin puede
aumentar la informacin. Cambiando de ejemplo, si tuviramos
que responder a la pregunta acerca del da del ao en el que naci
una persona, en principio variaramos sobre 365 posibilidades (o
dicho de otro modo, 8.51 bits de informacin). Si a esta pregunta
ANEXO A
375
could be transmitted. This information is added
to the message, the quantity of information of the
same one increases, and it would be possible
under these conditions that the channel cannot
transmit the message in the time that it requires.
This excess of information is denominated
noise.
Finally, to conclude with this point, it is
necessary to introduce the formula that Shannon
proposed for the computation of the information:
H = P
i
log
2
(1/P
i
); P
i
es la
probabilidad de encontrar un
determinado signo dentro del mensaje.
Pi is the probability of finding a certain
sign inside the message.
2. Computational Complexity
The purpose of this point is to introduce the
algorithm concept, mainly from the point of view
of its effectiveness. The algorithmic, or
computational, complexity is the discipline that
studies these circumstances.
An algorithm is a process constituted by a series
of steps by which it negotiates an input and
obtains an output. This number of steps must be
finite. Besides, each step must be perfectly
defined and to offer precise results. These steps,
and the memory that they need, in other words,
the resources that the algorithm needs,
constitute the computational complexity of the
algorithm. An algorithm is more effective than
other if for the same operation, its complexity, the
Diseo de John Maeda. Maeda es autor de una
buena parte de los emoticones y otros elementos
que a menudo vemos por Internet y que por s
solos son capaces de comunicar un mensaje
integrado proveniente de ms all de la propia
imagen. Para recibir un mensaje, necesitaramos
un programa cuya capacidad de memorizacin de
emoticones fuera al menos igual o superior que la
que dicho mensaje necesita. Design of John
Maeda. Maeda is author of a big part of the
emoticons and other elements that we often see for
Internet and that are able to conform a message by
themselves. To receive a message, we would need
a program whose capacity of memorization of
emoticons would be at least the same or bigger that
the one that the message needs. MAEDA, J. (2006)
Las leyes de la simplicidad. Editorial Gedisa,
Barcelona, 2007.
resolviramos con la afirmacin naci en verano, entonces
reduciramos a la mitad (puesto que no sabemos si naci en el
hemisferio norte o sur), y el nmero de posibilidades sera
aproximadamente de 182 (7.51 bits). No obstante, podra suceder
lo contrario: que propongamos la afirmacin dicha persona tiene
ms de cuarenta aos. Se trata de informacin, pero no es la que
buscamos para reducir o para desentramar el mensaje. Sin
embargo, se aade a l, es una posibilidad ms que la
comunicacin contiene, por lo que el nmero de mensajes
posibles se amplia: existen 365 das en los que esa persona ha
podido nacer y aparte puede tener ms o menos de cuarenta aos.
El nmero de posibilidades se acrecienta, a 730, siendo el nmero
de bits de informacin de 9.51.
Por un lado se puede opinar que este bit de ms acrecienta
el grado de libertad del comunicado, el nmero de posibilidades.
Por tanto, la flexibilidad que el emisor presenta a la hora de
expresar sus intenciones. Sin embargo, tiende a confundir el
objetivo del comunicado, que es averiguar el da del ao en que
naci esa persona. No es informacin relevante en el mensaje,
pero se acopla a l. Introduce incertidumbre, pero si el saber que
contamos con 365 das es una incertidumbre deseada, en este
caso la incertidumbre no es deseada. En definitiva, este tipo de
informacin irrelevante es lo que se denomina ruido, datos,
interferencias, informacin de ms, que al aumentar la cantidad de
informacin disminuye la probabilidad de conformacin del
mensaje, de tal modo que ste, dependiendo del canal, de la tasa
de transmisin necesaria para que se reproduzca de un modo
coherente, pudiera incluso no llegar a codificarse, transmitirse e
interpretarse adecuadamente [4]. El aumento de la incertidumbre y
la capacidad del canal influye en la transmisin del mensaje:
demasiada informacin que necesita transmitirse en muy poco
tiempo dificulta la fidelidad y la inteligibilidad del mismo.
Es en este punto donde entra la resolucin de la tercera cuestin:
cmo separar las distorsiones, el ruido, la informacin de ms, del
mensaje? Para ello, es necesario introducir el concepto de entropa
(H). La entropa mide la aleatoriedad de un mensaje, es decir, es
bastante similar al concepto de probabilidad excepto que se mide
en bits de informacin. Su formulacin es la siguiente:
H = P
i
log
2
(1/P
i
);
P es la probabilidad en tanto por uno de sucederse cada uno de
los smbolos de un mensaje. Si por ejemplo dispusiramos cuatro
signos que se interpretan como estados del tiempo (nublado,
soleado, lluvioso, niebla) y los asociramos a cada uno con una
probabilidad de sucederse, entonces la entropa medira la
capacidad de poder predecir el siguiente estado de una manera
aleatoria. Si el valor de la entropa fuera alto significara que todos
los estados tienen probabilidades parecidas de sucederse por lo
que sera difcil la prediccin. Si en cambio fuera bajo eso querra
decir que habra valores con distintas probabilidades por lo que
resultara ms fcil discretizar entre los mismos. De este modo,
siguiendo este concepto de la entropa, la separacin del ruido del
mensaje respecto de lo que en realidad interesa se realizara
mediante la aplicacin de teoremas (de los cuales no creo que sea
el tema de este trabajo el entrar a fondo a analizarlos) cuyo objeto,
ANEXO A
376
resources that it needs, is smaller.
For example, you can distinguish
between space and temporary complexity. The
space complexity is the memory that the
algorithm requires. But let us stop better in the
other complexity. The temporary complexity is
defined as the necessary number of steps for a
certain operation. The nomenclature is T (n),
being n the number of steps. Depending on
this number the algorithms can be classified in
complexity classes:
- O(1), constant complexity class.
- O(log n), logarithmic complexity class.
- O(n), lineal complexity class.
- O(n log n), quasi-lineal complexity
class.
- O(n
2
), square complexity class.
- O(n
3
), cubil complexity class.
- O(n
a
), polinomio complexity class.
- O(2
n
), exponential complexity class.
- O(n!), factorial complexity class.
An algorithm to conform a net among n
elements of a group would be formulated in the
following way: T (n) = (n
2
- n) / 2, a square
complexity class O(n
2
).
The previous text corresponds to a brief
description of the computational complexity
theory. Also, in this topic, it is convenient to
speak of the Kolmogorov Complexity. Usually,
this theory is introduced as an alternative
information theory to Shannons. Shannon
describes the quantity of information as the
probability to conform a message aleatorily.
Kolmogorov, on the other hand, describes the
number of steps that would be necessary to
compose a message.
For example, we have the two following
code lines:
A: 01010101010101010101
A travs de un registro histrico meteorolgico, la
entropa sera igual a la probabilidad de predecir
qu tiempo har maana. Through a historical
meteorological registration, the entropy would be
similar to the probability of predicting tomorrow's
weather. www.inm.es
a travs del anlisis de las distintas probabilidades, sera el clculo
de una entropa media alrededor del cual se disponen los datos
que interesan para la emisin del mensaje.
2. Complejidad algortmica.
El propsito de este punto es introducir el concepto de algoritmo, y
particularmente desde el punto de vista de su eficacia. La
complejidad algortmica, que se constituye como una rama de la
teora de la computacin, es la disciplina que estudia estas
circunstancias.
La definicin de un algoritmo se corresponde con la formulacin
de un proceso o serie de pasos por los cuales se gestiona una
entrada de datos y se obtiene una salida. Para este cometido, cada
paso debe estar perfectamente definido, arrojar resultados
precisos, no indeterminados, y el nmero en total de stos ser una
cantidad finita. Con esta definicin se considera que un algoritmo
es ms eficaz que otro si para un mismo tipo de operacin, por
ejemplo ordenar los elementos de un conjunto desordenado segn
categoras, el nmero de recursos necesarios es menor. A esta
cantidad de recursos se le denomina complejidad algortmica o
computacional, y segn el tipo de recursos se puede distinguir
entre complejidad temporal, el tiempo empleado, y complejidad
espacial, la memoria requerida por el suceso.
Desde el punto de vista de este trabajo, es particularmente
interesante detenerse en la complejidad temporal. El tiempo
empleado se halla en relacin con el nmero de pasos, y tambin
de otros factores como el tipo de mquina empleada, el lenguaje
de programacin, etc. Esto se escribe con la nomenclatura T(n) ,
siendo n el nmero de datos de entrada. Para simplificar esto, lo
que se hace comnmente es independizar al nmero de pasos del
resto de los factores, y agrupar los diferentes tiempos en familias
llamadas rdenes de complejidad, de este modo se obtiene una
serie de familias O que son comunes para todos los
computadores y con el cual evaluar los algoritmos. Los rdenes de
complejidad ms habituales, ordenados de mayor a menor
eficacia, son los siguientes:
- O(1), orden de complejidad constante.
- O(log n), orden de complejidad logartmico.
- O(n), orden de complejidad lineal.
- O(n log n), orden de complejidad cuasi-lineal.
- O(n
2
), orden de complejidad cuadrtico.
- O(n
3
), orden de complejidad cbico.
- O(n
a
), orden de complejidad polinmico.
- O(2
n
), orden de complejidad exponencial.
- O(n!), orden de complejidad factorial.
Un algoritmo que consista en la seleccin de un elemento
dentro de un conjunto, contiene una sola operacin, y pertenece a
un orden de complejidad constante O(1).
Un algoritmo que consista en un proceso de ordenacin de
n elementos dentro de un conjunto desordenado en una serie de
categoras podra requerir para cada elemento de tres operaciones:
seleccin, identificacin y distribucin, por lo que T(n) = 3n, y
ANEXO A
377
B: 10011010110010110110
Both sequences, according to Shannon,
have the same information because the number
of 0 and 1 is the same. But, according to
Kolmogorov, that defines the quantity of
information like the number of bits of the minimum algorithm to conform the sequence, A has less quantity of information than B because it
can be formulated by the algorithm Repeats 01
ten times, while B would have to repeat the
whole sequence. Finally, an operation that
cannot be solved by any algorithm, you can
understand that its complexity is infinite.
3. Discrete and Continuous Mathematics
The discrete mathematics are those that
predominantly are used in the matrixes of
territorial shift. Hence, it is licit to describe on
what they consist and to differentiate them of
another type of mathematics as the continuous
ones.
The discrete mathematics are those that
only admit operations with rational and finite
numbers. The continuous mathematics, on the
other hand, are those where are possible an
irrational number as a result.
In general, the continuous mathematics
have more precision than the discrete ones since
they admit a bigger numeric spectrum.
Nevertheless, when calculating, the continuous
mathematics we could have big problems. These
mathematics admit infinite and irrational
numbers, processes with an infinite number of
steps. Just as it is contemplated in the previous
point about the computational complexity, these
numbers, these processes, cannot be contained
by any algorithm. In other words, they are not
computable. This way, the discrete mathematics
are those that preferably are used in that
necessity of computability.
4. Fuzzy sets [2]
Fuzzy sets were introduced for the first time by
the Russian mathematician Lofti A. Zadeh in
1965. Fuzzy Sets appeared as a result of the
appearance of a logic type that equally was
denominated as fuzzy.
Classic logic only admits two answer
classes: yes/no, true/false, etc. But there are
considerations that need a bigger number of
answers, even tending to infinite. For example,
the next question: is that person tall or not? A
possible answer would be: Tall with regard to
what? It doesnt exist an only answer. The
solution would be to take two reference values
as a meter and two meters and to consider that a
person is more or less tall depending if his/her
height is closer to a value or to the other one.
This is an example of a fuzzy set that accepts
infinite solutions. If for the statement: that person
entrara dentro de un orden de complejidad lineal O(n).
Un algoritmo para el establecimiento de conexiones entre
todas las componentes de un conjunto requerira de T(n) = (n
2
n) / 2, y el orden de complejidad que se obtendra sera cuadrtico
O(n
2
).
Lo desarrollado hasta ahora se concibe como una breve
introduccin a la complejidad computacional. Aparte, es lcito
comentar un punto especfico dentro de ella. La Teora de la
Complejidad Algortmica fue formulada en 1965 por el matemtico
ruso Andri Kolmogrov. Usualmente se la contempla como una
teora de la informacin alternativa a la propuesta por Shannon
veinte aos atrs. La diferencia consiste en que si la teora de
Shannon se atiene a la probabilidad con que los distintos smbolos
o fragmentos de cdigo aparecen en un mensaje, la complejidad
de Kolmogrov concibe el comunicado como un todo, como una
secuencia de orden establecido inalterable, y su cometido es
calcular los pasos necesarios que requerira un algoritmo para
componer ese mensaje.
Por ejemplo, tenemos las dos siguientes secuencias binarias:
A: 01010101010101010101
B: 10011010110010110110
Ambas secuencias, por la teora de Shannon, poseen la
misma cantidad de informacin ya que el nmero de ceros y de
unos es el mismo. La cuestin difiere con Kolmogrov, que define
la complejidad de una secuencia como la longitud en bits del
mnimo algoritmo que es necesario para reproducirla [5]. La
secuencia A se puede formular con un algoritmo del estilo: Repite
01 diez veces, mientras que en la secuencia B no se reconoce
ningn patrn y el mnimo programa tendra que referirse a la
cadena al completo. De este modo, la complejidad de Kolmogrov
de B es mayor que la de A. La utilidad de esta teora descansa en
la posibilidad de comprimir cadenas y de reducir as los recursos
que una mquina, que una computadora, necesitara para codificar
la secuencia. Si existe ese mnimo algoritmo, la complejidad de la
secuencia es la longitud de ese algoritmo. En cambio, si se revela
la incapacidad de encontrar un algoritmo que formule esa cadena
entonces la complejidad de Kolmogrov es igual a infinito.
3. Valores discretos y continuos.
Las matemticas discretas son las que predominantemente se
emplea en las matrices de cambio territorial. Por ello, es lcito
describir en qu consiste y diferenciarlas de otro tipo de
matemticas como son las continuas.
Para empezar, es preciso definir una funcin continua como
aquella en la que sus resultados pueden ser nmeros enteros,
pero tambin otros que tan slo son una aproximacin hacia algo,
o un nmero irracional, o incluso que tiende a infinito. El nmero
dos, por ejemplo, en una funcin continua podra solamente existir
como lmite hacia el cual tienden las sucesivas operaciones pero
sin llegar nunca a l; es decir, llegar un momento en el por mucho
que avancemos en el desarrollo de dicha funcin, lo nico que
conseguiramos sera expandir la serie peridica de nueves del 1.9,
ANEXO A
378
is tall, one meter is false and two meters true,
this logic allows us to take infinite intermediate
values growing the truthfulness of that statement
in the measure it comes closer to two meters.
5. Theory of Games and Economic Behavior [3]
The game theory was outlined per first time by
mathematicians Morgensten and Von Neumann.
Its purpose is the analysis of the different
behaviors that the players attack to achieve an
objective. To each strategy a result corresponds:
winner, defeats, tie, balance situation. Inside the
different situations that can be given in the game
theory, one of the most well-known models is the
denominated Nash Equilibrium [4], a situation
in which all the players have a strategy that
whenever they don't change it they will obtain a
minimum gain.
5.1 Classification of the different types of games.
Games can be classified in the following way:
- Symmetric and asymmetric games. The
symmetrical games are those where the different
players adopt the same role, or said with other
words, they can exchange their roles without
changing the game rules and the results. The
asymmetric games are those where this
condition is not possible. For example, the fight
between a dictator and a rebellious.
Problema de los puentes de Knigsberg. La teora
de grafos naci de la pregunta de los habitantes
de Knigsberg acerca de si se poda, cruzando los
siete puentes de la ciudad una vez, regresar al
mismo punto. Euler, en 1736, demostr que no se
poda. Valores discretos, lo importante no es la
trama al completo de la ciudad, ni los accidentes
del ro, ni la distancia entre un puente y otro, tan
slo la posicin de los puentes con respecto de las
islas y de los mrgenes. Problem of the bridges of
Knigsberg. The graphs theory was born from the
question of the inhabitants of Knigsberg about if
one could, crossing the seven bridges of the city
once, to return to the same point. Euler, in 1736,
demonstrated that this question was impossible.
Discrete values, the important thing is not the
complete city, neither the accidents of the river,
neither the distance among a bridge and other, only
the position of the bridges with regarding the
islands.
pero jams el valor 2. En definitiva, las matemticas continuas son
aquellas que admiten que cualquier valor de la linealidad entre
menos y ms infinito, ambos inclusive, sea susceptible de ser un
resultado.
En contra, las matemticas discretas son aquellas que
nicamente admiten operaciones con nmeros racionales y finitos.
Al operar nunca obtendremos aproximaciones hacia algo, tan slo
cantidades y operaciones finitas. Como la misma palabra indica se
discretiza dentro del amplsimo e infinito panorama del campo
matemtico continuo. Expresado con un ejemplo cromtico, en
matemticas discretas trabajaramos con el blanco, el negro, y si
acaso tres o cuatro tonalidades de grises que hayamos
preseleccionado. Esto es, un nmero finito de valores. En
Matemticas continuas en cambio estaramos abiertos a operar
con infinitos matices de grises intermedios, no necesariamente
preseleccionados, sin tener que llegar nunca al blanco o al negro.
Un acercamiento a la relacin entre ambas matemticas se
podra explicar por medio de la precisin. A priori, el discretizar
entre la linealidad de los valores continuos, el negar la posibilidad
de que determinados valores participen o sean resultado de las
operaciones, aparentemente disminuye la precisin. Slo
aparentemente. La Teora de la Informacin, por ejemplo, si se
trabajase con cantidades de informacin que pueden tender a
infinito contradice la propia necesidad de computabilidad finita de
la misma; la hace ms compleja de lo que debera de tal manera
que la incertidumbre es infinita. Del mismo modo, un algoritmo
debe contar con un nmero de pasos finito porque en caso
contrario no podra ser introducido en una mquina. En la Teora de
grafos no se puede trabajar con el territorio completo, con todos
los matices, con todas las variables y atributos, sino que se
requiere discretizar puntos dentro de l para despus
relacionarlos; en caso contrario dichas relaciones tendran que
pasar por todos las situaciones intermedias, tener en cuenta su
influencia en cada una de las partculas y atributos, de tal modo
que la modelizacin se perdera en infinitas operaciones. O la
pixelizacin de una fotografa, el ordenador no puede desplegar
hasta el infinito la gama de detalles y de color de la imagen; en
caso contrario el nmero de bits necesarios para almacenar dicha
imagen sera infinito y no tendra capacidad para operar con ella. El
acoger los valores discretos como modo de operar supone trabajar
con no linealidades, con entidades finitas. Puede suponer una
reduccin, pero si analizramos por ejemplo un rbol de una
manera continua, la informacin que obtendramos copara la
memoria de todos los ordenadores del mundo y an as seguira
sobrando. Respecto de la Teora de la Informacin, se podra
afirmar que cuanto la cantidad de informacin ms se acerque a
infinito, ms nos acercaremos a operar con valores continuos. Pero
si un mensaje se define por una probabilidad, y sta es
inversamente proporcional a la cantidad de informacin, entonces
la probabilidad sera igual a cero, y ese mensaje de ningn modo
podra ser enviado o generado. De aqu podramos obtener una
conclusin inesperada: un objeto real o material nunca puede ser
transmisible, puesto que su cantidad de informacin tiende a
infinito. Y si la cantidad de informacin tiene que ser finita, la
informacin entonces puede ser una magnitud fsica cuantificable
pero se trata de una magnitud fsica necesariamente virtual.
En conclusin, es razonable pensar que las matemticas
ANEXO A
379
- Games of zero sum and non zero sum. The
games of zero sum are those where the sum of
the playerss losses and earnings is equal to
zero. That is to say, one player only can win
whenever the other player loses, and the
quantity of what he/she obtains is similar to what
his/her litigant loses.
- Cooperative and not cooperative games.
Cooperative games are those where the different
players collaborate to get a result.
- Simultaneous and sequential games. The
simultaneous games are those where the players
don't know information of the previous
movements of the other litigants. The sequential
games, in the other hand, are those where the
players know part of the previous steps of the
rest of the competitors, or all the steps as in the
games of perfect information.
- Finally, infinitely long games. It doesnt exist a
final result and the interesting thing in these
games is to value the strategic position of every
player in order to confront the future challenges.
6. Incompleteness
For incompleteness it is understood in
mathematics the impossibility of consolidating a
only perfect formal language, built by a series of
rules, starting from those you are able to
formulate all the propositions and theorems of
this discipline. This matter presents a great
transcendency nowadays as soon as the
confirmation of this incompleteness indicates that
it is possible to find certain problems, certain
propositions that at least with the help of the
computers wont never be solved.
In 1931, Kurt Gdel demonstrated [5] that this
formal language can not exist, there are
propositions that can not be outlined by a group
of rules, even in elementary mathematics using
natural numbers.
Not very later, Turing demonstrated that
there were certain operations that can not be
resolved by an algorithm. As the problem of the
detention, to know when an algorithm stops
working when it has obtained a result.
Lastly, the computational complexity
indicates us that an algorithm is more efficient
than other if, for the same operation, the number
of resources is smaller. Nevertheless, one
cannot know if that algorithm is the most efficient
that you can formulate.
[1] SHANNON, C. E. (1948) A Mathematical Theory of Communication. Published in The Bell System Technical Journal. Vol. 27, PP. 379.423, 623.656, July-
October, 1948.
[2] ZADEH, L. (1965) Fuzzy sets. Information and Control 8, Pgs. 338-353, University of Berkeley, 1965.
continuas presentan una mayor precisin que las discretas, pero
en cuanto se refieren a objetos virtuales finitos, las matemticas
discretas resultan ser ms precisas que las continuas.
4. Fuzzy sets [6]
Fuzz es una palabra inglesa que se puede traducir como tamo,
pelusa, vello [7]. En este sentido, se puede hablar de Fuzzy como
lleno de pelusas, nebuloso, borroso. Finalmente, Fuzzy Sets
como establecimientos o conjuntos difusos.
Los conjuntos difusos fueron introducidos por primera vez
por el matemtico ruso Lofti A. Zadeh en 1965, en su artculo Fuzzy
Sets, publicado por el departamento de publicaciones de la
Universidad de Berkeley en Estados Unidos. Los conjuntos difusos
aparecen como la expresin de la resolucin de un determinado
modelo de lgica que igualmente responde bajo el adjetivo de
difusa, borrosa o nebulosa (fuzzy). Fuzzy en cuanto que no ofrece
resultados concretos, o mejor dicho, que trata de preguntas cuyas
respuestas no tienen una definicin clara.
Por ejemplo, la lgica clsica o bivaluada (dos valores) slo
presenta dos clases de respuestas: verdadero o falso, 0 o 1,
blanco o negro, etc. La respuesta a la pregunta si los hombres son
mortales es verdadero; si la pregunta consistiera en si la sangre es
prpura la respuesta sera falso. Ahora bien, qu pasara si la
pregunta fuese del tipo si esa persona que vemos en frente nuestra
es alta? Primero, alta con respecto a qu? Y segundo: si acaso
esa persona se la considerase alta, no podra existir otra todava
ms alta? La lgica difusa (o multivaluada porque permite mltiples
respuestas) dara solucin a esta disyuntiva proponiendo unos
valores de referencia entre los cuales puede incluirse la medida de
la altura de esa persona. Si un metro es bajo (0), y dos alto (1), esa
persona se la considerara ms o menos alta en funcin de su
cercana a los valores de un metro y dos metros. Si midiera 1.75,
entonces el valor de su altura perteneciente al conjunto difuso
entre 0 y 1 sera de 0.75. Dicho de otro modo, si 0 es falso y si 1
fuera verdadero, la veracidad de una afirmacin crecera con
respecto se acercase a 1.
Esto es, no existen nicamente dos posibles respuestas,
sino infinitas entre los valores de 0 y 1. Si comparramos con lo
que comentamos en el anterior apartado acerca de valores
discretos y valores continuos, la lgica clsica o bivaluada
pertenecera al mbito de las matemticas discretas; en oposicin,
la lgica difusa se acercara ms a los valores continuos. No
obstante, hay que hacer aqu una aclaracin. Los conjuntos difusos
surgen de una discretizacin de la linealidad en un solo intervalo.
Funcionan porque se ha acotado el campo continuo. Si en la teora
de la informacin el nmero de posibles mensajes que se pueden
enviar debe ser finito precisamente para que pueda ser enviado, en
la lgica difusa se permite trabajar con un infinito nmero de
posibilidades siempre que se hallen acotadas por los lmites de
verdadero/falso, 0/1, blanco/negro, alto/bajo, etc. Dicho de otro
modo, con la lgica difusa se podra conseguir el extender cada bit
de informacin a un infinito nmero de valores. O al revs, acotar
infinitos valores en un solo bit de informacin.
Por otra parte, la lgica difusa tambin permite operar con
magnitudes y respuestas intermedias. Por ejemplo, con una lgica
ANEXO A
380
[3] MORGENSTERN, O.; NEUMANN, J. V. (1947)
Theory of Games and Economic Behavior. Princeton University Press.
[4] NASH, J. F. (1950) Equilibrium points in n-person games. Proceedings of the National Academy of the USA.
[5] NAGEL, E.; NEWMAN, J. R. (1958) Gdels Proof. Routledge, New York, 2005.
Get Fuzzy, de Darby Conley. Las relaciones entre
un perro y un gato no se limitan a una lgica
bivaluada entre el perro no persigue al gato y el
perro persigue al gato, hay que tener en cuenta
las infinitas posibilidades intermedias. Get Fuzzy, of
Darby Conley. The relationships between a dog and
a cat are not limited to a dual logic between the
dog it doesn't pursue the cat and the dog pursues
the cat, it is necessary to keep in mind the infinite
intermediate possibilities. CONLEY, D. (2002) Get
fuzzy (A contrapelo n2); Logica Difuzza. Astiberri
Ediciones, Bilbao, 2007.
bivaluada o es todo (verdadero) o es nada (falso). Con la lgica
difusa lo que obtenemos es un nivel de respuestas acorde con la
magnitud de la entrada. Si el grado de veracidad de una
proposicin es tal, el modo de actuar a continuacin deber ser en
consecuencia y proporcional a tal. Esto se puede ver en las
diferencias que Fredric Jameson [8] seala entre el fordismo y el
postfordismo. Si en los principios de las cadenas de montaje, el
consumidor poda elegir entre el Ford T negro, y el Ford T gris (o
blanco o negro, o verdadero o falso, o alto o bajo, etc.), la industria
fue evolucionado hacia lo que hoy llamamos postfordismo, el cual,
basndose en las tecnologas de la informacin, no es que el
consumidor haya de elegir entre el modelo negro o el gris, sino
que la industria acoge sus preferencias de color, textura, tamao,
peso, prestancia, etc., y le confiere al consumidor un coche a su
medida (a cada valor dentro de intervalo corresponde una
determinada y caracterstica respuesta; infinitos valores, infinitas
respuestas).
Otra aplicacin de la lgica difusa es aquella que se emplea
en control de sistemas complejos. Por ejemplo, un aire
acondicionado con un sensor de temperatura ambiente. Si
estuviera programado para encenderse cuando la temperatura
fuera mayor de 25C, con una lgica bivaluada, o blanco o negro,
si dicha temperatura se hallase oscilando entre 24.5 y 25.5, el
aparato estara apagndose y encendindose continuamente, con
el consiguiente costo de energa, desgaste de la tecnologa, etc.
Con la lgica difusa lo que se hara es formalizar una nube de
puntos, tomar las sucesivas oscilaciones de temperatura entre
dichos valores y realizar como un clculo de la entropa de la
probabilidad de que se sucedan dichos valores. Dicho con otras
palabras, se obtendra el centro de gravedad o de inercia de dicha
nube de valores, y dependiendo de su valor se apagara o se
encendera. De este modo el funcionamiento del aparato sera
mucho ms estable y consecuente con la realidad del ambiente, o
al menos mucho ms flexible ante sus cambios.
Finalmente, para terminar con este apartado, responder a la
cuestin: cundo es conveniente usar sistemas que empleen
lgica fuzzy o difusa? [9]:
- En procesos complejos, si no existe un modelo de solucin
sencillo.
- En procesos no lineales.
- Cuando haya que introducir la experiencia de un operador
experto que se base en conceptos imprecisos obtenidos
de su experiencia.
- Cuando ciertas partes del sistema a controlar son
desconocidas y no pueden medirse de forma fiable (con
errores posibles).
- Cuando el ajuste de una variable puede producir el
desajuste de otras.
- En general, cuando se quieran representar y operar con
conceptos que tengan imprecisin o incertidumbre (como en
las Bases de Datos Difusas).
Actualmente las tecnologas fuzzy o borrosas se emplean en:
- Control de sistemas: trfico terrestre, trfico areo
ANEXO A
381
Henry Ford en un Ford T, 1917. Henry Ford drivinf a
Ford T, 1917.
(helicpteros...), compuertas en plantas hidroelctricas,
centrales trmicas, mquinas lavadoras, ascensores,...
- Prediccin y optimizacin: Prediccin de terremotos,
optimizar horarios,...
- Reconocimiento de patrones y Visin por ordenador:
Seguimiento de objetos con cmara, reconocimiento de
escritura manuscrita, reconocimiento de objetos,
compensacin de vibraciones en la cmara,
- Sistemas de informacin o conocimiento: Bases de datos,
- Inteligencia artificial.
5. Theory of Games and Economic Behavior [10]
La Teora de Juegos naci de la mano de los matemticos John
von Neumann y Oskar Morgenstern en 1947 para explicar y
desarrollar comportamientos en los procesos econmicos, aunque
posteriormente se aplic a campos tan diversos como la biologa o
la filosofa. Los modelos que se estudian son procesos que
contienen a los personajes, los denominados juegos, donde cada
entidad dentro de l, como jugador, desarrolla un rol y un
comportamiento. Su funcionamiento se basa en el nmero de
posibles acciones, de combinaciones de acciones, de estrategias,
que los jugadores puedan plantear en la formulacin del juego, y a
cada combinacin se le asocia un resultado de acuerdo con la
obtencin de una ganancia: victoria, derrota, empate, situacin de
desequilibrio, etc.
Con esta lgica de partida, la teora de juegos es fcilmente
complementable. Si utilizramos conjuntos difusos aplicados al
juego, aparte de las situaciones de victoria o derrota, se podra
trabajar con los mltiples estados intermedios entre la victoria y la
derrota de cada uno de los jugadores. O, si aplicramos la teora
de la informacin aqu, concibiendo que cada combinacin de
acciones o estrategia se viera como un posible mensaje,
podramos utilizar los conceptos de entropa y de redundancia, con
la suposicin de que las estrategias con mayor garanta de xito
son las que ms redundancia tienen, para predecir cules
comportamientos o acciones son ms probables a acometer.
De este modo, ahora podramos hablar del equilibrio de
Nash [11] como una situacin hipottica dentro de la Teora de
Juegos en la que todos los jugadores que se enfrentan a una
situacin tienden de una manera natural y autoorganizada a
adoptar una serie de estrategias en la que todos y cada uno sin
excepcin obtienen la victoria siempre y cuando no varen su
estrategia (por ello equilibrio). Esto se podra explicar con el
dilema del prisionero, uno de los modelos de interaccin ms
famosos de la teora de juegos. En el dilema del prisionero se narra
la situacin de dos presos que han participado conjuntamente en
un delito grave pero que han sido capturados por otro delito
menor. La polica los encierra en celdas separadas sin contacto
entre ellas y se dispone a interrogar a cada uno de los presos, y
dependiendo de esta confesin la pena de crcel ser una u otra.
En esta situacin a los jugadores se les presenta dos estrategias a
seguir: o confesar que fue el otro nicamente quien cometi el
delito grave (esto es, traicionar), o no decir nada (mantenerse fiel).
Imaginemos unas ganancias para cada accin: si los dos
jugadores se traicionan mutuamente, cada uno obtiene una pena
ANEXO A
382
En la teora de juegos la informacin se gestiona
en funcin de los resultados, de tal modo que cada
combinacin o eleccin de acciones no es un
mensaje sino una estrategia, y los jugadores
tendern a acoger esa estrategia que les permita
obtener una situacin ms cercana a la victoria. In
the game theory the information is negotiated in
function of the results, in such a way that each
combination or election of actions is not a message
but a strategy, and the players will tend to those
strategies that allow them to obtain a nearer
situation to the victory. GOYA, F. (1920-1923) Duelo
a garrotazos.
de crcel de diez aos; si ambos se mantienen fieles, cuatro aos;
y si slo uno traiciona al otro ste obtendr dos aos de crcel y su
compaero diez. Por supuesto, aqu cuanto menor es la pena
mejor es el resultado, por lo que es probable que uno de los dos
traicionase al otro. Pero si el jugador contrario hace lo mismo
entonces sucede que ambos son castigados a la pena ms alta.
Entonces, el planteamiento de Nash informara que la situacin a la
que se tendera es que ambos decidieran mantenerse fieles y as
obtener una ganancia intermedia, y seguiran obteniendo esta
ganancia siempre que no decidiesen cambiar de estrategia.
5.1 Clasificacin de los distintos tipos de juegos:
Dentro de la Teora de Juegos se han desarrollado distintas
maneras de clasificar y categorizar a los mismos. Entre ellas
conviene destacar las siguientes clasificaciones entre juegos
simtricos y asimtricos, de suma cero y de suma no cero,
cooperativos y no cooperativos, simultneos y secuenciales.
- Los juegos simtricos son aquellos en los que los personajes
pueden intercambiar sus papeles sin que las combinaciones de
acciones o las posibles ganancias se modifiquen. Un ejemplo lo
tenemos en el dilema del prisionero explicado anteriormente por el
que cualquiera de los prisioneros puede tomar el rol del otro. Son
indistinguibles. En cambio, en un juego asimtrico esto no sucede;
si tomamos como referencia la relacin entre el dictador y el
revolucionario, el revolucionario no puede tomar el rol del dictador
sin que sus posibles acciones o las ganancias que pueda obtener
se mantengan impertrritas.
- Los juegos de suma cero son aquellos en los que la suma total de
las recompensas obtenidas por los diferentes jugadores es igual a
0. Es decir, necesariamente la ganancia positiva de un jugador
repercute en que la ganancia de otro ha de ser negativa. Por
ejemplo, el ajedrez. La victoria se computa con 1, la derrota con -1,
y las tablas con 0. El empate no beneficia a ninguno de los dos
contendientes, para obtener un resultado positivo hay que ganar a
costa del despropsito del otro. En cambio, un juego de suma no
cero sera aquel en el que existe una posibilidad por la cual si un
jugador obtiene una ganancia positiva, sus contrincantes no por
ello su ganancia ha de ser negativa. El ejemplo lo tenemos en el
propio dilema del prisionero, o en la liga de ftbol donde un
empate proporciona un punto respecto al valor 0 de la derrota.
- La diferencia entre juegos cooperativos y no cooperativos es que
en los primeros los jugadores no compiten, sino que anan sus
esfuerzos hacia un fin comn, siendo la derrota o la victoria una
ganancia de grupo. En este tipo de juegos, por tanto, lo importante
es el anlisis de las estrategias que cada uno de los jugadores
puede tomar hacia un fin comn.
- Los juegos simultneos son aquellos en los que cada jugador no
conoce los movimientos previos de otros jugadores, de este modo
es como si decidieran sus acciones a la vez. Por ejemplo, el dilema
del prisionero. En cambio, en los secuenciales (tambin llamados
dinmicos), cada jugador cuenta con algo de informacin acerca
de los movimientos anteriores del otro, como en el ajedrez.
ANEXO A
383
Dentro de los secuenciales cabe distinguir los denominados
juegos de informacin perfecta. En ellos cada uno de los jugadores
conoce la totalidad de las posibles estrategias, posibles ganancias,
as como las acciones que ha acometido cada jugador a lo largo
de la partida. De este modo, podramos comparar este tipo de
juegos con lo que se coment respecto de la teora de la
informacin respecto a que la redundancia en el mensaje puede
reducir la informacin o aumentar la probabilidad de predecir el
siguiente movimiento. Es decir, conociendo dichos datos un
jugador puede permitirse anteceder las operaciones del rival. Por
ello, lo importante de este tipo de juegos es plantear las estrategias
con el fin de disminuir la redundancia y con ello la capacidad que
presentan los rivales para prever los movimientos a continuacin.
En otras palabras, el valor de la estrategia no se halla en la
consecucin de un resultado final, sino que vara segn el nmero
de posibles estrategias posteriores que haga viables, todas con la
misma o similar ganancia, o dicho de otra manera, aumentar la
informacin.
Finalmente, queda comentar acerca de la existencia de los
Juegos de Longitud Infinita o Super Juegos. Como el mismo
nombre indica en este tipo de juegos el nmero de secuencias es
infinito y por tanto no hay un resultado final tipo victoria o derrota.
Recordando lo que se dijo en el prrafo anterior, ms que el
anlisis de las consecuencias finales del juego, lo que importa en
este tipo de modelos es el movimiento actual, o mejor dicho, cada
movimiento, siendo la consecuencia de dicho anlisis el definir
quin o qu jugador en cada instante presenta la mejor estrategia
(ya sea conociendo los movimientos anteriores o no).
6. Incompletitud.
Por incompletitud se comprende en matemticas la imposibilidad
de consolidar un nico lenguaje formal perfecto comprendido por
una serie de reglas a partir de las cuales poder formular todas las
proposiciones y teoremas de esta disciplina. Este asunto presenta
una gran trascendencia hoy en da en cuanto que la confirmacin
de esta incompletitud indica que existen ciertos problemas, ciertas
sentencias, que al menos con la ayuda de los ordenadores jams
se podr resolver. A principios del siglo XX, David Hilbert, un
eminente matemtico alemn, se propuso como finalidad
precisamente el encontrar este lenguaje formal perfecto. Para l,
esta tarea supona la gran meta a la que deban aspirar los
matemticos, puesto que una vez identificado, la matemtica
podra considerarse como un juego en el que nicamente
atendiendo a sus reglas, sin necesidad de comprobaciones
empricas ni de recursos externos como la intuicin del individuo,
se podran sonsacar todos los teoremas de la matemtica. Sin
embargo, aos ms tarde en 1931, Kurt Gdel demostr [12] que
haba proposiciones que no podan ser planteadas formalmente,
incluso utilizando en matemticas elementales basadas en
nmeros enteros. Existen afirmaciones que aunque fcilmente
resolubles por la intuicin, no pueden ser satisfechas siguiendo
principios lgicos.
No obstante, el formalismo de Hilbert supuso, a pesar de
esta incompletitud, un gran avance, sobre todo en lo referido a la
teora de computacin [13]. El hecho de que mediante una serie de
ANEXO A
384
Los juegos se conciben como un entrenamiento.
La ciencia ficcin se ha alimentado a menudo de
esta nocin hasta confundir juego o simulacro con
realidad. Games are conceived as a training. The
science fiction has often despicted this notion until
confusing game or mockery with reality. SCOTT
CARD, O. (1985) El juego de Ender. Editorial Zeta
Bolsillo, Barcelona, 2006.
reglas que conforman un lenguaje formal se pueda realizar un
conjunto de operaciones sin necesidad de ayuda exterior, fue de
gran inspiracin para la creacin de los ordenadores. Por
supuesto, debido a esta incompletitud, los ordenadores son
incapaces de resolver ciertas cuestiones, presentan un lmite.
Por ejemplo, Turing demostr que los ordenadores no
pueden resolver el problema de la detencin, acerca de cundo un
algoritmo se detendr al haber completado la operacin que se le
designa. Y de especial inters es otra cuestin relacionada con la
complejidad algortmica. Dado un mismo objetivo un algoritmo es
ms eficiente que otro si por ejemplo el nmero de pasos es
menor. No obstante, no se puede demostrar que ese algoritmo sea
el ms eficiente, que no exista otro con un menor nmero de pasos
a la hora de resolver esa operacin. Esto, aplicado sobre otros
campos, plantea la duda sobre la optimizacin del conocimiento.
Dada una serie de circunstancias, una teora que las explique es
ms eficiente que otra si el nmero de postulados que contiene es
menor, pero nunca se puede asegurar que esa teora sea la ptima.
[1] SHANNON, C. E. (1948) A Mathematical Theory of
Communication. Publicado en The Bell System Technical Journal.
Vol. 27, PP. 379.423, 623.656, Julio, Octubre, 1948.
[2] LPEZ, A; PARADA, A.; SIMONETTI, F. (1995) Introduccin a la
psicologa de la comunicacin. Ediciones Universidad Catlica de
Chile, Santiago, 1995.
[3] Actualmente la Teora de la Informacin se encuadra como una
parte de la Teora Matemtica de la Probabilidad.
[4] A esto podramos plantear una contradiccin. Puede que el
saber que una persona tenga ms o menos de cuarenta aos no
indique nada acerca del da de su cumpleaos, pero en principio el
saber si naci en el hemisferio norte o en el hemisferio sur
tampoco, a menos que se conozca la estacin. Esto es, el orden
de las preguntas influye en la designacin del mensaje. O mejor
dicho, el supuesto ruido, dependiendo del orden o de las
combinaciones de las distintas informaciones, es capaz de reducir
la informacin aumentando as la inteligibilidad de un comunicado.
[5] MARTNEZ, F.; MARTN, G (2003) Introduccin a la
programacin estructurada en C. Volumen 64 de Educaci,
Universidad de Valencia, 2003.
[6] ZADEH, L. (1965) Fuzzy sets. Information and Control 8, Pgs.
338-353, Universidad de Berkeley, 1965.
[7] GALINDO, J. Conjuntos y sistemas difusos (lgica difusa y
aplicaciones). Departamento de Lenguajes y Ciencias de la
Computacin. E.T.S. de Ingeniera Informtica. Universidad de
Mlaga.
[8] JAMESON, F. (1994) Las semillas del Tiempo. Editorial Trotta,
Madrid, 2000.
[9] VV.AA. (1997) Lgica Fuzzy para Principiantes. Sur A&C, Omron
ANEXO A
385
Kurt Godel. Sin referencia. Without reference.
Electronics S.A. Editorial I. Hernndez, 1997.
[10] MORGENSTERN, O.; NEUMANN, J. V. (1947) Theory of Games
and Economic Behavior. Princeton University Press.
[11] NASH, J. F. (1950) Equilibrium points in n-person games.
Proceedings of the National Academy of the USA.
[12] NAGEL, E.; NEWMAN, J. R. (1958) Gdels Proof. Routledge,
New York, 2005.
[13] CHAITIN, G. J. (1999) Ordenadores, paradojas y fundamentos
de las matemticas. Revista Investigacin y Ciencia, Madrid, julio
del 2003.
ANEXO A
386