49
HISTORIA DE LA INFORMATICA

Historia de la informatica2 natalia

Embed Size (px)

Citation preview

HISTORIA DE LA INFORMATICA

PRIMERA PARTE.LOS PRECURSORES

• La primera "máquina" destinada a facilitar las operaciones de cálculo encuentra su origen en China hace unos 2.500 años: es el ábaco. Es también en el I-Ching o "Libro de las Mutaciones" chino que se encuentra la primera formulación del sistema binario (2.000 AC).

• La construcción del primer "robot" - que simulaba ser un actor de teatro - se debería a Herón de Alejandría, un experto en hidr

• En 1633, el inglés Oughtred inventó un instrumento que hoy conocemos como "regla de cálculo", utilizado hasta hace poco por los ingenieros.

• En 1642 el francés Blas Pascal fabricó -a los 19 años- la primera máquina sumadora mecánica destinada a ayudar a su padre, alto funcionario de las finanzas nacionales. Esta fue perfeccionada en 1666 por Samuel Morland.

• Este invento es de la mayor importancia, por cuanto probó que un dispositivo material podía realizar operaciones que parecían exclusivas de la mente humana.

Poco después (1671), el filosofo y matemático alemán Gottfried Leibniz, a su vez, desarrolló una máquina multiplicadora, mientras hubo que esperar hasta fines del siglo XIX (1889) para poder completar las 4 operaciones. Las dificultades en la fabricación de los engranajes de precisión no permitió su desarrollo masivo sino hasta fines del siglo XIX. Por cierto este tipo de máquina permitía una sola operación a la vez y no tenía memoria.

Una mención especial requiere el desarrollo de un telar automático por el francés Joseph Jacquard. En efecto, analizando las operaciones repetitivas que requería la producción de telas, este inventor imaginó conservar la información repetitiva necesaria bajo la forma de perforaciones en tarjetas. Estas perforaciones eran detectadas mecánicamente, asegurando el desplazamiento adecuado de las guías del hilado (tal como aún hoy ocurre en las máquinas caseras).

Precursores inmediatos

• En el Siglo XIX llegan finalmente a buen término los esfuerzos por desarrollar una máquina de calcular precisa y eficiente:

• En Estados Unidos, Dorr E. Felt inventa el "Complemento", una calculadora con columnas diferentes para los diversos dígitos (unidades, decenas y centenas). James Ritty inventa una caja registradora con un seguro en la gaveta del dinero. William S. Burroughs construye una sumadora capaz de "recordar" el resultado. (Este es otro paso muy importante: lograr que la máquina imite la memoria humana).

• El hecho más importante del Siglo XIX, sin embargo, no es el perfeccionamiento de las calculadoras mecánicas sino la concepción de una verdadera máquina procesadora de información, capaz de auto controlar su funcionamiento. Se debe al genio de Charles Babbage, nacido en 1792 en Inglaterra.

Desesperado por lo errores contenidos en las tablas numéricas de la época, este profesor de la Universidad de Cambridge (GB), proyecta e inicia la construcción de un nuevo tipo de calculadora. En 1821 presentó a la Royal Astronomical Society una máquina capaz de resolver ecuaciones polinómicas mediante el cálculo de diferencias sucesivas entre conjuntos de números (por ello llamada "máquina de diferencias"). Obtuvo por ello la medalla de oro de la Sociedad en 1822.

En 1833, inició la construcción de una versión mayor y más versátil de su primer modelo, para lo cual obtuvo una subvención inicial de 1.500 libras -y luego otra de 17.000 libras- del gobierno británico. Para su construcción, se inspiró en la máquina tejedora de Jacquard cuyo funcionamiento observó detenidamente, anotando especialmente la capacidad de este máquina para autor regular sus movimientos. Dedicó casi 40 años a la construcción de su máquina, muriendo en 1877 sin lograr terminarla, especialmente en razón de la imprecisión en la fabricación de los engranajes, que tendían a bloquearse continuamente. A parte de su capacidad de calcular, pretendía que fuese capaz de organizar información registrada en tarjetas perforadas, imprimir sus resultados y -sobre todo- evaluar un resultado para determinar ella misma qué cálculos hacer a continuación. En otras palabras, introducía un principio lógico de evaluación (si...entonces...) y un mecanismo de retroalimentación (el dato salido vuelve a entrar), principio que sería medular en la cibernética que nacería un siglo más tarde. No contento con el modelo práctico que intentó construir con enormes dificultades, desarrolló un modelo conceptual que llamó "Motor analítico". Este anticipa la arquitectura de los computadores de hoy, previendo un "molino" o "fábrica" ("mill") que sería el centro lógico (equivalente a la unidad aritmética de hoy), una unidad de control y una memoria.

El segundo hXIX corresponde al desarrollo por el británico autodidacta George Boole de una nueva álgebra echo fundamental del Siglo. En 1847 -a los 32 años- publica "El análisis matemático del pensamiento", lo cual le vale una cátedra en el Queen's Collage de Dublín. En 1854 publica su obra magna "Las leyes del pensamiento". Su álgebra consiste en un método para resolver problemas de lógica que recurre solamente a los valores binarios "1" y "0" y a tres operadores: "AND" (y), "OR" (o) y "NOT" (no). A partir de esta "álgebra binaria" se ha desarrollado posteriormente lo que conocemos hoy como "código binario", que utilizan todos los computadores actuales.

Mientras tanto, el español Ramón Varea presenta en 1878 el primer aparato multiplicador y divisor directo (sin uso de tablas) que rehusó comercializar por cuanto su intención era demostrar que España tenía tanta capacidad creativa como los Estados Unidos (aunque él mismo residía en Nueva York).

Como lo demostraron los trabajos posteriores de Hollerith y los futuros computadores, Boole pasó a ser con Babbage uno de los dos teóricos fundadores de la moderna informática. Como Babbage no pudo terminar su máquina, hubo que esperar hasta 1890 para ver surgir un nuevo aparato:   fue la máquina tabuladora de Herman Hollerith, que utilizó tarjetas perforadas para procesar los datos del Censo de los Estados Unidos. Era eléctrica y detectaba los hoyos en las tarjetas, basándose en la lógica de Boole. Hollerith fundó la "Tabulating Machine Company" que es la antecesora comercial de la actual IBM.

En la línea del desarrollo de "máquinas lógicas", Leonardo Torres y Quevedo creó en España, entre 1893 y 1920, varias máquinas capaces de resolver ecuaciones algebraicas. Más tarde construyó la primera máquina capaz de jugar al ajedrez.

En 1914 escribió "Ensayos sobre la Automática", en que describe conceptualmente un aparato capaz de razonar conforma a reglas determinadas por su fabricante. No creía sin embargo que fuese posible construirla con los materiales de su tiempo (a diferencia de la opinión errónea de Babbage, cuyos trabajos conocía).

Últimos preparativos

• En 1914 escribió "Ensayos sobre la Automática", en que describe conceptualmente un aparato capaz de razonar conforma a reglas determinadas por su fabricante. No creía sin embargo que fuese posible construirla con los materiales de su tiempo (a diferencia de la opinión errónea de Babbage, cuyos trabajos conocía).

Últimos preparativos

• Entre 1934 y 1939, en Alemania, Konrad Suze construyó dos máquinas electromecánicas de cálculo que se acercaban bastante a lo que sería el primer computador. La "Z1" contaba con un teclado y algunas lámparas que indicaban valores binarios. Posteriormente, la "Z2" fue una versión mejorada, que utilizaba relés electromagnéticos. Su amigo, Helmut Schreyer le sugirió emplear válvulas de vacío pero la escasez de éstas y la proximidad de la guerra no le permitieron dar este paso decisivo

• En 1937, Claude Shannon demostró definitivamente que la programación de futuros computadores era un problema de lógica más que de aritmética. Con ello señalaba la importancia del álgebra de Boole, pero -además- sugirió que podían usarse sistemas de conmutación como en las centrales telefónicas, idea que sería decisiva para la construcción del primer computador, el que siguió justamente este modelo. Con posterioridad y con la colaboración de Warren Weaver, Shannon desarrolló lo que llamó "teoría matemática de la comunicación" -hoy más conocida como "Teoría de la Información"-, estableciendo el concepto de "negentropía" (la información reduce el desorden) y la unidad de medida del "bit" (binary digit), universalmente conocida y aplicada tanto en telecomunicaciones (que es el campo a partir del cual trabajaron Shannon y Weaver) como en informática.

En 1939, en un último paso norteamericano antes de la aparición del primer computador, George Stibitz y S.B. Williams, de los Laboratorios Bell, construyeron una calculadora de secuencia automática, que utilizaba interruptores ordinarios de sistemas de conmutación telefónica. Sería el último invento antes de entrar en una nueva era.

Nacen los mastodontes

• Los primeros computadores ocupaban varios metros cúbicos, para una potencia de cálculo equivalente a la de una calculadora de bolsillo de hoy. Por esto hablamos de "mastodontes". El éxito y la divulgación de la computación se debe en su mayor parte al desarrollo del poder de cálculo ligado a la rápida reducción del tamaño de las máquinas.

En Gran Bretaña cobró fama justificada el matemático Alan Turing. Hijo de un funcionario del Servicio Colonial en la India, En 1937 concibió ya un proyecto (teórico) de cerebro artificial. Durante la 2º Guerra Mundial, colaboró con el equipo de criptografía del Ejército británico que intentaba descifrar automáticamente los mensajes secretos de los nazis. Participó en la construcción del "Colossus" (1943), computador cuya existencia fue un secreto hasta hace pocos años, el que permitía descifrar en pocos segundos los mensajes cifrados generados por la máquina "Enigma" alemana. Era en realidad un computador "dedicado", es decir con una única función (descifrar). Funcionaba con 2.400 válvulas y 5 paneles de lectura óptica de cintas perforadas, capaz también de imprimir los mensajes descifrados. Después de 1945 trabajó en el Laboratorio Nacional de Física, en una máquina de cálculo automático. Aunque era su objetivo construir un cerebro artificial se encontró bloqueado por su desconocimiento de la neurofisiología.

En 1947 publicó "Maquinaria inteligente" , sobre el tema de la inteligencia artificial, donde comparaba los ordenadores a los cerebros "por programar" de los bebés. Inventó la prueba de diálogo conocida con su nombre: si no podemos distinguir entre un interlocutor vivo y una máquina, ésta puede ser considerada como "inteligente" ("Prueba de Turing"). También es autor de la demostración matemática de que sería imposible redactar un programa computacional (serie finita de instrucciones) capaz de analizar otro programa y predecir si este -de tener algún sistema de recursión o autocontrol- provocaría o no una repetición infinita de las operaciones previstas. Se suicidó en 1954 sin que estén claros sus motivos.

En 1932, James Bryce -inventor que trabajaba para la IBM- instituyó un programa de investigación destinado a desarrollar la aplicación de las válvulas de vacío (o "tubos electrónicos") en máquinas calculadoras. Howard Aiken, estudiante graduado de física de la Universidad de Harvard se interesó por este proyecto en 1937 y logró la firma de un convenio entre la IBM y la universidad en 1939. Con un grupo de graduados de Harvard inició así ese año el diseño y la construcción del primer computador, de tipo electromecánico -es decir basado en relés, o interruptores magnéticos (electroimanes)-:

Es el MARK I, que entró a funcionar en 1944. Este recibía y entregaba información en cintas perforadas, demorándose un segundo por cada 10 operaciones. Medía 18 metros de longitud y 2,5 metros de alto. (Posteriormente se construyeron dos versiones más: los MARK II y MARK III). Aiken, nacido en 1900, falleció en 1973. Aunque Harvard y la IBM produjeron el primer computador electro-mecánico, la tecnología era más avanzada en otras universidades. Éstas llenaron rápidamente su atraso superando tecnológicamente la innovación de Aiken.

Así John P. Eckert y John W. Mauchly construyeron en 1947, en la Universidad de Pennsylvania, el ENIAC (Electronic Numerical Integrator and Calculator), primer computador electrónico, compuesto de 17.468 válvulas o "tubos" (más resistencias, condensadores, etc.), con 30 toneladas de peso.

 

El calor de las válvulas elevaba la temperatura del local hasta los 50º. Para efectuar diferentes operaciones, debían cambiarse las conexiones (cables) como en las viejas centrales telefónicas, lo cual era un trabajo que podía tomar varios días. Era capaz de calcular con gran velocidad la trayectorias de proyectiles, principal objetivo inicial de su construcción. En 1,5 segundos podía calcular le potencia 5000 de un número de 5 cifras. Las máquinas con válvulas constituyeron la llamada "primera generación" de computadores.

Otro producto importante de la guerra sería la cibernética. Un equipo interdisciplinario (antropólogos, fisiólogos, matemáticos, psicólogos y un economista), bajo la dirección de  Norbert Wiener, se enfrentó al problema de las trayectorias de proyectiles dirigidos hacia objetos en movimientos, como los aviones enemigos. Para acertar, debe predecirse la posición futura del blanco, y corregirse la trayectoria si éste cambia de dirección. El equipo de Wiener se dió cuenta que era un problema semejante al que resuelve el cerebro cuando conduce la mano para recoger un objeto (estático o en movimiento). Así formaron el propósito de crear un aparato que imitaría los procesos de control existentes en el ser humano (y eminentes fisiólogos fueron integrados al grupo). Este equipo -que recuperó el concepto de retroalimentación (feed-back) de Babbage-, al avanzar en sus trabajos echó las bases de la cibernética, disciplina hoy rectora de los procedimientos automáticos. De ella se valen las plantas industriales que utilizan robots (dispositivos activos controlados por computadores) en sus procesos de fabricación.

En 1949 fue publicado el resultado (teórico) de los trabajos del equipo de Wiener bajo el título de "Cybernetics". La naciente cibernética se definió como "teoría de la comunicación y autorregulación en sistemas probabilistas extremadamente complejos".    

El modelo Von Neumann

• El matemático de orígen húngaro, John Von Neumann, trabajaba en 1947 en el laboratorio atómico de Los Alamos cuando se encontró con uno de los constructores de la ENIAC. Compañero de Einstein, Goedel y Turing en Princeton, Von Neumann se interesó por el problema de la necesidad de "recablear" la máquina para cada nueva tarea. En 1949 había encontrado y desarrollado la solución a este problema, consistente en poner la información sobre las operaciones a realizar en la misma memoria utilizada para los datos, escribiéndola de la misma forma, es decir en código binario. Su "EDVAC" fue el modelo de las computadoras de este tipo construidas a continuación. Se habla desde entonces de la "arquitectura de Von Neumann"(que estudiaremos en detalle en el capítulo sobre "Arquitectura"), aunque también diseñó otras formas de construcción.

El primer computador comercial construído en esta forma fue el UNIVAC 1, el cual fue fabricado en 1951 por la Sperry-Rand Corporation y fue comprado por la Oficina del Censo de Estados Unidos.

LA MINIATURIZACIÓN

• En 1947, tres científicos - Bardeen, Brattain y Shockley- de los Laboratorios Bell habían inventado un semiconductor de tamaño reducido capaz de realizar funciones de bloqueo o amplificación de señal: nacía el TRANSISTOR. Más pequeños, más baratos y mucho menos calientes que las válvulas de vacío, los transistores desplazaron rápidamente a éstas en todos los aparatos electrónicos, los computadores entre otros.

• (William Shockley dejó la Bell y fue a instalarse en Palo Alto para formar su propia compañía, que sería el punto de partida del hoy famoso Valle del Silicio "Silicon Valley").

A partir de 1955, se inició la construcción de computadores en que las válvulas fueron reemplazadas por transistores, lo cual permitió achicar decenas de veces el tamaño de las máquinas y aumentar su velocidad de operación, obviando además el problema de refrigeración que planteaban los tubos (muy calientes).   Un ejemplo típico de esta "segunda generación" de computadores es el Standard Electric SE-Lorentz LR56, primer computador traído a Chile por la Universidad de Chile, en 1962. Ese mismo año, la Universidad Católica trajo el IBM 1620.

En los años 60, técnicos de varios laboratorios se dieron cuenta que la técnica de fabricación de los transistores posibilitaba la producción de unidades más grandes con múltiples componentes cumpliendo las diversas funciones electrónicas requeridas.  Así nacieron los circuitos integrados, los cuales permitieron una nueva disminución del tamaño y aún más del costo de los aparatos. Con ellos nace también la "tercera generación" de computadores, cuyo exponente más famoso ha sido el IBM 360.

En 1966, la Universidad de Chile es nuevamente la primera en traer un computador de tercera generación: el IBM 360-40. En 1971, producto del avance en la fabricación de estos circuitos, la compañía Intel lanza el primer microprocesador: un circuito integrado especialmente construído para efectuar las operaciones básicas ya señaladas por Babbage y conforme a la arquitectura definida por Von Neumann, que conocemos como "Unidad Central de Procesos" (CPU).

La integración ha avanzado en distintas etapas: integración simple (IC: Integrated Circuits) alta integración (LSI: Large Scale Integration) muy alta integración (VLSI: Very Large Scale Integration) y estamos llegando a una "ultra alta integración". Esta integración creciente permite además acelerar el funcionamiento, logrando superar - desde 1970 - el millón de operaciones por segundo.

LA COMPUTADOARA DE ESCRITORIO• Así han podido fabricarse nuestros

microcomputadores y los sistemas portátiles, al mismo tiempo que se aumenta permanentemente la capacidad de memoria interna de la máquina, para conservar más datos mientras se procesan. La velocidad, a su vez, superó ampliamente los diez millones de operaciones por segundo, llegando actualmente a cerca de 100 millones en los microprocesadores más avanzados (utilizados en computadores grandes o "mainframes").

Una pequeña firma de Albuquerque (Nuevo México), que había sido pionera en la fabricación de calculadoras electrónicas, produjo el primer computador destinado a aficionados: el Altair. No tenía ni teclado ni monitor ni unidad de almacenamiento. Los programas debían ser ingresados instrucción por instrucción usando los interruptores del panel frontal.

En 1975, Steve Jobs -que trabajaba en Atari- y Steve Wozniak -que era ingeniero de Hewlett-Packard, se juntaron para armar un micro-computador en su casa. Wozniak diseñó una placa única capaz de soportar todos los componentes esenciales y desarrolló el lenguaje de programación "BASIC". El producto fue el primer "Apple". Para fines de 1976 tenían un modelo mucho mejor desarrollado y en condiciones de ser comercializado: el Apple II. Tras varios intentos para comercializar su licencia, obtuvieron el apoyo personal de Mike Markulla, con quién formaron su propia compañía, la Apple Computers. El Apple II siguió fabricándose por unos 15 años, lo que constituye un récor histórico para este tipo de producto.

   

Viendo el éxito de los micro-computadores, la IBM encargó a un grupo especial el desarrollo de un computador personal, el cual estuvo listo y se dió a conocer a mediados de 1981. Rompiendo con su tradición, determinó que esa máquina fuera de estructura "abierta", es decir con especificaciones técnicas públicas, con un sistema operativo creado por otra compañía, el PC-DOS de Microsoft, y con la capacidad de integrar componentes de otros fabricantes, lo que fue la principal razón de su éxito y de la considerable difusión de los "PC (IBM) Compatibles". El primer año se vendieron 65.000 unidades. En 1984, la compañía Apple lanzó una máquina que introduciría nuevamente una revolución: el Macintosh. Éste era el sucesor de un modelo llamado "Lisa" -pero que no tuvo aceptación debido a su costo y escasa capacidad- en que se introducía por primera vez el concepto de interfaz gráfica, la analogía del "escritorio" y un nuevo periférico: el "mouse" o ratón, como herramienta para controlar al computador.  

Existen además supercomputadores que en vez de funcionar a base de un sólo microprocesador utilizan miles de éstos, pudiendo así hacer un enorme número de operaciones simultáneas, llegando a los doscientos millones por segundo. El primer modelo fue desarrollado por Cray y comercializado hacia 1984. Realizaba 80 millones de operaciones por segundo.   En 1986, Floating Point Systems, compañía competidora de la Cray Research, lanzó su "T-40.000", con 16.384 microprocesadores coordinados por "transputadores", el cual es capaz de procesar a una velocidad de 262 millones de operaciones en punto flotante por segundo (Mflops). Hoy, algunos supercomputadores ocupan hasta 65.000 microprocesadores.

En 1991, un equipo de investigadores de IBM desarrolló el aparato más pequeño jamás creado por el hombre: un interruptor que mide el tamaño de un átomo. Es capaz de controlar el flujo de corriente eléctrica desplazando un átomo de xenón entre dos diminutos electrodos. Esta proeza es de suma importancia para el desarrollo futuro de computadores enanos ya que los componentes con dos posibles estados constituyen la base de los procesadores. Este mismo año, Digital Equipment (DEC) lanzó al mercado una familia de computadores basados en arquitecturas de paralelismo masivo: las máquinas van en un rango desde los 1.024 hasta los 16.384 microprocesadores que trabajan en forma paralela. En su configuración máxima (por un costo de unos 1.500.000 dólares) son capaces de realizar 26 mil millones de instrucciones básicas por segundo (26.000 MIPS).

La firma NCR exhibió en Chile su nuevo microcomputador sin teclado, lanzado en diciembre de 1991 en los Estados Unidos. Se trata del "Notepad NCR 3125" que consiste en una caja del tamaño de una hoja carta y de 3 cm de espesor y un lápiz inalámbrico especial. Pesa menos de 2 kg, por lo cual puede ser usado fácilmente como si fuese un bloc de apuntes. Tiene una pantalla sensible a los pulsos electrónicos enviados por el lápiz. Así, el usuario accede al computador mediante símbolos, gráficos y escritura manual. Funciona con software de procesamiento de textos y bases de datos, gráfica, fax y comunicación con otro comprador por teléfono. Mediante la utilización de un laser de luz azul, científicos de IBM han logrado grabar y leer datos en un disco óptico a una densidad de 2,5 Gigabits (2.500 millones de bits) por pulgada cuadrada y a una velocidad de 2 millones de bits por segundo, lo cual constituye un nuevo récord. Con esta densidad se podría almacenar 6.500 Mb en discos de 5,25" de doble cara. Esta tecnología podría comercializarse dentro de 3 a 5 años.

En noviembre de 1994, Nintendo anunció el primer juego de "realidad virtual" (gráfica tridimensional por la cual el usuario puede desplazarse de modo ficticio), el "Virtual Boy", con un costo de 199 dólares. (El primer proyecto de este tipo le había costado 200.000 dólares a la NASA). Meses después, Sony lanzó por 200 dólares su "Playstation", una "estación" de juego con una capacidad 1.000MIPS (millones de instrucciones por segundo), mientras el procesador Intel -de muchos computadores- sólo permite 100MIPS

LAS NOVEDADES DE 1996

• Aparecen los primeros computadores- Internet, el Pippen, japonés, como consola de juegos, enchufado a la red para obtener su información. Todavía no se vende. El teclado es opcional, para los que quieran pedir más datos. Es Apple. Los de la manzana también ofrecen un nuevo Newton, la tableta sin teclado que ahora sí reconoce mejor la escritura y que trae más programas para sus probables usuarios: trabajadores móviles, pequeños empresarios, médicos, diseñadores. Se enchufa a un celular y listo.

ABRAN PASO A LO VISUAL

Por la vista entra: videoconferencias desde el computador portátil, por celular; Sony divide una pantalla en 4 para que sendos ejecutivos puedan discutir al mismo tiempo; excitante fidelidad en reproducción, la impresión con chorros de tinta da origen a un arte de precisión: las nuevas impresoras Epson, Canon, Hewlett Packard, Apple, más que duplican la fidelidad de sus predecesoras, a precios convenientes.

ALMACENES GIGANTES Lo visual obliga a aumentar las capacidades de las redes que comunican a los computadores, y presiona sobre la capacidad de almacenaje. En CeBIT estiman que cada año la información digitalizada en el mundo se duplica. Por suerte los discos duros más rápidos, más capaces, más pequeños y más baratos alegran el corazón del computador sobrecargado. Pero hay más. Iomega cantó victorias en CeBIT por haber colocado ya más de un millón de discos Zip, económico sistema capaz de almacenar hasta 100 megabytes. 3M le salió al paso (Siglo XXI 287) con un disco para 120 Mb con mayor velocidad de transferencia de información y que alega valer menos que el Zip por megabyte.

De esta batalla por almacenar más sólo podemos ganar. Irrumpen los grabadores de CD-ROMs. El más barato, de HP, vale US$1.300. Sony ofrece uno ya no de doble velocidad sino de 8 veces la original. Y aparecen los prototipos de CD-ROMs regrabables. Para fines de siglo tendremos CDs en capas, para almacenar más de 5 gigabytes de información. Los necesitaremos

Aunque Europa y Estados Unidos recogieron el guante y pusieron también a sus expertos a trabajar en programas semejantes ("Programa Estratégico de Computación y Supervivencia" en Estados Unidos y "Programa Estratégico Europeo para la Investigación en Tecnología de la Información - ESPRIT" en Europa). Pero hasta hoy, no se han visto los resultados esperados ni han nacido los "computadores inteligentes" con los cuales se esperaba contar en 1992, aunque se hayan gastado centenares de miles de dólares. El proyecto japonés de Quinta Generación se considera ahora fracasado, pero ha sido reemplazado por un proyecto de "Sexta Generación" cuyo propósito es lograr capacidades computacionales semejantes a las del cerebro humano hacia el año 2002. La fecha no parece muy realista, a pesar de que los investigadores de este país han avanzado mucho en la investigación de nuevas arquitecturas como las redes neuronales y los biochips (ver abajo). Las necesidades de los usuarios y los descubrimientos parecen, por ahora, llevar por otros derroteros: nadie se esperaba el éxito de Internet y el crecimiento explosivo de la World Wide Web . La idea de que una red podría tener o generar algún tipo de inteligencia propia ("La inteligencia está en la red" dicen algunos) está empezando a tomar cuerpo y a orientar otro tipo de investigación.