77
NOTAS PARA EL CURSO ENSAMBLE DE MICRO COMPUTADORES Diego Armando Londoño Tobón Departamento de Recursos de Apoyo e Informática D.R.A.I Facultad de Ingeniería Universidad de Antioquia Medellín 2005 Versión 0.1 Abril de 2005

Notas Para Un Curso de Ensamble de Microcomputadores

Embed Size (px)

DESCRIPTION

curso

Citation preview

Page 1: Notas Para Un Curso de Ensamble de Microcomputadores

NOTAS PARA EL CURSO ENSAMBLE DE MICRO COMPUTADORES

Diego Armando Londoño Tobón

Departamento de Recursos de Apoyo e Informática D.R.A.I Facultad de Ingeniería

Universidad de Antioquia Medellín

2005

Versión 0.1

Abril de 2005

Page 2: Notas Para Un Curso de Ensamble de Microcomputadores

1. PLACAS BASE (MOTHERBOARDS)

Es la placa de circuitos más grande existente en un computador. Se la reconoce

porque usualmente está en el fondo o espalda de los gabinetes del PC. En ella se

insertan entre otros, el procesador, la memoria, los conectores IDE, las tarjetas PCI, la

tarjeta AGP y la BIOS. Es comúnmente conocida con varios nombres: placa base,

placa principal, placa madre Motherboard y mainboard

Dado que representa un organismo central, debemos comprender como funciona y

como está distribuida a fin de diagnosticar acertadamente los problemas que se derivan

de ella.

Page 3: Notas Para Un Curso de Ensamble de Microcomputadores

1.1. LOS BUSES

Son el conjunto de líneas o caminos por los cuales los datos fluyen internamente de

una parte a otra de la computadora (CPU, disco duro, memoria). Puede decirse que en

las computadoras modernas los buses básicos son:

a) El bus de datos o bus interno, es el que comunica los diferentes componentes con la

CPU y la memoria RAM. Está formado por los hilos conductores que vemos en el

circuito impreso de la placa.

b) El bus de expansión, constituido por el conjunto de slots o ranuras en donde se

insertan placas independientes de sonido, video, modem, etc. En el transcurso del

tiempo se han desarrollado diferentes tipos de buses de expansión, aumentando cada

vez su capacidad de transmisión: ISA (Industry Standard Architecture) desarrollado en

1981, solo trabaja con un ancho de banda de 16 bits, VESA (Video Electronics

Standard Association) en 1992, trabaja a 32 bits, pero cayó rápidamente en desuso al

aparecer el actual PCI, en 1992, cuyo ancho de banda actual es de 64 bits y es el que

persiste en la actualidad, por ser una conexión de alto rendimiento entre el procesador y

las tarjetas de expansión. Está diseñado para soportar grandes transferencias de datos,

lo que supone grandes cargas eléctricas, que era una de las limitaciones de su

antecesor, el bus local VESA.

Page 4: Notas Para Un Curso de Ensamble de Microcomputadores

BUS PCI (Peripheral Component Interconnect)

El bus PCI (Peripheral Component Interconnect - Interconexión de componentes

periféricos) ha sido durante casi una década la interfaz de conexión dominante para

arquitectura I/O - La topología de su bus compartido permite a los dispositivos PCI

conectados arbitrarse entre ellos mismos para ganar el acceso privilegiado y total a la

hora de transferir datos. Es una solución sencilla y con buena relación calidad /precio

para satisfacer las necesidades de los dispositivos de I/O y de almacenamiento cuando

hay sólo conectados unos pocos dispositivos.

Los primeros buses PCI tenían una capacidad de transferencia de 132 MB/seg obtenida

de sus 33Mhz de velocidad y de los 32 bits de datos. ((32/8) bytes * 33 Mhz). Esto en

principio era suficiente para casi todo hasta que aparecieron las primeras tarjetas de

vídeo en 3 dimensiones.

En mayo de 1993 se da a conocer el bus PCI 2.0 que daba soporte al procesador

Pentium con un tamaño de datos de 64 bits, aunque también soportaba 32 bits.

Dependiendo de la velocidad puede obtener una capacidad de transferencia de 264

MB/s (a 33 Mhz.) o de 528 MB/s (a 66 Mhz). Este bus es utilizado generalmente en

Servidores.

La aparición en 1998 de un nuevo chipset, el 44OBX, con bus de sistema a 100 MHz de

frecuencia, permitiendo procesadores más veloces, obligó la aparición del bus PCI 2.1 a

100 Mhz, el cual, con un tamaño de palabra de 64 bits se puede obtener una capacidad

de transferencia de 800 MB/s teóricos, o con 32 bits se alcanzan 400 MB/s.

Para aprovechar los 100 Mhz, esta especificación PCI permite que una de las ranuras

trabaje a 66 Mhz simultáneamente con otra que lo haga a 33 Mhz. Todavía no se ha

conseguido que una única ranura obtenga los 100 Mhz en exclusividad. La memoria

RAM es la más afectada por la velocidad del bus PCI 2.1. La memoria de tipo EDO y

Page 5: Notas Para Un Curso de Ensamble de Microcomputadores

sus predecesoras quedan fuera de juego, ya que sus tiempos de acceso estaban

calculados para los 66 Mhz. La memoria RAM adecuada es una SDRAM de un tiempo

de acceso menor de 10 nseg, equivalente a 100 Mhz, ó incluso memorias más veloces.

Este tipo de bus también es utilizado generalmente en Servidores.

A pesar de las mejoras a través de los años, con el objetivo de mantener la

compatibilidad, en la actualidad la interfaz PCI más corriente utilizada en placas base

comunes es PCI 32/33 (32bit. 33MHz), y el PCI 64bit es presentado para el mercado de

tarjetas para servidor.

Para mantener la compatibilidad con las tarjetas de ampliación ISA / EISA, algunos los

chipsets facilitan una pasarela de conexión entre el bus PCI y el ISA / EISA. Por ello, es

normal que en esta arquitectura aparezcan en una ciertas placas base antiguas,

algunas ranuras ISA, que permiten conectar periféricos que requieren una capacidad de

transferencia muy pequeña, como un modems antiguos, tarjetas de sonido o una tarjeta

de red, y otras 3 ó más ranuras PCI donde se conectan otros periféricos que necesitan

una mayor velocidad de transferencia, como pueden ser una tarjeta de vídeo,

controladoras de disco, digitalizadores, así como dispositivos de sonido, red o modems

más modernos.

El diseño del bus PCI tiene tres características principales:

- Provee una configuración automática soportando Plug and Play.

- Permite producir interfaces con alto rendimiento a bajo costo.

Page 6: Notas Para Un Curso de Ensamble de Microcomputadores

- Su diseño tiene gran versatilidad para soportar una gran variedad de periféricos y

accesorios.

Las tarjetas PCI no cuentan con jumpers o swithes (interruptores) como todas sus

antecesoras, siendo configuradas de manera directa y automática por firmware o

software. Tienen una memoria ROM que contiene las especificaciones de configuración

y de aquí obtiene el sistema los datos necesarios en la etapa de arranque. Todo esto a

diferencia de las tarjetas ISA que tenían que ser configuradas manualmente, aunque

eventualmente también se produjeron con Plug and Play (PNP, conectar y usar).

BUS AGP. (Accelerated Graphics Port ó Puerto Avanzado de Gráficos)

Se trata de un bus independiente del bus general constituido por un slot específico para

tarjetas gráficas.

El puerto AGP fue desarrollado por Intel en 1996 como una forma para mejorar el

rendimiento y la velocidad de las tarjetas gráficas conectadas a un PC y como solución

a los cuellos de botella que se producían en las tarjetas gráficas que usaban el bus PCI.

El diseño parte de las especificaciones PCI 2.1.

El bus AGP es de 32 bit como PCI pero cuenta con notables diferencias como 8

canales más adicionales para acceso a la memoria RAM. Además puede acceder

directamente a esta, permitiendo emular así memoria de vídeo en la RAM. La velocidad

del bus es de 66 MHz.

Como pueden apreciar en la siguiente gráfica, a diferencia de los PCI, el AGP tiene

acceso privilegiado al chipset y luego al CPU, de esta manera puede procesar de forma

más eficiente la información gráfica.

Page 7: Notas Para Un Curso de Ensamble de Microcomputadores

A medida del tiempo al AGP ha evolucionado considerablemente en los modos de

funcionamiento y velocidad, pudiendo doblar (AGP 2X), cuadruplicar (AGP 4X) o hasta

multiplicar por ocho las características básicas (AGP 8X), alcanzando una tasa de

transferencia de datos máxima de 2133 MB por segundo como se muestra a

continuación:

Page 8: Notas Para Un Curso de Ensamble de Microcomputadores

PCI express

El esfuerzo de Intel y las empresas del sector por crear una nueva tecnología de E/S

que aprovechara las más recientes innovaciones tecnológicas y que conservara las

considerables inversiones del sector en el diseño de software pare la tecnología PCI,

dio como resultado la publicación de las especificaciones de PCI Express y la

aprobación de la especificación por parte de los miembros de PCI-SIG en julio de 2002

PCI Express1 (denominado aún a veces por su nombre clave 3GIO, por "tercera

generación de E/S") es el sucesor de la tecnología PCI, la cual, a pesar de ser una

buena solución para satisfacer las necesidades de los dispositivos de I/O, se ve muy

limitada a la hora de conectar los actuales y futuros dispositivos de I/O (tales como la

tarjeta Gigabit Ethernet, la tarjeta RAID y el controlador Serial ATA), los cuales son más

exigentes en la necesidad de ancho de banda. Lo que es más importante, cuantos más

dispositivos estén conectados, más ruido se inyectará en el bus. Ciertamente el ruido

disminuirá la claridad de la señal y la calidad de los datos transferidos por este bus.

El bus PCI Express2 (conocido como PCIe) es considerado como la última interfaz de

I/O para sustituir al PCI para un mayor ancho de banda, aunque también está pensado

para suceder al bus AGP, lugar de conexión para la tarjeta gráfica desde 1997.

La mejora más evidente del PCI Express es su topología punto a punto (a diferencia de

su predecesor paralelo), que permite una conmutación compartida para distribuir los

recursos compartidos (ancho del bus) entre los dispositivos PCI Express conectados,

de acuerdo con su prioridad. En este caso, cada dispositivo tiene un acceso directo y

exclusivo (link) al conmutador (switch). Además, el conmutador priorizará los datos

transferidos de manera que las aplicaciones en tiempo real pueden obtener un acceso

inmediato al conmutador.

1 Tomado de http://www.hispatech.com/articulos/html/ibap/pciexpress/pag1.php 2 Tomado de http://spain.aopen.com.tw/tech/techinside/PCI%20Express.htm

Page 9: Notas Para Un Curso de Ensamble de Microcomputadores

Esto último es importante porque permite a PCI Express emular un entorno de red,

enviando datos entre dos dispositivos compatibles sin necesidad de que éstos pasen

primero a través del chip host (un ejemplo sería la transferencia directa de datos desde

una capturadora de vídeo hasta la tarjeta gráfica, sin que éstos se almacenen

temporalmente en la memoria principal).

Otra de las mejoras sobre el PCI es su mayor ancho de banda. Un único lane (canal

PCI Express) es capaz de transmitir 250MB/s en cada dirección simultáneamente

(500MB/s para las dos direcciones).

Actualmente el PCI Express está disponible en 5 formatos (x1 / x2 / x3 / x4 / x16) para

los distintos anchos de banda. El PCI Express x2 está compuesto por dos lanes y el

ancho de banda máximo es de 500MB/s para una dirección y de 1000MB/s para las dos

direcciones.

El PCI Express x4 / x8 / x12 no están reservados para el mercado de los PC de

escritorio sino para el mercado de servidores.

Page 10: Notas Para Un Curso de Ensamble de Microcomputadores

El PCI Express x16 es especializado para la conexión de tarjetas gráficas y se utiliza

para sustituir a la actual interfaz AGP 8X, dado su mejor rendimiento (4000 MB/seg,

frente a los 2133MB/s del AGP 8X). Esta transición aumenta las capacidades gráficas

que no podían realizarse anteriormente debido a las limitaciones de la interconexión

AGP.

A continuación se observa las diferencias entre los distintos tipos de PCI Express y su

correspondiente ancho de banda:

PCI Express también incluye características novedosas, tales como gestión de energía

y conexión y desconexión en caliente de dispositivos (como USB). PCI Express

también optimiza el diseño de placas base, pues su tecnología serie precisa tan sólo de

un único cable para los datos, frente a los 32 necesarios para el PCI clásico, el cual

también necesitaba que las longitudes de estos fuesen extremadamente precisas.

En una placa base, las ranuras PCI Express se diferencias por su color naranja (PCIE

x2) y rojo (PCIE x16)

En la siguiente imagen se puede observar una placa base con tres ranuras PCI, dos

PCI Express x2 y una ranura PCI Express x16 para tarjeta gráfica.

Page 11: Notas Para Un Curso de Ensamble de Microcomputadores

1.2. PUERTOS USB (Universal serial bus)

El Bus de Serie Universal (USB -de sus siglas en inglés Universal Serial Bus) provee un

estándar de bus serie para conectar dispositivos a un computador. Un sistema USB

tiene un diseño asimétrico, que consiste en un solo servidor y múltiples dispositivos

conectados en una estructura de árbol utilizando dispositivos hub (concentradores)

especiales. Se pueden conectar hasta 127 dispositivos a un solo servidor, pero la suma

debe incluir a los hubs también, así que el total de dispositivos realmente usables

disminuye un poco.

El estándar incluye la transmisión de energía eléctrica al dispositivo conectado.

Algunos dispositivos requieren potencia mínima, así que varios pueden ser conectados

sin necesitar fuentes de alimentación extra. La mayoría de los hubs incluyen fuentes de

alimentación que brindan energía a los dispositivos conectados a ellos, pero algunos

dispositivos gastan tanta energía que necesitan su propia fuente de alimentación.

Page 12: Notas Para Un Curso de Ensamble de Microcomputadores

El diseño del USB tenía en mente eliminar la necesidad de adquirir tarjetas separadas

para poner en los puertos bus ISA o PCI, y mejorar las capacidades plug-and-play

permitiendo a esos dispositivos ser conectados o desconectados al sistema sin

necesidad de reiniciar. Cuando un nuevo dispositivo es conectado, el servidor lo

enumera y agrega el software necesario para poder funcionar.

El USB puede conectar periféricos como ratones, teclados, escáneres, cámaras

digitales, impresoras, discos duros, y componentes de red. Para dispositivos multimedia

como escáneres y cámaras digitales, el USB se ha convertido en el método estándar de

conexión. Para impresoras, el USB ha crecido también en popularidad que ha

empezado a desplazar a los puertos paralelos porque el USB hace sencillo el poder

agregar más de una impresora a una computadora.

El USB resuelve muchos de los inconvenientes de los antiguos puertos COM

(dificultades en la adaptación a un puerto COM libre, conflicto de los vectores de

interrupción IRQ, etc.)

El estándar USB 1.1 tiene 2 velocidades de transferencia: 1.5 Mbps (Megabits por

segundo) para teclados, mouse, joysticks, etc., y velocidad completa a 12 Mbps. La

mayor ventaja del estándar USB 2.0 es añadir un modo de alta velocidad de 480 Mbps.

En su velocidad más alta, el USB compite directamente con FireWire

USB transfiere señales y energía a los periféricos utilizando un cable de 4 hilos,

apantallado para transmisiones a 12 Mbps y no apantallado para transmisiones a 1.5

Mbps. El calibre de los conductores destinados a alimentación de los periféricos varía

desde 20 a 26 AWG, mientras que el de los conductores de señal es de 28 AWG. La

longitud máxima de los cables es de 5 metros

Por lo que respecta a los conectores hay que decir que son del tipo conector y

receptáculo, y son de dos tipos: serie A y serie B.

Page 13: Notas Para Un Curso de Ensamble de Microcomputadores

En la siguiente imagen se muestra un esquema del cable, con dos conductores para

alimentación y los otros dos para señal, debiendo estos últimos ser trenzados o no

según la velocidad de transmisión. Además se muestran los tipos de conectores.

1.3. FIREWIRE (IEEE 1394)3

El IEEE 1394 o FireWire es un estándar multiplataforma para entrada/salida de datos

en serie a gran velocidad. Suele utilizarse para la interconexión de dispositivos digitales

como cámaras digitales y videocámaras a computadores.

El FireWire fue inventado por Apple a mediados de los 90, para luego convertirse en el

estándar multiplataforma IEEE 1394. A principios de este siglo fue adoptado por los

fabricantes de periféricos digitales hasta convertirse en un estándar establecido.

3 Tomado de www.wikipedia.org y de http://www.duiops.net/hardware/articulo/ie31394f.htm

Page 14: Notas Para Un Curso de Ensamble de Microcomputadores

Entre sus características principales se encuentran su elevada velocidad de

transferencia de información (400 Mbps en su versión básica) lo que la hace ideal para

transmitir audio y video digital, su flexibilidad en la conexión ya que no es necesario

apagar y reencender el dispositivo ni reiniciar el computador y su capacidad de conectar

un máximo de 63 dispositivos, con cables de una longitud máxima de 425 cm.

Existe una segunda versión de Firewire, la IEEE 1394b ó FireWire 800, la cual duplica

la velocidad del FireWire 400 o Fireware convencional, alcanzando hasta 800 Mbps.

Además se espera una tercera versión de Firewire a 1Gbps en los próximos años.

FireWire 400 envía los datos por cables de hasta aproximadamente 4,5 metros de

longitud. Mediante fibra óptica profesional, FireWire 800 puede distribuir información por

cables de hasta 100 metros.

A continuación se ilustran el cable y el conector de Fireware.

Comparación entre USB y FIREWIRE

A pesar de que USB y Firewire son tecnologías para hacer conexión de dispositivos a

alta velocidad, no existe una guerra entre ellos, es más, se espera que convivan los dos

tipos de conectores en los nuevos computadores. Lo que si es cierto es que estas dos

tecnologías reemplazarán a los conectores actuales del PC, usándose USB para

periféricos de pequeño ancho de banda (ratones, teclados, modems), mientras que el

Page 15: Notas Para Un Curso de Ensamble de Microcomputadores

Firewire será usado para conectar la nueva generación de dispositivos electrónicos de

gran ancho de banda.

Veamos ahora un cuadro comparativo de las diferentes características de las

tecnologías USB y Firewire

USB FIREWIRE Número Máx. dispositivos conectados 127 63 Cambios en caliente SI SI Longitud de cable entre dispositivos - 5 m

- Hasta 30 m con repetidor cada 5m

- 4.5 m -Hasta 100 m con fibra óptica profesional

Velocidad de transferencia de datos 1.5 mbps 12 mbps 480 mbps

400 mbps 800 mbps

Conexión de periféricos internos NO SI Dispositivos - Teclados

- Ratones - Monitores - Joysticks - Cámaras digitales de baja resolución - CD-ROM - Modems

- Videocámaras DV - Cámaras digitales de alta resolución - HDTV - Discos duros - DVD-ROM - Impresoras - Escáneres

1.4. INTERFACE IDE. (Integrated Drive Electronics).

La interfaz IDE o ATA (Advanced Technology Attachment) controla los dispositivos de

almacenamiento masivo de datos, como los discos duros y por medio de ATAPI

(Advanced Technology Attachment Packet Interface), se añaden además dispositivos

como, las unidades CD-ROM.

IDE, fue creado por la firma Western Digital4, por encargo de Compaq para una nueva

gama de computadores personales. Su característica más representativa era la

4 Tomado de http://orbita.starmedia.com/~osander/Disco%20Duro1.htm

Page 16: Notas Para Un Curso de Ensamble de Microcomputadores

implementación de una tecnología electrónica que basa el control de la comunicación

en una placa controladora integrada en el propio disco duro, de ahí su denominación.

Desde ese momento, únicamente se necesita una conexión entre el cable IDE y el Bus

del sistema, siendo posible implementarla en la placa base o en tarjeta. Igualmente se

eliminó la necesidad de disponer de dos cables separados para control y datos,

bastando con un cable de 40 hilos desde el bus al disco duro. Se estableció también el

término ATA (AT Attachment) que define una serie de normas a las que deben

acogerse los fabricantes de unidades de este tipo.

Luego de algún tiempo, no tardó en ponerse en manifiesto la necesidad de ciertas

modificaciones en su diseño. Entre ellas figuraba su capacidad de almacenamiento, que

no solía exceder de los 528 Megas, su capacidad de conexión, que sólo permitía la

coexistencia de dos unidades IDE en el sistema, y su baja tasa de transferencia.

La interfaz EIDE o IDE mejorado, propuesto también por Western Digital, logra una

mejora de flexibilidad y prestaciones. Para empezar, aumenta su capacidad, hasta 8,4

Gigas, y la tasa de transferencia empieza a subir a partir de los 10 Megas por segundo,

según el modo de transferencia usado. Además, se implementaron dos sistemas de

traducción de los parámetros físicos de la unidad, de forma que se pudiera acceder a

superiores capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas

innegables, ya que con mínimas modificaciones (aunque LBA exigía también cambios

en la BIOS del PC) se podían acceder a las máximas capacidades permitidas.

Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al

mismo tiempo, que se aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y

de BIOS a soportar los controladores secundarios (dirección 170h, IRQ 15) siempre

presentes en el diseño del PC pero nunca usados hasta el momento, de forma que se

pudieran montar una unidad y otra esclava, configuradas como secundarias, para que

la controladora sepa a/de qué dispositivo mandar/recibir los datos. Más aún, se habilitó

la posibilidad de instalar unidades CD-ROM y de cinta, coexistiendo pacíficamente en el

sistema.

Page 17: Notas Para Un Curso de Ensamble de Microcomputadores

Los dispositivos IDE pueden transferir información principalmente empleando dos

métodos: PIO y DMA; el modo PIO (Programmed I/O) depende del procesador para

efectuar el trasiego de datos. A nivel de rendimiento no hay mayor problema, ya que los

micros actuales tienen la suficiente capacidad para gestionar estas operaciones y

alternarlas con otras, por supuesto. El otro método es el DMA; así la CPU se

desentiende de la transferencia, teniendo ésta lugar por mediación de un chip DMA

dedicado.

A continuación se observa una comparación entre cada uno de los modos de

transferencia y su velocidad en el mejor de los casos.

Modo de Transferencia MB de transferencia

PIO 0 2 – 3 MB/s PIO 1 y 2 4 MB/s PIO 3 11 MB/s PIO 4 16 MB/s MultiWord DMA 1 13 MB/s MultiWord DMA 2 16,6 MB/s UltraDMA 33 ó ATA/33 ó ATA 4 33 MB/s UltraDMA 66 ó ATA/66 ó ATA 5 66 MB/s UltraDMA 100 ó ATA/100 ó ATA 6 100 MB/s

El bus de datos de la interfaz IDE lo constituye un cable plano de 40 u 80 hilos

conductores que comunica el conector del dispositivo (disco duro, CD-ROM, DVD) con

el conector o puerto IDE de la motherboard. Las placas base actuales se fabrican con

dos puertos: IDE 0 e IDE1, permitiendo cada uno la conexión de hasta 2 drives (discos

duros o unidades ópticas), una configurada como maestro y la otra como esclavo.

Page 18: Notas Para Un Curso de Ensamble de Microcomputadores

Los discos IDE están mucho más extendidos que los SCSI debido a su precio mucho

menor. El Rendimiento de IDE es menor que SCSI pero en la actualidad se están

reduciendo las diferencias.

1.5. INTERFACE SCSI (Small Computer System Interface)

Es la interfaz de mayor capacidad, velocidad y estabilidad para conectar dispositivos

directamente a una motherboard. Tiene la gran ventaja de hacer que los dispositivos se

direccionen lógicamente en contraposición al direccionamiento físico que utiliza IDE. La

consecuencia inmediata es que los dispositivos quedan liberados de las imposiciones

que el Bios pudiera imponer, pues SCSI se encarga de hacer el trabajo completo de

comunicación y configuración. Esta capacidad lo ha hecho el preferido en equipos en

los que se requiere estabilidad y alta velocidad de transmisión, como los servidores.

La interfaz utiliza una conexión en la que cada dispositivo se une al siguiente, en donde

cada uno tiene su propio ID ante el host, el cual se selecciona mediante una serie de

jumpers o bien una rueda giratoria en el dispositivo.

La tecnología SCSI ofrece, en efecto, una tasa de transferencia de datos muy alta entre

el computador y el dispositivo SCSI. Pero aunque esto sea una cualidad muy

apreciable, no es lo más importante; la principal virtud de SCSI es que dicha velocidad

se mantiene casi constante en todo momento sin que el microprocesador realice

apenas trabajo.

Esto es de gran importancia en procesos largos y complejos en los que no podemos

tener el computador bloqueado mientras archiva los datos, como por ejemplo en la

edición de vídeo, la realización de copias de CD o en general en cualquier operación de

almacenamiento de datos a gran velocidad, tareas "profesionales" propias de

computadores de cierta potencia y calidad como los servidores de red.

Page 19: Notas Para Un Curso de Ensamble de Microcomputadores

Las raíces de SCSI5 parten en 1979, cuando Shugart Associates, un antiguo fabricante

de discos, inició el diseño de una nueva interfaz universal para discos: la SASI

("Shugart Associates Systems Interface"), el predecesor de SCSI.

Aunque SASI era muy limitada en sus capacidades, introdujo el concepto de comandos

y mensajes, una idea revolucionaria en esa época.

Para lograr que SASI fuera mas ampliamente aceptado por la industria, a fines de 1981

Shugart Associates, en conjunto con NCR Corporation convencieron a la ANSI para que

estableciera un comité que estandarizara esta interfaz.

En 1982 la ANSI le cambió el nombre a la interfaz, denominándola SCSI. Durante el

siguiente par de años el estándar fue mejorado, por ejemplo NCR Corporation

contribuyó conjuntos de comandos para que la interfaz pudiera manejar no sólo discos,

sino que también unidades de cinta, procesadores e impresoras.

Finalmente, la interfaz apareció en 1986, cuando fue publicado el estándar ANSI

X3.131-1986, que ahora es referido como SCSI-1. La velocidad de transferencia de

datos alcanzaba los 5 MBytes/seg y el bus tenía 8 bits de ancho.

El bus SCSI soporta hasta 8 dispositivos (incluida la controladora), identificados por las

direcciones 0 a 7. El cable podía tener una extensión de hasta 6 metros.

En 1994 el estándar SCSI sufrió su primera evolución, al ser publicado el estándar

ANSI X3.131-1994. Denominado SCSI-2 (y a veces también denominado "Fast SCSI"

por su mayor velocidad), esta nueva versión permitía tasas de transferencia más

veloces y una estructura de comandos estandarizada.

5 http://www.overclockers.cl/modules.php?name=enciclopedia&ver=90

Page 20: Notas Para Un Curso de Ensamble de Microcomputadores

La tasa de transferencia de datos sincrónicos en SCSI-2 alcanza los 10 Mbytes/seg

para los modelos con bus de 8 bits, y 20 Mbytes/seg para los modelos con bus de 16

bits (también llamados Wide SCSI).

Para hacer mas confuso el tema, el SCSI de 16 bits agrega una línea mas para la

dirección, permitiendo ahora la existencia de 16 dispositivos en el bus SCSI (incluida la

controladora SCSI, desde luego), numerados del 0 al 15.

Lamentablemente, la mayor velocidad del Bus obligó a disminuir su longitud máxima a

sólo 3 metros

A partir de la aparición de SCSI-2 se comenzó a trabajar en el siguiente estándar,

denominado SCSI-3, el cual aún no ha sido terminado. Como el documento para el

estándar SCSI-2 era muy grande (más de 400 páginas), para el caso de SCSI-3 se

tomó la decisión de dividir este gran documento en una serie de documentos menores,

cada uno cubriendo una determinada "capa" del estándar:

- Capa Física: Conectores, especificaciones eléctricas.

- Protocolos: Fases del Bus, paquetes, etc.

- Arquitectura: Organización de comandos.

- Comandos Primarios: Comandos soportados por cualquier dispositivo SCSI.

- Comandos Específicos

El problema aquí, es que al tener tantas tecnologías diferentes bajo el nombre genérico

SCSI-3 ha producido que mucha gente tenga confusión por este término.

Para efectos de los discos duros, las siguientes designaciones corresponden todas a

dispositivos compatibles con el estándar SCSI-3:

Ultra SCSI: Permite transferencias de 20 o 40 Mbytes/seg, según si el bus SCSI es de

8 (Narrow) o de 16 bits (Wide).

Page 21: Notas Para Un Curso de Ensamble de Microcomputadores

Ultra2 SCSI: Como el anterior, pero con velocidades de 40 y 80 MBytes/seg

respectivamente.

Ultra 160: Usando una técnica para transmitir dos datos por ciclo de reloj, este tipo de

discos logra velocidades de transferencia de 160 MBytes/seg en bus Wide. Se usa

señalización LVDS para aumentar la frecuencia del bus.

Ultra 320: Se incrementa la velocidad del bus a 80 MHz (en lugar de los anteriores 40

MHz), para conseguir una transferencia de hasta 320 MBytes/seg.

Las controladoras SCSI modernas suelen ser compatibles con las normas antiguas, por

ejemplo ofreciendo conectores de 50 pines junto a los más modernos de 68, así como

conectores externos (generalmente muy compactos, de 25 ó 36 pines), salvo en

algunos modelos especiales que se incluyen con aparatos SCSI que están diseñados

sólo para controlar ese aparato en concreto (como algunos scanner), lo que abarata su

costo.

En la siguiente imagen6 se observa un diagrama de los conectores SCSI más comunes

en la actualidad. En ella se pueden identificar los tipos usados en las tarjetas SCSI así

como en los periféricos. Esta información es de gran utilidad para determinar el tipo de

cable necesario para su conexión. Además se encuentra la terminología usada por

diferentes fabricantes para los diversos tipos de conectores.

6 Tomado de http://www.rn-soft.de/ge/scsi.htm

Page 22: Notas Para Un Curso de Ensamble de Microcomputadores
Page 23: Notas Para Un Curso de Ensamble de Microcomputadores

2. MICROPROCESADORES

Es la unidad fundamental encargada de ejecutar instrucciones que recibe de los

programas, traducirlas al lenguaje interno de la máquina, ejecutarlas y controlar todos y

cada uno de los pasos del proceso. Se encarga también de comunicarse con otros

subsistemas dentro del computador, y controlar su operación. Debido al papel central

de tal unidad se conoce como cerebro, unidad central de procesamiento, o CPU

(Central processing unit).

Los principales fabricantes de microprocesadores son:

• Intel con los Pentium, el Celeron, el Xeón, el Itanium y el Centrino.

• AMD con los Athlon, el Duron, el Semprom y el AMD64

• Cyrix con el 6x86, 6x86MX, el MII y el winchip.

2.1. PENTIUM 4, EL PROCESADOR MÁS AVANZADO DE INTEL7

El Pentium 4 es un microprocesador de séptima generación basado en la arquitectura

x86 y manufacturado por Intel. Es el primer microprocesador con un diseño

completamente nuevo desde el Pentium Pro de 1995. El Pentium 4 original,

denominado Willamette, trabajaba a 1,4 y 1,5 GHz; y fue lanzado en noviembre de

2000.

Para la sorpresa de la industria informática, el Pentium 4 no mejoró el viejo diseño P6

según las dos tradicionales formas para medir el rendimiento: velocidad en el proceso

de enteros y operaciones de coma flotante. La estrategia de Intel fue sacrificar el

rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo

y una mejora en las instrucciones SSE. Al igual que los demás procesadores de Intel, el

7 Tomado de http://es.wikipedia.org/wiki/Intel_Pentium_4

Page 24: Notas Para Un Curso de Ensamble de Microcomputadores

Pentium 4 se comercializa en una versión para equipos de bajo presupuesto (Celeron) y

una orientada a servidores de gama alta (Xeon).

Las distintas versiones son: Willamette, Northwood, Extreme Edition y Prescott.

Willamette Willamette, la primera versión del Pentium 4, sufrió de importantes demoras durante el

diseño. De hecho, muchos expertos aseguran que los primeros modelos de 1,3, 1,4 y

1,5 GHz fueron lanzados prematuramente para evitar que se extienda demasiado el

lapso de demora de los Pentium 4. Además, los modelos más nuevos del AMD

Thunderbird tenían un rendimiento superior al Pentium III, línea que se encontraba al

límite de su capacidad por el momento. Fueron fabricados utilizando un proceso de 180

nanómetros y utilizaban el Socket 423 para conectarse a la placa madre.

A la hora de los exámenes de rendimiento, los Willamette fueron una decepción ya que

no podían superar claramente a los Thunderbird ni a los Pentium III de mayor velocidad.

Incluso la diferencia con la línea de bajo costo de AMD (Duron) no era significante.

Vendió una cantidad moderada de unidades.

En enero de 2001 un microprocesador aún más lento de 1,3 GHz fue añadido a la lista.

En la primer mitad del mismo año, salieron a la venta los modelos de 1,6, 1,7 y 1,8 GHz

notablemente superiores a los Pentium III. En agosto, los modelos de 1,9 y 2,0 GHz

vieron la luz.

El Willamette de 2,0 GHz fue el primer Pentium 4 que puso en duda el liderazgo en

rendimiento, que hasta ese momento estaba liderado indiscutiblemente por la línea

Thunderbird de AMD. Si bien algunos resultados arrojaban una leve diferencia a favor

de AMD, los analistas concluyeron que la diferencia no era significativa para decir que

un procesador era claramente superior al otro. Esto fue un gran paso para Intel, que

Page 25: Notas Para Un Curso de Ensamble de Microcomputadores

hasta la salida del AMD Athlon había sido el rey de la velocidad en los

microprocesadores por 16 años en forma casi ininterrumpida.

Northwood

En octubre de 2001, el Athlon XP reconquistó el liderazgo en la velocidad de los

procesadores, pero en enero de 2002 Intel lanzó al mercado los nuevos Northwood de

1,9 y 2,2 GHz. Esta nueva versión combina un incremento de 256 a 512 KB en la

memoria caché con la transición a la tecnología de producción de 130 nanómetros. Al

estar el microprocesador compuesto por transistores más pequeños, podía alcanzar

mayores velocidades y a la vez consumir menos energía. El nuevo procesador

funcionaba con el Socket 478, el cual se había visto en los últimos modelos de la serie

Willamette.

Con la serie Northwood, los Pentium 4 alcanzaron su madurez. La lucha por la cima del

desempeño se mantuvo reñida, a medida que AMD introducía versiones más veloces

del Athlon XP. Sin embargo, la mayoría de los observadores concluyeron que el

Northwood más veloz siempre estaba ligeramente por encima de los modelos de AMD.

Esto se hizo notorio cuando el paso de AMD a la manufacturación de 130 nanómetros

fue postergada. Los Pentium IV entre 2,4 y 2,8 GHz fueron, claramente, los más

veloces del mercado.

Un Pentium 4 de 2,4 GHz fue introducido en abril de 2002, uno de 2,53 GHz en mayo

(que incluyo un aumento del FSB de 400 a 533 MHz). En agosto vieron la luz los

modelos de 2,6 y 2,8 GHz, y en noviembre la versión de 3,06 GHz.

El Procesador de 3,06 GHz soporta Hyper-threading, una tecnología originalmente

aparecida en los Xeon que permite al sistema operativo trabajar como si la máquina

tuviese dos procesadores.

En abril de 2003, Intel colocó en el mercado nuevas variantes, entre los 2,4 y 3,0 GHz,

cuya principal diferencia era que todos ellos incluían la tecnología Hyper-Threading y el

Page 26: Notas Para Un Curso de Ensamble de Microcomputadores

FSB era de 800 MHz. Supuestamente esto era para competir con la línea Hammer de

AMD, pero de momento sólo la serie Opteron salió al mercado, la cual no estaba

destinada entonces a competir con los Pentium 4. Por otro lado, los AMD Athlon XP, a

pesar de su FSB aumentado de 333 a 400 MHz y las velocidades más altas no

pudieron alcanzar a los nuevos Pentium 4 de 3,0 y 3,2 GHz. La versión final de los

Northwood, de 3,4 GHz, fue introducida a principios de 2004.

Extreme Edition o Edición Extrema En septiembre de 2003, Intel anunció la edición extrema (Extreme Edition) del Pentium

4, apenas sobre una semana antes del lanzamiento del Athlon 64, y el Athlon 64 FX. El

diseño era idéntico al Pentium 4 (hasta el punto de que funcionaría en las mismas

placas madre), pero se diferenciaba por tener 2 MB adicionales de caché L3. Compartió

la misma tecnología Gallatin del Xeon MP, aunque con un Socket 478 (a diferencia del

Socket 603 de los Xeon MP) y poseía un FSB de 800MHz, dos veces más grande que

el del Xeon MP. Una versión para Socket LGA775 también fue producida.

Mientras que Intel mantuvo que la Extreme Edition estaba apuntada a los jugadores de

videojuegos, algunos tomaron esta nueva versión como un intento de desviar la

atención del lanzamiento de los Athlon 64. Otros criticaron a Intel por mezclar la línea

Xeon (especialmente orientada a servidores) con sus procesadores para usuarios

individuales, pero poco se criticó cuando AMD hizo lo mismo con el Athlon 64 FX.

El efecto de la memoria adicional tuvo efectos variados. En las aplicaciones de

ofimática, la demora ocasionada por el mayor tamaño de la memoria caché hacia que

los Extreme Edition fuesen menos veloces que los Northwood. Sin embargo, el área

donde se destacó fue en la codificación multimedia, que superaba con creces a la

velocidad de los anteriores Pentium 4 y a toda la línea de AMD.

Prescott El primero de febrero de 2004, Intel introdujo una nueva versión de Pentium 4

denominada Prescott. Se utiliza en su manufactura un proceso de fabricación de 90

Page 27: Notas Para Un Curso de Ensamble de Microcomputadores

nanómetros y además se hicieron significativos cambios en la arquitectura del

microprocesador, por lo cual muchos pensaron que Intel lo promocionaría como

Pentium V. A pesar de que un Prescott funcionando a la misma velocidad que un

Northwood rinde menos, la renovada arquitectura del Prescott permite alcanzar

mayores velocidades y el overclock es más viable. El modelo de 3,8 GHz es el más

veloz de los que hasta ahora han entrado en el mercado.

Sin embargo, los primeros Prescott producían un 60% más de calor que un Northwood

a la misma velocidad, y por ese motivo muchos lo criticaron con dureza. Se

experimentó con un cambio en el tipo de zócalo (de Socket 478 a LGA 775) lo cual

incrementó en un 10% el consumo de energía del microprocesador, pero al ser más

efectivo el sistema de refrigeración de este zócalo, la temperatura final bajó algunos

grados. Se esperan mejoras que reduzcan el consumo de energía y el calor producido,

pero Intel no ha dado noticias relevantes al respecto.

Los Prescott con Socket LGA775 usan el nuevo sistema de puntaje, y están clasificados

en la serie 5XX. El más rápido es el 570J, funcionando a 3,8 GHz. Los planes para

microprocesadores de 4 o más GHz fueron cancelados y se les dio prioridad a los

proyectos para fabricar procesadores dobles; en gran medida debido a los problemas

de consumo energía y producción de calor de los modelos Prescott.

El procesador 570J también fue el primero en introducir la tecnología EDB, la cual es

idéntica a la más temprana NX de AMD. El objetivo es prevenir la ejecución de algunos

tipos de código maligno

Versiones en Desarrollo A principios de 2003 Intel había mostrado un diseño preliminar del Tejas, (nombre que

Intel le había dado al microprocesador que sería el sucesor de los Prescott), y un

proyecto para ponerlo en el mercado en algún momento de 2004, pero finalmente

pospuesto para el 2005. Jayhawk sería un procesador similar al Tejas pero que estaría

preparado para funcionar en maquina duales (es decir, una computadora con dos

Page 28: Notas Para Un Curso de Ensamble de Microcomputadores

procesadores). Sin embargo, el 7 de mayo de 2004 ambos proyectos fueron

cancelados. De este modo, Intel remarco el giro hacia los procesadores dobles.

Tanto el retraso inicial como la eventual cancelación se atribuyen a los problemas de

calor debido al gigantesco consumo energético de los microprocesadores, lo cual ya

había sucedido con los Prescott que además tenían solo un rendimiento ligeramente

mayor que los Northwood. Este cambio también obedeció a los deseos de Intel de

enfocar sus esfuerzos en los microprocesadores dobles, para la gama Itanium de

servidores, los Pentium de escritorio y las portátiles Centrino.

Irwindale La serie Irwindale es casi igual a la Prescott, excepto porque tiene el doble de memoria

caché. Si bien el lanzamiento de los microprocesadores Irwindale estaba planeado para

fines de 2004, diversas clases de demoras han hecho que se postergue hasta el 2005.

Doble Procesador Intel tiene planeadas tres variantes con doble procesador del Pentium 4. La primera es

denominada Paxville, que consiste en poco más que dos procesadores Prescott

colocados en el mismo substrato. Le seguirá Dempsey que tiene una interfaz de bus

especial para conectar a los dos microprocesadores. Smithfield es el tercero, pero muy

poco se sabe sobre que características tendrá y si llegará a salir al mercado.

A continuación se incluye una tabla con las actuales variantes de Pentium 4 y las

principales diferencias:

Page 29: Notas Para Un Curso de Ensamble de Microcomputadores

NOMBRES Y CARACTERÍSTICAS DE LOS MICROPROCESADORES PENTIUM 4 Nombre Público

Nombre de Intel para la

versión Velocidad del CPU

Velocidad del FSB / Ancho de banda teórico

Caché Observaciones

Revisión original

Willamette 1,3 GHz - 2,0 GHz

100 MHz / 3,2 GB/s

L1: 8 KB datos + 12 KB instrucciones L2: 256 KB

N/A

P4A Northwood 1,6 GHz - 3,0 GHz

100 MHz / 3,2 GB/s

L1: 8 KB datos + 12 KB instrucciones L2: 512 KB

Se mejoró el manejo de las instrucciones y algunos otros cambios en el microcódigo, los cuales pasaron a las revisiones subsiguientes.

P4B Northwood 2,0 GHz - 3,06 GHz

133 MHz / 4,2 GB/s

L1: 8 KB datos + 12 KB instrucciones L2: 512 KB

Ningún cambio con respecto al P4A, excepto por Hyper-threading en el modelo de 3,06 GHz.

P4C Northwood 2,4 GHz - 3,4+ GHz

200 MHz / 6,4 GB/s

L1: 8 KB datos + 12 KB instrucciones L2: 512 KB

Hyper-threading

P4E Prescott 2,8 GHz - 3,6+ GHz

200 MHz / 6,4 GB/s

L1: 16 KB datos + 12 KB instrucciones L2: 1MB

Hyper-threading, mayores tuberías de datos (pipelines), Instrucciones SSE3

P4A* Prescott 2,4 y 2,8 GHz 133 MHz / 4,2 GB/s

L1: 16 KB datos + 12 KB instrucciones L2: 1MB

Sin Hyper-threading, mayores tuberías de datos (pipelines), Instrucciones SSE3

Extreme Edition

Gallatin 3,2 GHz - 3,4 GHz

200 MHz / 6,4 GB/s

L1: 8 KB datos + 12 KB instrucciones L2: 512 KB L3:2 MB

Hyper-threading, se agrega caché L3 en el microprocesador.

P4F Prescott 3,2 GHz - 3,6 GHz

200 MHz / 6,4 GB/s

L1: 16 KB datos + 12 KB instrucciones L2: 1MB

Soporte para EM64T y EDB (equivalente a la NX de AMD)

Notas: Los procesadores Pentium 4 usan un FSB que transmite datos 4 veces por ciclo * En el caso de la línea de baja gama de los Prescott, Intel volvió a usar la identificación P4A, con la cual se espera que los vendedores lo identifiquen a los clientes. No se dieron explicaciones al respecto.

Page 30: Notas Para Un Curso de Ensamble de Microcomputadores

2.2. LOS MICROPROCESADORES DE AMD8

Fundada en 1969 y con su central situada en Sunnyvale, California, Advanced Micro

Devices (AMD) es la segunda compañía mundial productora de microprocesadores

(detrás de Intel) y uno de los más importantes fabricantes de memoria flash y otros

dispositivos semiconductores.

En 1975 AMD lanzó al mercado su primer chip de RAM conocido como Am9102. Ese

mismo año también desarrollaron, gracias a la ingeniería inversa, el primer procesador

de AMD compatible con el 8080A. El aumento de demanda de PCs al principio de la

década de los 80 ayudó a que AMD siguiera creciendo a un gran ritmo debido a la

venta de procesadores x86.

El procesador Am386 de 1991 consiguió superar en frecuencia de reloj por primera vez

a los procesadores de Intel y en 1993 el Am486 llegó a ser el corazón de muchos

ordenadores del fabricante Compaq.

El K5 fue el siguiente desarrollo, pero no gozó de una gran popularidad, pero en 1996

AMD se alió con NexGen para diseñar el K6. El K6-2 incorporaba las nuevas

instrucciones 3DNow! desarrolladas por AMD, era la primera mejora que se hacía en

los procesadores x86 para aumentar el rendimiento de aplicaciones con uso intensivo

multimedia.

El 21 de agosto de 1999 se introdujo el Athlon, el primer procesador x86 de séptima

generación de alto rendimiento tanto para usuarios domésticos como para estaciones

de trabajo y servidores, que en un principio mantuvo su liderazgo de rendimiento sobre

los microprocesadores de Intel.

8 Tomado de http://es.wikipedia.org/wiki/AMD, de http://es.wikipedia.org/wiki/Athlon y de http://es.wikipedia.org/wiki/AMD_Athlon_64

Page 31: Notas Para Un Curso de Ensamble de Microcomputadores

El primer núcleo del Athlon, conocido en clave como "K7" (en homenaje a su

predecesor, el K6), estuvo disponible inicialmente en versiones de 500 a 650 MHz, pero

después alcanzó velocidades de hasta 1 GHz. El procesador es compatible con la

arquitectura x86 y debe ser conectado en placas base con Slot A, que son compatibles

mecánicamente, pero no eléctricamente, con el Slot 1 de Intel.

Internamente el Athlon es un rediseño de su antecesor, al que se le mejoró

substancialmente la unidad de punto flotante y se le aumentó la memoria caché de

primer nivel (L1) a 128 KB. Además incluye 512 KB de caché de segundo nivel (L2)

externa al circuito integrado del procesador y funcionando, por lo general, a la mitad de

velocidad del mismo. El bus de comunicación es compatible con el protocolo EV6 usado

en los procesadores DEC 21264 de Alpha, funcionando a una frecuencia de 100 MHz

DDR (Dual Data Rate, 200 MHz efectivos).

El resultado fue el procesador x86 más potente del momento. El Athlon Classic se

comercializó hasta enero de 2002.

En términos económicos el Athlon Classic fue un éxito, no sólo por méritos propios y su

bajo precio comparado con la competencia, sino también por los problemas de

producción de Intel.

El procesador Athlon con núcleo Thunderbird apareció en el mercado el 5 de junio de

2000, como la evolución del Athlon Classic. Al igual que su predecesor, también se

basa en la arquitectura x86 y usa el bus EV6. El rango de velocidad de reloj va desde

los 650 MHz hasta los 1,4 GHz. Respecto al Athlon Classic, el Athlon Thunderbird

cambió del Slot A al Socket A, más pequeño.

Todos los Athlon Thunderbird integran 128 KB de caché de primer nivel (L1) (64 KB de

datos y 64 KB para instrucciones) y 256 KB de caché de segundo nivel (L2) on-die. El

proceso de fabricación usado para todos estos microprocesadores es de 0.18µ y el

tamaño del encapsulado es de 117 mm2.

Page 32: Notas Para Un Curso de Ensamble de Microcomputadores

Existen dos versiones de los Thunderbird dependiendo de la frecuencia de bus que

usan. Los primeros Athlon Thunderbird usaban un bus de 100MHz DDR (200 MHz

efectivos), al igual que los Athlon Classic. En el primer cuatrimestre de 2001

aparecieron nuevas versiones, denominadas Athlon-C, que soportaban un bus de 133

MHz DDR (266 MHz efectivos)

El Athlon Thunderbird consolidó a AMD como la segunda mayor compañía de

fabricación de microprocesadores, ya que gracias a su excelente rendimiento

(superando siempre al Pentium III y a los primeros Pentium IV de Intel a la misma

velocidad de reloj) y bajo precio, le hicieron muy popular tanto entre los entendidos

como en los iniciados en la informática.

Athlon XP Cuando Intel sacó el Pentium IV a 1,7 GHz en abril de 2001 se vio que el Athlon

Thunderbird no estaba a su nivel. Además no era práctico aumentar la velocidad del

Athlon Thunderbird a más de 1,4 GHz por problemas de consumo eléctrico y de

disipación de calor.

Para intentar seguir estando a la cabeza en cuanto a rendimiento de los procesadores

x86, AMD tuvo que diseñar un nuevo núcleo

AMD lanzó la tercera gran revisión del Athlon, conocido en clave como "Palomino", el

14 de mayo de 2001. Todos los Athlon a partir del núcleo Palomino fueron

denominados genéricamente como Athlon XP.

Los cambios principales respecto al núcleo anterior fueron mejoras de rendimiento que

lo hacen un 10% más rápido que un Athlon Thunderbird a la misma velocidad de reloj.

Su velocidad de reloj se situó entre 1,3 y 1,7 GHz. Además el núcleo Palomino fue el

primero en incluir el conjunto de instrucciones SSE de Intel, además de las 3DNow!

Page 33: Notas Para Un Curso de Ensamble de Microcomputadores

propias de AMD. Por desgracia, el núcleo Palomino seguía teniendo problemas con la

disipación de calor, lo que hacía que se calentara demasiado.

Debido a las mejoras de rendimiento a la misma velocidad de reloj respecto a los

núcleos anteriores, los Athlon XP fueron comercializados no por su velocidad de reloj,

sino mediante una índice de "prestaciones relativas" conocido como PR . Este índice

indica la velocidad de reloj equivalente de un Athlon Thunderbird con el mismo

rendimiento que un Athlon XP. Por ejemplo, el Athlon XP 1800+ funciona realmente a

1,5 GHz, pero indica que tiene un rendimiento equivalente a un hipotético Athlon

Thunderbird a 1,8 GHz.

El núcleo de cuarta generación de los Athlon, el Thoroughbred, fue lanzado al mercado

el 10 de junio de 2002 a una velocidad inicial de 1,8 GHz (2200 con el sistema de

prestaciones relativas). Llegó a alcanzar unas prestaciones relativas de 2800+.

El núcleo "Thoroughbred" se fabricó con un proceso de 0,13 µm, mejorando los 0,18 µm

del proceso de fabricación de núcleo "Palomino". Inicialmente, a parte de la mejora del

proceso de fabricación, los núcleos Thoroughbred y Palomino son prácticamente

idénticos.

Posteriormente AMD creó una revisión del núcleo Thoroughbred que resolvía los

problemas de disipación de calor heredados desde el núcleo Thunderbird.

El núcleo Athlon de quinta generación, llamado Barton, funcionaba a un índice PR de

entre 2500+ --aproximadamente 1837 MHz-- y 3200+ --2200 MHz--.

El núcleo Barton tenía como características principales respecto al Thoroughbred el

incluir una nueva caché de segundo nivel (L2) de 256 KB adicional y seguir mejorando

el rendimiento del procesador sin aumentar la velocidad de reloj. Además AMD

aumentó la frecuencia del bus de 133 MHz (266 efectivos por DDR) a 166 MHz (333

MHz efectivos) y posteriormente hasta 200 MHz (400 MHz efectivos).

Page 34: Notas Para Un Curso de Ensamble de Microcomputadores

Con el lanzamiento del Athlon XP con núcleo Barton AMD volvió a señalar que sus

procesadores eran los x86 más rápidos del mercado, pero algunas pruebas de

rendimiento del mercado no indicaban esto. Esto causó un gran revuelo al conocerse

que algunas de estas pruebas, como las pruebas de rendimiento BAPCo, estaban

diseñadas por ingenieros de Intel.

El núcleo "Thorton" es una variante del "Barton", idéntico a éste pero con la mitad de la

caché de segundo nivel (L2) desactivada.

Mobile Athlon XP Los Mobile Athlon XP (Athlon XP-M) son funcionalmente idénticos a los Athlon XP, pero

funcionan con voltajes más reducidos. Además tienen la tecnología Power Now!, que

reduce la velocidad de funcionamiento del procesador cuando tiene poca carga de

trabajo, para reducir aún más su consumo.

Algunos Athlon XP-M utilizan un zócalo µ-PGA en lugar del estándar Socket A.

Generalmente se usan en ordenadores portátiles

En abril de 2003 se comercializó Opteron, el primer microprocesador desarrollado

exclusivamente para servidores y estaciones de trabajo basados en la arquitectura

AMD64 (también conocida como x86-64), que aumenta la capacidad de proceso de la

arquitectura x86 a 64 bits. Esta tecnología fue llevada a los usuarios domésticos en

septiembre de 2003 por los microprocesadores Athlon 64, procesadores de octava

generación.

Athlon 64 Por primera vez en la historia de la informática, el conjunto de instrucciones x86 no ha

sido ampliado por Intel. De hecho Intel ha copiado este conjunto de instrucciones para

sus próximos procesadores, como el Xeon "Nocona". Intel llama a su implementación

Extended Memory Technology -Tecnología de Memoria Extendida- (EM64T), y es

Page 35: Notas Para Un Curso de Ensamble de Microcomputadores

completamente compatible con la arquitectura AMD64. La arquitectura AMD64 parece

que será la arquitectura informática dominante de la generación de 64 bits, al contrario

que alternativas como la arquitectura IA-64 de Intel.

El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del

microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que

los anteriores Athlon y Athlon XP funcionando a la misma velocidad, incluso ejecutando

código heredado de 32 bits. AMD ha elegido un sistema de medida del rendimiento del

procesador basado en los megahercios a los que tendría que funcionar un hipotético

Athlon Thunderbird para que diera el mismo rendimiento que un Athlon 64, en lugar de

indicar los megahercios a los que funciona realmente.

Hay dos variantes del Athlon 64: El Athlon 64 y el Athlon 64-FX. El Athlon 64-FX es

similar al Opteron y más potente que el Athlon 64 normal. El Athlon 64 puede ejecutar

código de 16 bits, 32 bits y el propio ensamblador de 64 bits de AMD. En la actualidad,

Linux, OpenBSD, FreeBSD y NetBSD soportan el modo de 64 bits del Athlon 64,

mientras que Microsoft ha sacado una versión preliminar de Windows XP para equipos

de 64 bits.

El Athlon 64 también presenta una tecnología de reducción de la velocidad del

procesador llamada Cool 'n' Quiet -'Frío y Silencioso'-. Cuando el usuario está

ejecutando aplicaciones que requieren poco uso del procesador, la velocidad del mismo

y su voltaje se reducen. Esto provoca que los máximos de consumo bajen de 89 W a 22

W.

El Athlon 64 puede funcionar en dos zócalos para CPU: Uno utiliza tiene 754 pines y el

otro 939 pines. El de menor número de pines soporta los procesadores de menor

velocidad, mientras que el de mayor número de pines soporta los más rápidos,

incluyendo en Athlon 64-FX. El FX admite memoria RAM DDR de doble canal

Page 36: Notas Para Un Curso de Ensamble de Microcomputadores

Athlon 64 de doble núcleo A partir del Junio de 2005, AMD planea comercializar su procesador AMD Athlon 64 de

doble núcleo, y su nombre podría ser Athlon 64 X2.

Los primeros modelos que llegarán al mercado inicialmente serán los siguientes:

AMD Athlon 64 X2 4400+

AMD Athlon 64 X2 4600+

AMD Athlon 64 X2 4800+

El más potente de los modelos, el Athlon 64 X2 4800+ tendría ambos núcleos

funcionando a 2,4GHz que resulta ser la misma frecuencia que el AMD Athlon 64 4000+

lo cual significaría que en términos de rendimiento y comportamiento, el Atlhon 64 X2

tendría del orden de un 20% más de potencia media que si se compara con un

procesador a igualdad de frecuencia pero en simple núcleo, aunque este punto no está

muy claro o al menos el criterio de numeración de rendimiento de AMD podría necesitar

una pequeña redefinición, dados los problemas de aumentar el rendimiento de sistemas

multi-núcleo accediendo a recursos comunes y el hecho de que tener doble núcleo no

es sinónimo de doble rendimiento.

Los procesadores de sobremesa de AMD de doble núcleo contarán con controlador de

memoria DDR de doble canal, 1MB o 2MB de caché L2 (512KB o 1MB de caché

respectivamente por cada núcleo) e irá montado en placas de Socket 939.

Duron9

Es el procesador de bajo costo de AMD, diseñado para competir con la línea de

procesadores Celeron de Intel.

9 9 Tomado de http://es.wikipedia.org/wiki/AMD_Duron

Page 37: Notas Para Un Curso de Ensamble de Microcomputadores

La diferencia principal entre los Athlon y los Duron es que los Duron solo tienen 64

KBytes de memoria caché de segundo nivel (L2), frente a los 256 KBytes de los Athlon.

El primer núcleo de Duron se llama "Spitfire" y se lanzó al mercado en el verano de

2000. El Duron Spitfire está basado en el Athlon Thunderbird. De hecho ambos son

virtualmente indistinguibles, por lo que el Duron Spitfire funciona generalmente en las

mismas placas bases que el Athlon Thunderbird. La única forma externa de distinguir

un Duron Spitfire de un Athlon Thunderbird es leer un pequeño texto en el núcleo de

procesador, que pone "Athlon" o "Duron" según el procesador.

El núcleo "Applebred" es el segundo núcleo de los Duron. Dicho núcleo está basado en

el núcleo Thoroughbred de los Athlon XP. Fue lanzado al mercado en 2003 y

funcionaba a una frecuencia de reloj entre 1,4 y 1,8 GHz, con un bus de 133 MHz (266

MHz efectivos por la tecnología DDR).

Grupos de entusiastas han descubierto que los Duron Applebred son en realidad Athlon

XP Thoroughbred con la caché extra deshabilitada. Algunos de ellos han conseguido

convertir estos Duron en sus equivalentes Athlon XP con toda su caché de segundo

nivel (L2).

El Duron fue substituido en 2004 por el AMD Sempron.

Sempron10

El AMD Sempron reemplaza al procesador Duron, siendo su principal competidor el

procesador Celeron D de Intel. Las primeras versiones fueron lanzadas al mercado en

agosto de 2004.

Las versiones iniciales de este procesador estaban basadas en el núcleo

Thoroughbred/Thorton del Athlon XP, con una caché de segundo nivel de 256 KB y un

bus de 166 MHz (FSB 333). Su índice de prestaciones relativas (PR) se situaba entre

10 Tomado de http://es.wikipedia.org/wiki/AMD_Sempron

Page 38: Notas Para Un Curso de Ensamble de Microcomputadores

2400+ y 2800+ dependiendo del modelo, aunque el índice no es calculado de la misma

forma que para los Athlon XP, siendo los Sempron algo más lentos a mismo índice de

prestaciones relativas.

Posteriormente el Sempron se basó en el núcleo Barton del Athlon XP. Esta versión

tenía un índice de prestaciones relativas de 3000+ y poseía una caché de segundo nivel

de 512 KB.

Las versiones del Sempron basadas en el Athlon XP se puede emplear en placas base

con zócalo de procesador Socket A.

Las últimas versiones usan una variante del núcleo del Athlon 64 llamada Paris, que no

implementa el conjunto de instrucciones AMD64, pero si el controlador de memoria.

Cuenta con una caché de segundo nivel de 256 KB y su índice de prestaciones

relativas es de 3100+. Esta versión del Sempron se puede emplear en placas base con

zócalo de procesador Socket 754.

2.3. SOCKETS Y SLOTS

El rendimiento que dan los microprocesadores no sólo depende de ellos mismos, sino

también de la placa base donde se instalan y la forma como lo hacen; por ejemplo, en

las placas base más antiguas, el micro iba soldado, de forma que no podía actualizarse

(486 a 50 MHz hacia atrás). Hoy en día esto no se ve. Los microprocesadores se han

instalado desde hace mucho tiempo en zócalos o bahías especiales destinadas para

ello, de tipo socket o tipo slot.

Los zócalos tipo socket tiene mecanismo ZIF (Zero Insertion Force), es decir, en ellas el

procesador se inserta y se retire sin necesidad de ejercer alguna presión sobre él. Al

levantar la pequeña palanca que se encuentra a su lado se libera el microprocesador,

siendo extremadamente sencilla su extracción. Existen varios tipos de sockets, cada

Page 39: Notas Para Un Curso de Ensamble de Microcomputadores

uno usado para generaciones diferentes de microprocesadores. Por ejemplo un zócalo

Socket-3 permite la inserción de un 486 y de un Pentium Overdrive. El socket 7 es

usado por los microprocesadores Pentium/Pentium MMX/K6/K6-2 o K6-3. El socket 8

es utilizado por los procesadores Pentium Pro de Intel, un microprocesador optimizado

para código en 32 bits, el cual sentaría las bases de lo que se conoce en la actualidad.

El socket 370 o PPGA es el zócalo que utilizan los últimos modelos del Pentium III y

algunos Celeron de Intel.

El socket 462 ó socket A es el zócalo donde se insertan los procesadores Athlon de

AMD de versiones relativamente recientes, como Duron, Sempron, Thunderbird o

Athlon XP.

El socket 754 es un zócalo utilizado para los primeros Athlon 64 y algunas versiones

más modernas de Sempron (los basados en una variante del núcleo del Athlon 64

llamada Paris).

El socket 939 es el zócalo utilizado en los procesadores más recientes de AMD, como

versiones mejoradas de Sempron y de Athlon 64, el Athlon 64FX y el Athlon 64 de

doble núcleo, el cual saldrá al mercado en el segundo semestre de 200511.

Por el lado de Intel, se encuentran los sockets 423 y 478, que son los zócalos donde se

insertan los primeros Pentium 4 y algunas versiones de Celeron (con tecnología de

130nm, 128KB de caché L2 y bus de 400MHz, los cuales saldrán del mercado a partir

del 20 de mayo de 200512). El 423 hace referencia al modelo de 0,18 micras (Willamete)

y el 478 al construido según la tecnología de 0,13 micras (Northwood). El tamaño de

micras mencionado hace referencia al tamaño de cada transistor, de forma tal que

cuanto menor sea tu tamaño, más pequeño será el microprocesador y más transistores

será posible utilizar en el mismo espacio físico. Además, la reducción de tamaño suele

11 Tomado de http://www.agalisa.es 12 Tomado de http://www.agalisa.es/web/article1027.html

Page 40: Notas Para Un Curso de Ensamble de Microcomputadores

estar relacionada con una reducción del calor generado y con un menor consumo de

energía.

El socket 775, usado en los más modernos Pentium 4 y Celeron D (basados en el

núcleo Prescott con 256KB de caché L2, bus a 533MHz y tecnología de 90nm. Están

disponibles con velocidades comprendidas entre los 2'40 y los 3'06GHz), elimina los

pines de contacto del procesador y los coloca en la placa base.

Los zócalos tipo Slot difieren de los tipo socket en el modo de conexión de los

microprocesadores. El modo de insertarlos es a similar a una tarjeta gráfica o de

sonido, ayudándonos de dos guías de plástico insertadas en la placa base.

El Slot A es donde se conectan los procesadores Athlon antiguos de AMD. El Slot 1 es

donde se conectan los procesadores Pentium II y antiguos Pentium III y el zócalo Slot 2

es donde se insertan los procesadores Xeon antiguos de Intel, dedicados a servidores

de red.

Page 41: Notas Para Un Curso de Ensamble de Microcomputadores

3. MEMORIA RAM

La memoria RAM (Random Access Memory) es un dispositivo de almacenamiento

temporal que se encarga de cargar porciones de programas y datos para que el

microprocesador las ejecute. Es un tipo de memoria a la que se puede acceder de

forma aleatoria; es decir, se puede acceder a cualquiera de sus bytes sin pasar por los

bytes precedentes.

Hay dos tipos básicos de RAM:

DRAM (Dynamic RAM), RAM dinámica

SRAM (Static RAM), RAM estática

Los dos tipos difieren en la tecnología que usan para almacenar los datos. La RAM

dinámica necesita ser refrescada cientos de veces por segundo, mientras que la RAM

estática no necesita ser refrescada tan frecuentemente, lo que la hace más rápida, pero

también más cara que la RAM dinámica. Ambos tipos son volátiles, lo que significa que

pueden perder su contenido cuando se desconecta la alimentación.

En el lenguaje común, el término RAM es sinónimo de memoria principal, la memoria

disponible para programas. En contraste, ROM (Read Only Memory) se refiere a la

memoria especial, generalmente usada para almacenar programas que realizan tareas

de arranque de la máquina y de diagnósticos. La mayoría de los computadores

personales tienen una pequeña cantidad de ROM (algunos Kbytes).

La memoria RAM es de lectura y escritura, mientras que la ROM es de solo lectura.

Page 42: Notas Para Un Curso de Ensamble de Microcomputadores

Memoria Caché ó RAM Caché :

Es un sistema especial de almacenamiento de alta velocidad, diseñada para que los

programas accedan una y otra vez a los mismos datos o instrucciones. Esta

información es guardada en SRAM (RAM estática de alta velocidad).

Los sistemas de memoria caché usan una tecnología conocida por caché inteligente en

el cual el sistema puede reconocer cierto tipo de datos usados frecuentemente. Las

estrategias para determinar qué información debe de ser puesta en el caché

constituyen uno de los problemas más interesantes en la ciencia de las computadoras.

Algunas memorias caché están construidas en la arquitectura de los

microprocesadores. Por ejemplo, el procesador Pentium II tiene una caché L2 de 512

Kbytes.

El caché de disco trabaja sobre los mismos principios que la memoria caché, pero en

lugar de usar SRAM de alta velocidad, usa la convencional memoria principal. Los

datos más recientes del disco duro a los que se ha accedido (así como los sectores

adyacentes) se almacenan en un buffer de memoria. Cuando el programa necesita

acceder a datos del disco, lo primero que comprueba es la caché del disco para ver si

los datos ya están ahí. La caché de disco puede mejorar drásticamente el rendimiento

de las aplicaciones, dado que acceder a un byte de datos en RAM puede ser miles de

veces más rápido que acceder a un byte del disco duro.

SDRAM (Synchronous DRAM): Es un tipo de memoria RAM dinámica (DRAM) que es

casi un 20% más rápida que la RAM EDO. SDRAM entrelaza dos o más matrices de

memoria interna de tal forma que mientras que se está accediendo a una matriz, la

siguiente se está preparando para el acceso. Un tipo de SDRAM más rápido es

SDRAM-II, también conocido como DDR SDRAM (Double Data Rate SDRAM), la cual

permite leer y escribir datos a dos veces la velocidad del bus.

Page 43: Notas Para Un Curso de Ensamble de Microcomputadores

Por su encapsulado, podemos clasificar la memoria RAM en:

SIMM:(Single In line Memory Module): El primer formato que se hizo popular en los

computadores personales tenía 3.5" de largo y usaba un conector de 30 pines.

Posteriormente se fabricó un formato más largo, de 4.25", el cual usa 72 contactos y

puede almacenar hasta 64 megabytes de RAM. Su velocidad de respuesta no era

inferior a los 50 o 60 nanosegundos. Ambos formatos han desaparecido actualmente

de los computadores modernos.

Sobre la instalación de estos módulos hemos de tener presente que los de 30 contactos

debían ser instalados de cuatro en cuatro en la mayor parte de los casos. En el caso de

los de 72 contactos, éstos debían ser instalados a pares. Como es lógico, en los dos

casos es necesario que los módulos tengan el mismo tamaño y, a ser posible, igual

marca y modelo. La inserción de estos módulos es muy sencilla, entrando en los

bancos de memoria en un ángulo de unos 45 grados, tras lo que sólo hay que empujar

el módulo y colocarlo en posición vertical. En cualquiera de los dos casos, sólo hemos

de tener presente el respetar que la pestaña lateral se acople en el banco elegido.

Page 44: Notas Para Un Curso de Ensamble de Microcomputadores

DIMM (Dual In line Memory Module): Es un tipo de encapsulado, consistente en una

pequeña placa de circuito impreso que almacena chips de memoria, que se inserta en

un zócalo DIMM en la placa madre y usa generalmente un conector de 168 contactos.

Es la evolución de los módulos SIMM y su tiempo de respuesta es notablemente

inferior, por debajo de los 10 nanosegundos.

Es el más cómodo de todos, dado que puede instalarse de manera individual, no siendo

necesario hacer coincidir marcas y modelos sobre la misma placa. Para insertarlos

sobre el banco de memoria, tan sólo habrá que hacer coincidir las pestañas que

encontraremos en el centro y laterales del módulo. Bastará una presión en los extremos

del módulo para que éste quede insertado.

Page 45: Notas Para Un Curso de Ensamble de Microcomputadores

RIMM Los RIMM (Rambus Inline Memory Module), son módulos de memoria de tipo

RAMBUS, la cual era apoyada por Intel y creada por la empresa Rambus, pero que

cayó en desuso por su alto precio, causado por el pago de regalías en concepto de uso.

Estos módulos de memoria de 184 pines, se caracterizan por estar cubiertos con una

protección metálica, generalmente de aluminio, que también ayuda a su correcta

refrigeración.

DDR Este tipo de memoria, actualmente muy usado, desplazó del mercado a las memorias

RIMM por el bajo costo y excelente velocidad, que llega a ser hasta de 400 MHz.

Page 46: Notas Para Un Curso de Ensamble de Microcomputadores

4. BIOS

BIOS son las siglas de Basic Input/Output System: Sistema Básico de Entrada/Salida.

Esta definición es algo engañosa porque parece que la BIOS sólo se encargara de

gestionar los sistemas I/O, pero es bastante más que eso; podríamos decir que es el

sistema operativo del hardware del computador. Sin la BIOS no podría ponerse en

marcha. Controla el proceso de arranque del sistema operativo y está presente para

realizar las funciones y accesos al más bajo nivel.

Físicamente es un chip de memoria (que puede estar soldado a la placa base o en un

zócalo para facilitar su sustitución), en el cual se almacena un código que el

computador utiliza al conectarse la corriente. El código marca los pasos para que el

hardware se inicie y compruebe los componentes.

Hay tres tipos de BIOS y su diferencia está en el método que se utiliza para grabarla:

ROM: Sólo se puede grabar en el momento que se fabrica el chip. La información que

contiene no se puede alterar.

EPROM: Estos chips se pueden grabar con luz ultravioleta. En la parte superior del chip

se puede apreciar una especie de ventanilla transparente, que suele estar tapada con

una pegatina.

Flash BIOS: Son los más utilizados en la actualidad. Estos chips se pueden grabar

mediante impulsos eléctricos por lo que el propietario del computador la puede

actualizar con un programa.

Otro componente que está ligado directamente a la BIOS es la CMOS: (Complementary

Metal Oxide Semiconductor). Es una pequeña porción de RAM, que almacena los

Page 47: Notas Para Un Curso de Ensamble de Microcomputadores

valores y ajustes de la BIOS: la hora, la fecha y los parámetros de los dispositivos de

nuestro ordenador. La CMOS, al ser memoria RAM, tiene que estar continuamente

enganchada a la corriente eléctrica para no perder la información. Cuando nosotros

apagamos el computador entra en funcionamiento una pila de litio situada en la placa

base. Esta pila no es recargable y tiene una vida aproximada de cinco o seis años.

Entre los principales fabricantes de BIOS sen encuentran: AMI, AWARD, PHOENIX,

IBM, MrBIOS

Page 48: Notas Para Un Curso de Ensamble de Microcomputadores

De acuerdo con los diferentes fabricantes de Bios, para ingresar a estas se tienen

pulsaciones específicas de teclas durante el proceso de arranque. Algunas de estas

son13:

FABRICANTE BIOS COMBINACIÓN DE TECLAS

ALR (Advanced Logic Research, Inc) F2 ó Ctrl-Alt-Esc AMD (Advanced Micro Devices, Inc) F1 AMI BIOS Del ó F1 ó F2 Award BIOS Ctrl.-Alt-Esc, ó Del DTK BIOS Esc IBM PS/2 BIOS Ctrl-Alt-Ins y luego Ctrl-Alt-Del Phoenix BIOS Ctrl-Alt-Esc ó Ctrl-Alt-S ó Ctrl-Alt-Ins

ó F1 ó F2 ó Ctrl-S

De acuerdo a la modernidad de los equipos, se tiene:

EQUIPOS VIEJOS EQUIPOS MODERNOS

Ctrl + Alt + Esc Ctrl + Alt + Ins

Ctrl + Alt + Enter Ctrl + Alt + S

PAGE UP KEY PAGE DOWN KEY

F1 F2

ESC DEL

De acuerdo a la marca del equipo se tiene:

MARCA EQUIPO COMBINACIÓN DE TECLAS Acer F1 ó F2 ó Ctrl+Alt+Esc Ast Ctrl+Alt+Esc, Ctrl+Alt+Del Compaq F1 ó F10 cuando el cursor esté titilando en la esquina

superior de la pantalla CompUSA Del Cybermax Esc Dell F1 ó F2 ó F3 ó Del ó Ctrl+Alt+Enter ó Fn+F1 Fortiva 5000 Ctrl+Alt+A

13 Tomado de https://iomega-eu-en.custhelp.com/cgi-bin/iomega_eu_en.cfg/php/enduser/std_adp.php?p_faqid=673 y http://www.michaelstevenstech.com/bios_manufacturer.htm

Page 49: Notas Para Un Curso de Ensamble de Microcomputadores

Gateway 2000 F1 ó F2 ó Ctrl+Alt+S Hewlett Packard F1 ó F2 ó Esc IBM F1 ó F2 IBM algunosPS/2s, como 75 y 90

Ctrl+Alt

IBM modelos antiguos Mantener presionados ambos botones del mouse IBM PS/2 CTRL+ALT+INS después de CTRL+ALT+DEL IBM PS/2 con partición de referencia

Ins

Micron F1, F2, ó Del NEC F2 Olivetti PC Pro Shift+Ctrl+Alt + “NumericPadDel” Packard Bell F1 ó F2 ó Del Seanix Del Sharp Laptop 9020 F2 Sony F3 mientras está encendiendo el equipo, luego F2 ó F1 Sony VAIO F2, F3 Tandon Ctrl+Shift+Esc ó Ctrl+Alt+Esc Tiger Del Toshiba Esc ó F1 Toshiba Laptops (algunos) Toshiba Utility Zenith Ctrl-Alt-Ins Otras posibilidades Ctrl+Esc ó Ctrl+Alt y +

Page 50: Notas Para Un Curso de Ensamble de Microcomputadores

5. ALMACENAMIENTO DE DATOS

CINTA MAGNÉTICA

La unidad de cinta o unidades DAT (Digital Audio Tape, Cinta Digital de Audio) es un

dispositivo de acceso secuencial, esto quiere decir que no se puede saltar sobre la

superficie del cassette como en los discos.

La cinta magnética es frecuentemente usada para respaldar el contenido de las

unidades de disco duro, además, es muchas veces el medio elegido para almacenar

archivos grandes que se leen y procesan de manera secuencial.

Funcionamiento

Si se desea acceder a algún registro se debe primero pasar por los primeros registros

hasta llegar al deseado. Debido a que se debe acceder secuencialmente; es muy difícil

leer y escribir en una misma cinta.

Para almacenar los datos en una cinta magnética, estos se guardan en forma de

pequeñas marcas en el material magnetizable que cubre una cara de la cinta de

plástico. La superficie recubierta de la cinta se divide en columnas verticales (o

cuadros) e hileras horizontales llamadas canales o pistas.

Dado que cualquier cinta magnética es un medio continuo, la forma de identificar

registros individuales en cada cinta es el uso de espacios en blanco llamado separación

entre registros, los cuales se crean automáticamente al grabar los datos en la cinta.

Cuando se leen los datos desde un registro de una cinta en movimiento al procesador,

la cinta se detiene al llegar a un espacio. La cinta permanece inmóvil hasta que se

termine de procesar el registro y a continuación se mueve otra vez para pasar el

siguiente registro al computador. El procedimiento se repite hasta que se procesa todo

el archivo. Si la cinta contiene un gran número de registros muy cortos y si cada uno de

Page 51: Notas Para Un Curso de Ensamble de Microcomputadores

los registros esta separado por medio de una separación entre registros es posible que

mas de la mitad de la cinta este en blanco y que se interrumpa constantemente el

movimiento de la cinta. Para evitar esta situación ineficiente, es posible unir varios

registros cortos para formar un bloque de cinta.

DISCOS FLEXIBLES

Este es un dispositivo de almacenamiento secundario, que permite realizar en forma

sencilla el intercambio de información entre computadores. Es blando y puede doblarse

fácilmente de ahí el nombre de disco flexible. Los tamaños más conocidos son: el de 8",

el de 5¼ " y el de 3½ ".

Dentro de la unidad de disco, un motor hace girar el disco rápidamente, los datos se

graban en las pistas de la superficie del disco en movimiento y se leen de esa superficie

por medio de una cabeza de lect/esc.

Cuando se introdujeron los discos flexibles solo podía utilizarse una cara del disco. Por

lo cual los discos de 5¼ ", tenían una capacidad de 360 Kb y los de 3½ " de 720 Kb,

pero conforme fue perfeccionándose la tecnología, se aumentó la capacidad de

almacenamiento, gracias a la posibilidad de utilizar las dos caras del disco y del

aumento en la densidad de grabación, logrando 1.2MB (en discos de 5¼ ") y 1.44 MB.

(en discos de 3½ ")

Page 52: Notas Para Un Curso de Ensamble de Microcomputadores

CD-ROM

A partir del éxito que se obtuvo dentro de la electrónica con la producción de disco

compacto, se dio origen en el campo de la informática a un dispositivo que se proyecto

desde su inicio para solo lectura de datos digitales dándole el nombre de CD ROM.

Ante todo digamos que el CD ROM, significa según sus iniciales Compact Disk-Read

Only Memory (Disco Compacto de solo Lectura), equivalente a almacenamiento de

datos permanentes no modificables, cuya capacidad permite almacenar grandes

cantidades de información en forma digital.

El material del que esta hecho un CD ROM es policarbonato, una fibra plastificada

resistente, también utilizada en la fabricación de ventanas contra balas y cascos

protectores. Sus características físicas son: 120 mm. de diámetro, 1.2 mm de grosor y

un orificio central de 15 mm de diámetro

El CD ROM tiene una capacidad de almacenamiento de 650, 700, 800 y 900 Mbytes

dependiendo de la marca y modelo del fabricante

Su principal ventaja es que el método de grabación es óptico, por lo que no hay

contacto físico entre la cabeza lectora y el disco en consecuencia no existe rozamiento

alguno teniendo así menor desgaste y mayor seguridad en los datos.

Su principal desventaja es que el acceso es secuencial, es decir, la búsqueda se

efectúa a lo largo de toda la grabación en espiral por lo que la recuperación de datos es

más lenta.

En la actualidad, un tipo muy utilizado de CD-ROM es el CD-RW, el cual permite

almacenar y borrar información un sin número de veces.

Page 53: Notas Para Un Curso de Ensamble de Microcomputadores

DISCOS DUROS

Como su nombre lo dice, son sólidos, porque están construidos sobre un disco grueso

de aluminio. Un disco duro posee un material magnético de mejor calidad para poder

disponer de un mayor número de pistas y sectores por pista, además que sobre el

montaje pueden tenerse uno, dos o más discos, cada uno con sus propias cabezas.

El disco duro se diferencia del disco flexible en que el primero normalmente está fijo en

el computador y no es transportable. Cada disco de la unidad tiene sus dos lados

recubiertos por una fina capa de óxido metálico sensible al magnetismo, usualmente

cromo o níquel.

Al igual que los discos flexibles, los discos duros están formados por pistas o tracks

(pistas concéntricas invisibles a lo largo de las cuales se graban los pulsos magnéticos),

las cuales a su vez se subdividen en sectores.

SISTEMAS DE ARCHIVOS

Son los algoritmos y estructuras lógicas utilizados para poder acceder a la información

que tenemos en el disco. Cada uno de los sistemas operativos crea estas estructuras y

logaritmos de diferente manera independientemente del hardware.

El desempeño de nuestro disco duro, la confiabilidad, seguridad, capacidad de

expansión y la compatibilidad, estará en función de estas estructuras lógicas.

Page 54: Notas Para Un Curso de Ensamble de Microcomputadores

Fat12:

Es el sistema de archivos de DOS, y es con el que formateamos los disquetes. Fue muy

utilizado en las primeras PCs.

Fat16:

Sistema de archivos utilizado con Windows en sus primeras versiones. Entre sus

mayores limitaciones era el no permitir particiones mayores a 2 GB y el no usar nombre

largos en los archivos, sólo 8 caracteres.

Fat32:

Fue utilizado a partir de 1997, adoptado principalmente desde Windows 98Se llamo

Fat32, por que utiliza números de 32 bits para representar a los clusters en lugar de los

16 en los sistemas anteriores.

NTFS:

Especialmente creado para usarlo en Windows NT, aunque actualmente se utiliza

también en Windows 2000 y Windows XP. Su propósito era satisfacer la demanda y

necesidades de de seguridad y eficacia para servidores y otras aplicaciones en red. No

tiene limitaciones de tamaño clusters y en general en el disco. Una ventaja de este

sistema de archivos es que tiene un sistema antifragmentación.

Ext2 y Ext3:

Estos sistemas de archivos son utilizados ampliamente en los sistemas operativos

Linux y trabajan de manera totalmente distinta a los utilizados por Windows (FAT,

FAT32, NTFS). Las particiones del disco se colocan en el directorio raíz. Podemos

incluso tener diferentes particiones y cada una de ellas tener su propio sistema de

archivos.

Page 55: Notas Para Un Curso de Ensamble de Microcomputadores

PARTICIONES

Consiste en dividir un disco duro en uno o más fraccionamientos lógicos que se

comportan cada uno como si fuesen un disco real e independiente del resto. En los File

Systems utilizados por los sistemas operativos Windows (FAT, FAT32, NTFS), a cada

unidad se le identifica con una letra, siendo la unidad C la partición primaria o principal.

Por medio del programa "FDISK" del DOS/WINDOWS, o de otros programas utilitarios

(algunos de ellos mucho más completos), se puede crear las particiones del disco y

definirlas como primaria, extendida o lógica

Cuando tenemos una sola partición en nuestro disco se dice que es una partición

primaria, para crear nuevas secciones o unidades en el disco duro accesible al sistema

operativo, necesitamos una partición extendida. (Otros sistemas operativos como linux,

permiten definir hasta 4 particiones primarias). Por ejemplo si tenemos un disco con

capacidad de 20 GB y queremos dividirlo en tres partes una de 12 GB, otra de una de 2

GB y otra de 6 GB, debemos crear una partición primaria de 12 GB en la cual residirán

los archivos del sistema operativo y luego una extendida de 8 GB. En esta última

tendremos que crear dos particiones lógicas una de 2 GB y otra de 6 GB.

MBR

El Master Boot Record (MBR) es un pequeño programa que es ejecutado en cada Inicio

del sistema operativo y se encuentra ubicado en el primer sector absoluto (Track 0,

head 0, sector 1) del disco duro. Este programa busca la tabla de particiones para

transferirla al Sector de Arranque (Boot).

El MBR está compuesto por código ejecutable y las entradas de la Tabla de Particiones.

Page 56: Notas Para Un Curso de Ensamble de Microcomputadores

Estructura del Master Boot Record Offset Naturaleza Tamaño +00h Código ejecutable Variable

+1BEh 1a entrada de tabla de particiones 16 bytes +1CEh 2a entrada de tabla de particiones 16 bytes +1DEh 3a entrada de tabla de particiones 16 bytes +1EEh 4a entrada de tabla de particiones 16 bytes +1FEh Marcador ejecutable (AA55h) 2 bytes

Los virus que infectan al Master Boot Record, por lo general lo reemplazan con su

código viral e inutilizan en forma lógica el disco duro, haciendo que el usuario afectado

tenga que formatear y cargar nuevamente su Sistema Operativo y los demás

programas, a menos que cuente con un disquete de emergencia. Debido a que el MBR

se ejecuta cada vez se inicia el sistema, este clase de virus son de extremadamente

peligrosidad.

Page 57: Notas Para Un Curso de Ensamble de Microcomputadores

6. LA COMUNICACIÓN CON EL PC

PUERTOS SERIALES

La historia de las comunicaciones seriales comienza a la par del lenguaje de

comunicación en la historia del hombre, en la que fonemas, símbolos y ademanes son

proferidos uno después de otro en una secuencia que con ciertas reglas tiene un

sentido y un significado, que es el concepto subyacente en las comunicaciones seriales

para la transferencia de datos de un emisor a un receptor un bit a la vez a través de una

línea sencilla o un circuito.

La implementación de las comunicaciones seriales para la transmisión de datos es una

evolución del telégrafo, en la cual para fines prácticos de la comunicación de datos

digitales, el puerto serial toma 8, 16 o 32 bits paralelos del transporte de datos de la

computadora o del dispositivo y los convierte en un flujo serial de 8, 16 o 32 bits,

haciendo el proceso inverso durante la recepción.

El sistema de comunicación serial fue adoptado durante los años 60s.

Los puertos seriales son aquellos que transmiten y reciben información bit a bit, tales

como: los puertos COM, el puerto infrarrojo, los puertos USB.

En teoría un enlace serial podría requerir de sólo dos cables, una línea de señal y una

tierra, para mover la señal serial de una locación a otra. Pero en la práctica esto no

funciona correctamente al paso del tiempo ya que algunos bits pueden perder el nivel

de la señal, alterando el resultado final. Un bit faltante en la terminal de recepción

puede provocar que todos los bits siguientes sean cambiados o recorridos, resultando

en datos incorrectos al convertirlos de regreso a una señal paralela. Por lo tanto, para

conseguir una comunicación serial confiable se deben de prevenir estos errores de bit

que pueden emerger en varias formas distintas.

Page 58: Notas Para Un Curso de Ensamble de Microcomputadores

En un principio el control de software de los puertos seriales resultaba en una gran

sobrecarga para el procesador, hasta los 19200 bps, ya que los transportes de datos

estaban limitados a 8 y 16 bits. Con la llegada de los transportes de datos MCA, EISA,

VLBus y PCI, llegó la ventaja de la posesión de transporte de datos y el acceso directo

a memoria elevando la velocidad de transmisión eliminando la sobrecarga del

procesador.

Al eliminar la utilización del BIOS y controlando el puerto directamente se comenzaron a

obtener velocidades de 115200 bps y superiores, especialmente con la llegada de

puertos inteligentes que por sí mismos pueden controlar la comunicación.

La comunicación serial por módem telefónico sobre líneas de voz, alcanza únicamente

hasta los 56,000 bps debido a restricciones técnicas de la propia línea de voz.

Comunicación síncrona y comunicación asíncrona

Comunicación síncrona es aquella en donde los dispositivos de envío y recepción de la

comunicación son sincronizados utilizando un reloj que cronometra con precisión el

tiempo que separa cada bit. Al verificar el tiempo el dispositivo receptor puede

determinar si un bit se ha perdido o si un bit extra, usualmente inducido eléctricamente,

ha sido introducido en el flujo de bits. Si cualquiera de los dispositivos pierde la señal de

tiempo, la comunicación es terminada.

El otro método, el utilizado en las computadoras, consiste en agregar marcadores

dentro del flujo de bits para ayudar a seguir cada bit de datos. Al introducir un bit de

inicio que indica el inicio de un corto flujo de datos, la posición de cada bit puede ser

determinado cronometrando los bits a intervalos regulares. Enviando bits de inicio al

comienzo de cada flujo de 8 bits, los dos sistemas pueden no estar sincronizados por

una señal de reloj, lo único que es importante es que ambos sistemas estén

configurados a la misma velocidad. Cuando el dispositivo receptor de la comunicación

recibe el bit de inicio comienza un temporizador de corto tiempo. Al mantener los flujos

cortos no hay suficiente tiempo para que el reloj salga de sincronía. Este método es

conocido como comunicación asíncrona debido a que las terminales de la comunicación

no están sincronizadas por una línea de señal.

Page 59: Notas Para Un Curso de Ensamble de Microcomputadores

Todo el esquema de comunicación serial cambió con la introducción del Bus Serie

Universal, mejor conocido por las siglas de su nombre en inglés USB por Universal

Serial Bus en 1996, que en sí ya deja de ser un puerto convirtiéndose en un bus con

todos los beneficios de esto.

La mayoría de los equipos que implementan puertos seriales, basados en el estándar

RS-232 utilizan un conector DB-25 aún cuando la documentación original del estándar

no especifica un conector en especial, y la mayoría de las computadoras comenzaron a

utilizar el conector DB-9 dado que 9 son los conectores que se requieren para la

comunicación asíncrona.

PUERTO PARALELO

Es el que típicamente utiliza la impresora, aunque sirve para otro tipo de aplicaciones.

Este puerto es más rápido que el serie, pero en cambio su longitud es muy pequeña,

encontrándose en la práctica que a una distancia de 10 metros se presenten problemas

en la comunicación. Además es muy sensible a cualquier interferencia.

El puerto paralelo de un PC posee un conector de salida del tipo DB25 hembra cuyo

diagrama y señales utilizadas podemos ver en la siguiente figura:

Page 60: Notas Para Un Curso de Ensamble de Microcomputadores

UNIVERSAL SERIAL BUS (USB)

USB es una nueva arquitectura de bus desarrollado por un grupo de siete empresas

Compaq, Digital Equipment Corp, IBM PC Co., Intel, Microsoft, NEC y Northern

Telecom que forma parte de los avances plug-and-play y permite instalar periféricos sin

tener que abrir la máquina para instalarle hardware, es decir, basta con que se

conectes dicho periférico en la parte posterior del computador, tal y como se conecta un

mouse, unos parlantes o una impresora.

Otra característica importante es que permite a los dispositivos trabajar a velocidades

mayores, en promedio a unos 12 Mbps (USB 1.1), es decir, más o menos de 3 a 5

veces más rápido que un dispositivo de puerto paralelo y de 20 a 40 veces más rápido

que un dispositivo de puerto serial, de hecho los puertos seriales o paralelos están muy

cerca de jubilarse ya que entre los periféricos de tipo USB altamente utilizados están

mouse e impresora además de teclados, escáners, bocinas, joysticks, módems,

cámaras digitales, teléfonos y sistemas para identificación de huellas digitales.

USB 2.0 es un avance en la velocidad de transferencia de información sobre el USB

convencional, puesto que la incremento 40 veces; es decir, funciona a 480MBps.

Page 61: Notas Para Un Curso de Ensamble de Microcomputadores

Es muy importante tener en cuenta que todos los periféricos que se conecten al puerto

USB (máximo 127 usando concentradores o hubs USB) consumen una única IRQ.

TECNOLOGIA FIREWIRE

En el avance incesante del mundo hacia el estilo de vida digital, una de las tecnologías

imprescindibles ha sido el estándar serial de entrada/salida (E/S) IEEE 1394, también

conocido como FireWire (Apple), iLink (Sony), y DV (Vídeo Digital, usado en las

videocámaras). Este bus multimedial de alta velocidad ha proporcionado un modo

fiable, rentable y eficaz de trasladar archivos de sonido e imágenes y grandes

volúmenes de datos. Diseñado para facilitar el establecimiento de redes y la

transferencia de grandes cantidades de distintos tipos de datos digitales entre equipos y

usuarios, FireWire se ha convertido en un elemento indispensable para la industria de la

electrónica de consumo y la informática personal. El aporte de Apple al estándar

FireWire ha merecido el reconocimiento de la Academia de las Artes y Ciencias de la

Televisión Estadounidense, que ha otorgado a la compañía un Emmy por la creación

del estándar, que tiene numerosas aplicaciones en el sector de la televisión. En cuanto

a las aplicaciones en informática, el vicepresidente de Intel, Anand Chandrasekher

pronostica que el vídeo digital y FireWire serán cada vez más importantes en los PC.

Cuando se introdujo originalmente el estándar FireWire en 1995, supuso una revolución

sin precedentes. Ofrecía una anchura de banda treinta veces mayor que el estándar

para periféricos Universal Serial Bus (USB) 1.1, y hacía posible una auténtica legión de

nuevas prestaciones y aplicaciones. Ahora una segunda versión del FireWire, conocida

como Fireware 800 ofrece al usuario velocidades de transferencia de 800 Mbps, el

doble de los 400 Mbps del FireWire original. Todas las versiones de FireWire ofrecen

conexión plug and play, que permite al usuario empezar a utilizar el dispositivo

inmediatamente después de conectarlo. También permiten conectar hasta 63

dispositivos a un solo bus y establecer conexiones peer-to-peer, por lo que pueden

conectarse al mismo tiempo varios ordenadores y varios periféricos FireWire a un

Page 62: Notas Para Un Curso de Ensamble de Microcomputadores

mismo bus. FireWire admite también transmisiones tanto isocrónicas como

asincrónicas, garantizando la entrega de los datos en tiempo real y evitando el riesgo

de que los datos lleguen en orden incorrecto o con retrasos.

Además del incremento de velocidad, otra de las mejoras decisivas de Fireware 800 es

la admisión de mayores distancias de cable. Si se usan cables fabricados con fibra

óptica de calidad profesional y ambos dispositivos están conectados mediante un hub

FireWire 800, pueden utilizarse cables de hasta 100 metros.

FireWire 800 frente a USB 2.0

USB 2.0 tiene una tasa de transferencia máxima de 480 Mbps, por lo que en teoría

supera los 400 Mbps de FireWire 400. Sin embargo, debido a las diferencias en los

protocolos de transmisión, esa superioridad no se traslada a la práctica en todos los

periféricos. Pero FireWire 800 duplica claramente esa velocidad teórica y proporciona

inmediatamente un mejor rendimiento usando una tecnología de disco moderna.

Además, FireWire es más adecuado para las transferencias de datos isocrónicas (en

las que el factor tiempo es esencial), que son las requeridas por el vídeo de alta

definición.

MEDIOS INALAMBRICOS

PUERTOS INFRARROJOS

El 28 de Junio de 1993, 50 compañías relacionadas con la computación decidieron que

era tiempo de desarrollar comunicación inalámbrica para computadoras, Formando la

Asociación de Desarrolladores de Infrarrojo (Infrared Developers Association, IrDA).

La idea detrás del IrDA era crear un estándar para utilizar rayos infrarrojos para unir una

computadora y otros periféricos. Hasta este momento en la historia los rayos infrarrojos

Page 63: Notas Para Un Curso de Ensamble de Microcomputadores

habían sido utilizados únicamente en controles remotos para dispositivos y algunas

computadoras portátiles; sin embargo cada uno de los fabricantes creaba su propio

esquema de comunicación haciendo poco compatible la comunicación entre

dispositivos.

Los fabricantes de computadoras comenzaron a tomar ventaja de la tecnología IrDA a

principio de a década de 1990 cuando las computadoras tipo lap-top se comenzaron a

hacer populares. La tecnología IrDA utilizada en ese entonces estaba en desarrollo, por

lo cual muchas veces la tecnología IrDA varia de fabricante a fabricante. Estas

variaciones causaban conflictos con otros dispositivos.

Para finales de Junio de 1994, IrDA estableció el primer estándar, conocido como IrDA

versión 1.0 que era básicamente una forma óptica del puerto de comunicaciones RS-

232. En Agosto de 1995 IrDA ajustó el estándar para comunicaciones infrarrojas

extendiendo la velocidad de comunicación a 4 megabits por segundo.

En 1997 los miembros de IrDA se reunieron en la Comdex, en Las Vegas, para

promover nuevos dispositivos inalámbricos para el mercado de consumo y artilugios de

comunicaciones que tomaban ventaja de la tecnología IrBUS.

IrBus es el nombre original para los estándares de la IrDA, que permitía comunicación

bidireccional entre dispositivos separados hasta por 24 pies, haciendo posible la

creación de palancas de mano, tapetes de juegos y unidades de disco. IrBus también

era capaz de comunicación simultánea con dos anfitriones y era capaz de soportar

hasta 8 dispositivos. También se especulaba que futuros dispositivos IrBus pudieran ser

integrados a objetos domésticos como hornos de microondas.

A principio de 1998 los fabricantes comenzaron a liberar la tecnología IrBus integrada

en la circuitería de entrada - salida de sus sistemas para permitir que la tecnología IrDA

fuera utilizada, aunque fueron reticentes para incorporar un puerto IrDA en

computadoras de sobremesa debido al costo extra, que era aproximadamente de

Page 64: Notas Para Un Curso de Ensamble de Microcomputadores

US$10.00 por el transceptor, pero lo hicieron disponible como accesorio a través del

puerto RS-232.

La tecnología infrarroja se hizo cada vez más popular en las computadoras portátiles,

así como asistentes personales digitales y computadoras de mano. Sejin America, Inc;

Microsoft; HP; y Sharp comenzaron a fabricar accesorios inalámbricos IrDA tales como

teclados, ratones, palancas de mando, tableros de juegos y controles remotos que

aprovecharan la tecnología IrBus en computadoras personales de escritorio. La mayoría

de estos accesorios estuvieron disponibles a mediados de 1998, y debido a la limitada

utilización de tecnología IrBus en el mercado, estas chácharas tecnológicas no tuvieron

mucho éxito en el mercado.

BLUETOOTH

Bluetooth es una tecnología de radio que permite conectar distintos dispositivos,

teléfonos móviles, PDAs, dispositivos periféricos o componentes del sistema como el

teclado o el ratón y portátiles entre sí.

Bluetooth se diferencia de IrDA en algunos aspectos importantes: por una parte, los

distintos dispositivos no deben “verse” necesariamente; por otra, varios dispositivos

pueden agruparse y formar redes completas. No obstante, actualmente sólo pueden

alcanzarse tasas de datos de hasta 720 Kbps como máximo (al menos en la versión

actual 1.2). En teoría, con Bluetooth es posible establecer conexiones entre dispositivos

separados por una pared. En la práctica, esto depende en gran medida de la pared y de

la clase de dispositivo. Esta última determina el alcance máximo de la transmisión, que

varía de 10 a 100 metros dependiendo de cuál de las tres clases se utilice.

Page 65: Notas Para Un Curso de Ensamble de Microcomputadores

7. PERIFÉRICOS

TECLADOS

El teclado es el dispositivo más común de entrada de datos. Se lo utiliza para introducir

comandos, textos y números. Estrictamente hablando, es un dispositivo de entrada y de

salida, ya que los LEDs también pueden ser controlados por la máquina.

Consta de una matriz de contactos, que al presionar una tecla, cierran el circuito. Un

microcontrolador detecta la presión de la tecla, y genera un código. Al soltarse la tecla,

se genera otro código. De esta manera el chip localizado en la placa del teclado puede

saber cuándo fue presionada y cuándo fue soltada, y actuar en consecuencia. Los

códigos generador son llamados Códigos de barrido (Scan code, en inglés).

Una vez detectada la presión de la tecla, los códigos de barrido son generados, y

enviados de forma serial a través del cable y con el conector del teclado, llegan a la

placa madre de la PC. Allí, el código es recibido por el microcontrolador conocido como

BIOS DE TECLADO. Este chip compara el código de barrido con el correspondiente a

la Tabla de caracteres. Genera una interrupción por hardware, y envía los datos al

procesador.

Existen los siguientes tipos de teclado:

• Tipo XT de 83 teclas: Obsoleto.

• Tipo AT de 101/102 teclas

• Tipo Windows 95/98, 104 teclas. Se le agregaron al teclado AT tres teclas

especiales que llaman a los menús contextuales del Windows.

• Tipo ergonómico: Con un formato diferente, con mayor comodidad para el

usuario.

Existen dos tipos de conectores para los teclados:

• Conector DIN: grande, de 5 pines.

Page 66: Notas Para Un Curso de Ensamble de Microcomputadores

• Conector Mini DIN: chico, de 6 pines. También conocido como conector PS/2, ya

que el modelo PS/2 de IBM fue el primero que tuvo este tipo.

En caso de que el conector de la placa madre no sea el mismo que el del teclado,

existen adaptadores de DIN a Mini DIN, y viceversa, ya que eléctricamente todos los

teclados envían señales en el mismo formato.

MONITORES

Es la pantalla en la que se ve la información suministrada por el computador. En la

mayoría de los casos se trata de un aparato basado en un tubo de rayos catódicos,

aunque en el caso de los computadores portátiles y algunos monitores modernos, es

una pantalla plana de cristal líquido.

Al número de puntos que puede representar el monitor en la pantalla se le llama

resolución, y las más comunes son 640*480, 800*600 y 1024*768

TARJETAS GRAFICAS

La tarjeta de video es la encargada de transmitir la información gráfica que debe

aparecer en la pantalla. Realiza principalmente dos operaciones: interpretar los datos

que le llegan del procesador, ordenándolos y calculando para poder presentarlos en

pantalla en forma de un rectángulo mas o menos grande, compuesto de puntos

individuales de diferentes colores; y la otra función es la de coger la salida de datos

digitales resultante del proceso anterior y la transforma en una señal analógica que

pueda entender el monitor.

Page 67: Notas Para Un Curso de Ensamble de Microcomputadores

VELOCIDAD DE REFRESCO: El refresco es el número de veces que se dibuja la

pantalla por segundo. Se mide en hertzios (Hz, 1/segundo), así que 70 Hz significa que

la pantalla se dibuja cada 1/70 de segundo, o 70 veces por segundo. Para trabajar

cómodamente necesitaremos esos 70 Hz. Para trabajar ergonómicamente, con el

mínimo de fatiga visual, 75-80 Hz o más. El mínimo absoluto son 60 Hz; por debajo de

esta cifra los ojos pueden sufrir bastante y tener problemas visuales.

TARJETAS DE MODEM

MODEM es un acrónimo del término MOdulador-DEModulador; es decir, que es un

dispositivo que transforma las señales digitales del computador en señal telefónica

analógica y viceversa, con lo que permite al computador transmitir y recibir información

por la línea telefónica.

Existen varios tipos de modems;

• Internos: Consisten en una tarjeta de expansión sobre la cual están dispuestos

los diferentes componentes que forman el módem. Existen para diversos tipos de

conector: ISA, PCI, AMR. La principal ventaja de estos módems reside en su

mayor integración con el computador, ya que no ocupan espacio sobre la mesa y

toman su alimentación eléctrica del propio equipo. Además, suelen ser algo más

barato debido a carecer de carcasa y transformador, especialmente si son PCI.

Como desventaja, son algo más complejos de instalar y la información sobre su

estado sólo puede obtenerse mediante software.

En la actualidad se consiguen con frecuencia los modems software, HSP o

Winmodems, en los cuales se han eliminado varias piezas electrónicas,

generalmente chips especializados, de manera que el microprocesador del

computador debe suplir su función mediante software. La ventaja resulta

evidente: menos piezas, más baratos. Las desventajas, que su rendimiento

depende del número de aplicaciones abiertas y que el software que los maneja

Page 68: Notas Para Un Curso de Ensamble de Microcomputadores

sólo suele estar disponible para Windows 95/98, de ahí el apelativo de

Winmódems. Evidentemente, resultan poco recomendables pero son baratos.

• Externos: son similares a los anteriores pero metidos en una carcasa que se

coloca sobre la mesa o el computador. La conexión con este se realiza

generalmente mediante uno de los puertos serie o "COM", aunque ya existen

modelos para puerto USB, de conexión y configuración aún más sencillas.

La ventaja de estos módems reside en su fácil transportabilidad entre

computadores, además de que podemos saber el estado el módem (marcando,

con/sin línea, transmitiendo...) mediante unas luces que suelen tener en el

frontal. Pero su principal desventaja es que son un aparato más que necesitan un

enchufe para su transformador, además de ser más costosos.

• Módems PC-Card: son módems que se utilizan en portátiles; su tamaño es

similar al de una tarjeta de crédito y sus capacidades pueden ser igual o más

avanzadas que en los modelos normales.

La velocidad del MODEM es sin duda el parámetro que mejor lo define, midiéndose

esta baudios por segundo o lo que equivale a bits por segundo (no bytes). Ahora, si

tenemos en cuenta que un byte está compuesto de 8 bits; por tanto, un módem de

56.000 bps transmitirá en las mejores condiciones un máximo de 7.000 bytes por

segundo, pero atenuantes como la saturación de las líneas, la baja capacidad que

proporcione el proveedor de acceso a Internet, la mala calidad del módem o de la línea

(ruidos, interferencias, cruces...) suelen hacer que la velocidad media efectiva sea

mucho menor, de 4.000 bytes/s.

TARJETA DE RED

Page 69: Notas Para Un Curso de Ensamble de Microcomputadores

Es una tarjeta de circuitos integrados que se inserta en uno de los zócalos de

expansión de la placa base y cuya función es conectar el ordenador con la estructura

física y lógica de la red informática a la que pertenece. De esta manera, todos los

computadores de la red podrán intercambiar información conforme a los protocolos

establecidos en la misma.

Existen distintos tipos de especificaciones de red, definidos según estándares de la

IEEE; para cada uno de ellos se emplean distintos tipos de tarjetas y distintos modos de

conexión entre computadores, lo que tiene consecuencias en la velocidad de

transmisión de la información que propician. Una de las tarjetas de red más empleadas

es la de tipo Ethernet, que en sus distintas variantes, puede permitir transmisiones

desde algunos miles de bits por segundo hasta un gigabit por segundo.

IMPRESORAS

La impresora es el periférico que el computador utiliza para presentar información

impresa en papel. Las primeras impresoras nacieron muchos años antes que el PC e

incluso antes que los monitores, siendo durante años el método más usual para

presentar los resultados de los cálculos en aquellos primitivos computadores, todo un

avance respecto a las tarjetas y cintas perforadas que se usaban hasta entonces.

La velocidad en una impresora se suele medie en ppm (páginas por minuto) aunque los

fabricantes siempre calculan este parámetros de forma totalmente engañosa; por

ejemplo, cuando se dice que una impresora de tinta llega a 7 páginas por minuto no se

advierte de que son páginas con máximo un 5% de superficie impresa, en la calidad

más baja, sin gráficos y descontando el tiempo de cálculo del computador.

Las impresoras se conectan al PC casi exclusivamente mediante el puerto paralelo, que

en muchos sistemas operativos se denomina LPT1 (LPT2 en el caso del segundo

puerto paralelo, si existiera más de uno). Como el puerto paralelo original no era

Page 70: Notas Para Un Curso de Ensamble de Microcomputadores

demasiado rápido, en la actualidad se utilizan puertos más avanzados como el ECP o el

EPP, que son más rápidos y añaden bidireccionalidad a la comunicación (es decir, que

la impresora puede "hablarle" al PC, lo que antiguamente era imposible) al tiempo que

mantienen la compatibilidad con el antiguo estándar. El método de trabajo del puerto

paralelo (estándar, ECP, EPP...) se suele seleccionar en la BIOS del computador.

Otras formas de conectar una impresora es mediante un conector USB (rápido y

sencillo), mediante un dispositivo de infrarrojos (muy útil en el caso de portátiles) o

directamente conectados a una red (y no a un computador conectado a la misma) en el

caso de grandes impresoras para grupos.

Page 71: Notas Para Un Curso de Ensamble de Microcomputadores

8. HERRAMIENTAS DE DIAGNOSTICO Y MANTENIMIENTO

ANTI-ESPIAS

Se considera spyware o programas espía a las aplicaciones informáticas que recopilan

información personal del usuario, como, por ejemplo:

• El software que está instalado en la PC.

• Cuáles son los hábitos de uso de Internet.

• Páginas visitadas.

• Passwords, etc.

Posteriormente utilizan esta información, en ocasiones para transmitirla a terceras

compañías, tales como empresas de publicidad, u otras interesadas en dichos datos.

Los programas espías (spyware, en inglés) ya desplazaron a los virus en el ranking de

los “malware”, los programas, documentos o mensajes susceptibles de causar

perjuicios a los usuarios de sistemas informáticos. Según un informe de la empresa de

seguridad Panda Software, el 84 por ciento del malware instalado en las computadoras

de todo el mundo es spyware.

Los spyware presentan una serie de características que impiden su correcta detección y

que les permite instalarse en un gran número de PC durante largos períodos de tiempo:

• Utilizan sistemas de camuflaje casi perfectos. Normalmente, se instalan en el

equipo junto con algún tipo de aplicación: un cliente de alguna aplicación P2P,

alguna utilidad para el disco duro.

• Los nombres de los archivos que se corresponden con este tipo de programas

no suelen dar una idea de su verdadera naturaleza, por lo que pueden pasar

desapercibidos entre el resto de ficheros de una aplicación. Al no tratarse de

virus, ni utilizar ninguna rutina que pueda relacionarlos con ellos, los programas

Page 72: Notas Para Un Curso de Ensamble de Microcomputadores

antivirus no los detectan, a no ser que hayan sido programados específicamente

para ello.

• Los programas espía o spyware pueden ser detectados gracias a sus efectos,

que se traducen en un consumo de recursos elevado y, por lo tanto, una

ralentización del PC, un gran consumo de ancho de banda de conexión a

Internet o la pérdida total de dicha conexión, así como la inestabilidad del

sistema. Además, también suelen cambiar las configuraciones de algunas

aplicaciones, como la página de inicio del navegador, o depositar iconos en el

escritorio.

Ahora que ya se sabe que es un programa espía y sus efectos en el PC, vamos a

mencionar los principales anti-espías (anti-spyware), que se pueden encontrar en la

red:

• Ad-Aware SE: Este software es desarrollado por Lavasoft, una empresa alemana

con sede en Suecia que se encarga de escribir software de seguridad

principalmente. Es muy difundido por su alta efectividad a la hora de eliminar

spyware.

• SpyBotS&D: Spybot - Search & Destroy puede detectar y eliminar software espía

de diferente tipo en el computador.

• Spywareblaster: Es un programa antiespías que previene la instalación de

spyware basado en activeX, además bloquea la ejecución de tracking y cookies

en Internet Explorer y Mozilla Firefox y restringe las acciones de sitios web

potencialmente peligrosos.

ANTIVIRUS

Un virus informático es un programa de computadora que ocupa una cantidad mínima

de espacio en disco (para poder pasar desapercibido), se ejecuta sin conocimiento del

usuario y se dedica a autorreplicarse, es decir, hace copias de sí mismo e infecta

Page 73: Notas Para Un Curso de Ensamble de Microcomputadores

archivos, tablas de partición o sectores de arranque de los discos duros y disquetes

para poder expandirse lo más rápidamente posible, hasta que llega el momento de la

"explosión", es decir, el momento culminante que marca el final de la infección y cuando

llega suele venir acompañado del formateo del disco duro, borrado de archivos o

mensajes de protesta. No obstante el daño se ha estado ejerciendo durante todo el

proceso de infección, ya que el virus ha estado ocupando memoria en el computador,

ha ralentizado los procesos y ha "engordado" los archivos que ha infectado.

Ahora vamos a hablar de los principales antivirus que se encuentran actualmente y

mencionaremos muchos otros:

• NORTON ANTIVIRUS: Este antivirus es quizás el más conocido mundialmente

por los usuarios de computadores, es eficiente y confiable a la hora de la

detección de los virus aunque algunas veces presenta problemas de fondo

cuando se trata de removerlos. Posee una interfaz amigable con el usuario. No

es de libre distribución por lo que para instalarlo se requiere comprar una

licencia. Es desarrollado por Symantec, una empresa estadounidense de

seguridad en informática.

• F-PROT: Este antivirus de F-RISK software internacional tiene múltiples

versiones, es muy conocido por su sencillez y efectividad, siendo muy difundido

en la WEB. Tiene una versión libre para DOS que detecta y elimina

eficientemente las amenazas.

• PANDA: Este antivirus es producido por Panda Software. Las versiones más

conocidas y recientes de este antivirus son el platinum y el titanium. Ambos son

fáciles de utilizar y son, como todos, interactivamente actualizables.

• AVG: Producido por Grisoft, su versión libre es una de las mas populares y

utilizadas por los usuarios. Entre sus características principales se tiene que

cuenta con una interfaz gráfica sencilla de utilizar, provee de protección en el

arranque, protección en tiempo real y para correo electrónico.

• STINGER: Es una utilidad usada para detectar y remover virus específicos. No

es un substituto para una protección antivirus completa, pero puede ser una

Page 74: Notas Para Un Curso de Ensamble de Microcomputadores

herramienta potente y completa para administradores y usuarios cuando se trata

de lidiar con un sistema infectado.

HERRAMIENTAS DE DIAGNOSTICO

Entre las principales herramientas de diagnóstico, se encuentran 2 incorporadas en

todas las versiones del sistema operativo Windows, Scandisk, utilizado para detectar y

en algunos casos reparar errores tanto de asignación como físicos en los diferentes

medios de almacenamiento. y Defrag, el cual corrige la fragmentación o segmentación

de archivos en un disco, reubicándolos en sectores contiguos del disco.

Pero además de estas herramientas, existen otras también muy importantes a la hora

de hacer un diagnóstico o reparación sencilla de nuestro sistema, entre ellas tenemos:

• EVEREST: Everest Home Edition es una completísima herramienta que, en unos

pocos segundos, realiza un extenso y detallado análisis de tu PC, mostrando

prácticamente todos los aspectos del sistema referentes a hardware y software,

como procesador, placa base, memoria, sistema operativo, procesos activos,

DLL en uso, servicios en ejecución, carpetas compartidas, usuarios,

configuración de audio y vídeo, configuración de red local e Internet, software

instalado, etc. En cuanto se ejecuta se obtiene toda la información disponible a

través de una sencilla interfaz y mediante una clara estructura de árbol. En ésta

se clasifican los distintos elementos analizados, mostrando además enlaces al

sitio web del fabricante para mayor información y/o descarga de controladores.

• SISOFT SANDRA: Utilidad de diagnósticos y pruebas para Windows.

Proporciona información sobre el hardware, el software, y todos los dispositivos

instalados en el sistema. Permite chequear información acerca de: CPU, BIOS,

administración avanzada de la energía, buses PCI y AGP, video, memoria

Page 75: Notas Para Un Curso de Ensamble de Microcomputadores

(Windows y DOS), unidades, puertos, teclado, Mouse, tarjeta de sonido,

impresora, dispositivos MCI, procesos, modulos OLE, volcados a CMOS, etc.

• HDD REGENERATOR: Gracias a este programa es posible recuperar sectores

defectuosos de un disco duro sin perder la información que en ellos se

encuentre, a diferencia de otras aplicaciones, las cuales marcan estos sectores

como defectuosos y los “oculta” imposibilitando así la escritura o lectura en ellos,

perdiendo todos los datos que almacenaban.

UTILITARIOS

Winzip: El más popular manejador de archivos comprimidos ZIP para Windows. Incluye

un asistente para no tener que recordar las opciones de memoria.

WinRAR: Es otro importante compresor, cuya característica principal el uso del formato

RAR, de mayor rata de compresión, incluso en archivos multimedia. Además tiene

soporte para comprimir y descomprimir archivos en otros formatos.

KeyText: Excelente automatizador de tareas para Windows. Permite programar la

ejecución de cualquier tarea o programa con un simple y comprensible asistente. Se

ejecuta a la hora especificada, busca determinada ventana activa se encarga de hacer

los clics o presionar las teclas. Complicadas tareas cotidianas con programas de

cualquier tipo se hacen automáticamente con KeyText. Para más información visite la

página de MjMSoft

Macro Magic: Permite grabar macros para automatizar fácilmente cualquier proceso.

Imagine esas complicadas funciones de 6 teclas y 20 clicks, todas haciéndose solas,

dándole tiempos de espera a los programas con solo una combinación de 2 teclas o 1

Page 76: Notas Para Un Curso de Ensamble de Microcomputadores

doble click de mouse. Puede grabar hasta los movimientos exactos del ratón. Para más

información visite la página de Macro Magic

AutoMate: Automatiza completamente cualquier programa en Windows. Incluye un

Constructor de Macros incorporado, asistentes, una amplia gama de configuraciones

para hacer fácil cualquier automatización. La versión registrada incluye un lenguaje

script para tener un control total sobre cualquier aplicación. Para más información visite

la página de AutoMate Professional

Emergency Recovery System: Hace copias de resguardo de las partes críticas de

Windows así como los archivos que el usuario especifique. Tiene varias opciones para

ajustarse a cada backup y un sistema de rotación que le asegura que sus datos

guardados no tengan más de 3 a 7 días de antigüedad. Para más información visite la

página de Emergency Recovery System

Win Rescue: Programa para resguardar la configuración actual de Windows y en caso

de tener que reinstalarlo, podrá hacerlo en un par de minutos. Incluye un programa de

DOS que recupera Windows incluso si Windows no arranca. Para más información

visite la página de Win Rescue

Total Commander: El más completo de los manejadores de archivos para Windows.

Con todos los comandos del Norton Commander, copia y mueve archivos en 2do plano,

compresor interno en formato ZIP, soporte para archivos RAR, maneja nombres largos,

soporte multilenguaje, copia de .zip a .zip, cliente FTP incluido. Para más información

visite www.ghisler.com

Diskeeper Lite: Es un defragmentador para Windows. Puede defragmentar tanto FAT

como NTFS estando Windows en normal funcionamiento. Diskeeper realiza varios

pasos de optimización por cada sesión por lo que le permite, de forma segura,

defragmentar y consolidar el espacio libre del volumen. Cuando es usado regularmente

Page 77: Notas Para Un Curso de Ensamble de Microcomputadores

mantiene el rendimiento de Windows al máximo. Para más información visite la página

de Executive Software International

MemTurbo: Al igual que un disco rígido, la memoria RAM se fragmenta con el uso

continuo. MemTurbo se encarga de defragmentar la memoria de Windows,

optimizando el sistema y haciendo que sus programas se ejecuten más rápido.

Además, MemTurbo tiene configuraciones especiales del cache de Windows

optimizadas para personas que utilicen muchos juegos, o que trabajen con aplicaciones

potentes e incluso aumenta el cache si tiene una grabadora de CD para que sea fluida

la información y no se vacíe el buffer. Ideal para computadoras que quedan toda la

noche encendida y no es posible reiniciarlas, tales como servidores. Para más

información visite la página de MemTurbo

TWEAKI: Este software le permite cambiarle hasta 260 parámetros en configuraciones

del Windows, desde apariencia hasta funcionamientos internos. También permite crear

nuevos menús contextuales, siento visualizados con un click del botón derecho del

mouse, sobre un archivo o una carpeta.

ClipCache Plus: Graba todo lo que el usuario corte o copie al portapapeles de Windows

para luego administrar estos datos desde un cómodo icono en la barra del sistema.

Para mas información visite la página de Xrayz Software

FreeSpace: Es una innovadora utilidad que permite liberar espacio en disco de su PC

sin tener que desinstalar ni borrar nada. El usuario puede definir que archivos quiere

comprimir y que nivel de compresión. Una vez finalizado el proceso, los archivos

comprimidos se ven exactamente igual pero ocupan mucho menos espacio y sin

interferir con el normal funcionamiento de Windows. Para más información visite la

página de Mijenix Corp.