39
TRABAJO DE RECUPERACION SENA ANGELA BEARIZ JARAMILLO LOPEZ 10-2 NACIONAL ACADEMICO SEDE PRINCIPAL CARTAGO – VALLE 12, ABRIL, 2012

Sena angela

Embed Size (px)

Citation preview

Page 1: Sena angela

TRABAJO DE RECUPERACION

SENA

ANGELA BEARIZ JARAMILLO LOPEZ

10-2

NACIONAL ACADEMICO

SEDE PRINCIPAL

CARTAGO – VALLE

12, ABRIL, 2012

Page 2: Sena angela

TABLA DE CONTENIDO

Paj

1. Introducción…………………………………………………………… 2. Justificación……………………………………………………………3. Objetivos…………………………………………………………………4. Procesadores…………………………………………………………..5. Tarjeta madre…………………………………………………………6. Monitores…………………………………………………………………7. Dispositivos de almacenamiento……………………………8. memorias………………………………………………………………..9. Graficas…………………………………………………………………..10. Bibliografía………………………………………………………….

Page 3: Sena angela

INTRODUCCION

Este trabajo es sobre los procesadores, la tarjeta madre, monitores y los dispositivos de almacenamiento, de la pc se hablara específicamente y se explicaran de manera clara cada uno de estos.

Page 4: Sena angela

JUSTIFICACION

Las razones por las que realizo esta trabajo es para obtener más conocimiento sobre sobre los componentes de la pc escomo funciona por dentro esta magnifico aparato que tanto revuelo ha causado como procesa la información como la almacena etc.

Page 5: Sena angela

OBJETIVOS

GENERAL:

Tener un concepto propio sobre estos conceptos de vital importancia para la pc.

ESPECIFICO:

Aprender y poner en práctica lo aprendido por medio de este trabajo.

Page 6: Sena angela

LOS PROCESADORES

INICIOS:

Comenzó siendo del tamaño de un armario, posteriormente se redujo al de una gran caja, después se construyó en un placa de unos 15 por 15 pulgadas. Finalmente se construyó en un solo circuito integrado, encapsulado en un "chip", que se inserta en un zócalo de la placa-base (0). La historia de los procesadores, ha pasado por diferentes situaciones siguiendo la lógica evolución de este mundo. Desde el primer procesador 4004 del año 1971, hasta el actual Core i7 del presente año ha llovido mucho en el campo de los procesadores. Aquel primer procesador presentado en el mercado el día 15 de noviembre, poseía unas características únicas para su tiempo. Para empezar, la velocidad del reloj sobrepasaba por poco los 100 KHz (Kilo hertzio) disponía de un ancho de bus de 4 bits. Fue expuesto por Roberto Pineda 2002 en la U.E.V.A.A

Máximo de 640 bytes de memoria. Realmente una auténtica joya, que para entonces podía realizar gran cantidad de tareas pero que no tiene punto de comparación con los actuales micros, entre sus aplicaciones podemos destacar su presencia en la calculadora Busicom, así como dotar de los primeros tintes de inteligencia a objetos inanimados. Sin embargo el 1º de Abril de 1972 Intel anunciaba una versión mejorada de su procesador. se trataba del 8008,que contaba como principal novedad un bus de 8 bytes y la memoria direccionable se ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3500 transistores, casi el doble que su predecesor, y se le puede considerar como el antecedente del procesador que serviría de corazón a la primera computadora personal. Justo 2 años después Intel anunciaba esa tan esperada computadora personal, de nombre Altair, cuyo nombre proviene de un destino de la nave Enterprise, en de los capítulos de la popular serie de televisión Star Trek, la semana en la que se creó la computadora. Esta computadora tenía un costo alrededor de los 400 dólares de la época, y el procesador suponía multiplicar por 10 el rendimiento del anterior, gracias a sus 2 MHz de decenas de miles de unidades en lo que supónia la aparición de la primera computadora que la gente podía comprar, y no ya simplemente utilizar. Intel al cual se le ocurrió que su procesador 586 se llamara PENTIUM, por razones de mercado. Tiene varios como son: Pentium, Pentium II, Pentium III y Pentium IV, AMD tiene el AMD586, K5 y el K6. Los 586 (Pentium) ya son prácticamente obsoletos.

LEY DE MOORE:

Page 7: Sena angela

El Dr. Gordon Moore, uno de los fundadores de Intel Corporation, formuló en el año de 1965 una ley que se conoce como la " Ley de Moore". La citada ley dice que el número de transistores contenido en un microprocesador se duplica más o menos cada 18 meses. Esta afirmación, que en principio estaba destinada a los dispositivos de memoria y también los microprocesadores, ha cumplido la ley correctamente hasta ahora... Una ley que significa para el usuario que cada 18 meses puede disfrutar de una mejor tecnología, algo que se ha venido cumpliendo durante los últimos 30 años y se espera siga vigente en los próximos 15 o 20 años. De modo que el usuario puede disponer de mejores equipos, aunque también signifique la necesidad de cambiar de equipo cada poco tiempo, algo que no todo el mundo se puede permitir, y eso que el precio aumenta de forma absoluta pero no relativa, puesto que la relación MIPS-dinero está decreciendo a velocidad vertiginosa. Esto no sucede con la industria del automóvil, ya que la potencia de los coches no se ha multiplicado de la misma forma que los precios. Queda claro que en los próximos años nos espera una auténtica revolución en lo que a rendimiento de los procesadores se refiere, como ya predijera Moore hace más de 30 años.

NUEVAS TECNOLOGIAS:

Los procesadores ahora se pueden fabricar en mayor cantidad por wafer de silicio utilizado, esto le da una ventaja al fabricante en términos de menores costos. Pero no todo se reduce a eso; ahora es posible poner dos núcleos del procesador en el mismo espacio que antes ocupaba uno. Así pues el siguiente paso es el llamado Dual Core, es decir, un mismo procesador tiene, en realidad, dos cerebros, dos procesadores con sus respectivas memorias caché, pero con la misma cantidad de conectores. El proceso a seguir fue achicar aún más todo y además cambiar materiales. AMD e Intel pasaron entonces a los 90nm, más pequeños aún, y a nuevas tecnologías de proceso (SOI, por ejemplo: Silicon On Insulator), esto trae dos ventajas: menos calor, menos energía necesaria para mover el mismo electrón a la misma velocidad y más espacio. La ventaja de AMD sobre Intel está en el multiprocesamiento debido a que cada núcleo posee su conector HyperTransport y su controlador de memoria, Intel resolvió en cierta manera esto, pero AMD tiene, al poseer el controlador de memoria y el HT incluidos, la posibilidad no de Dual Core solamente... si no de N núcleos es decir, el paso que le sigue para el año que viene es meter 4 procesadores en un mismo envase, y luego 8.

Actualmente, ya hay disponibles procesadores de 4 núcleos a un precio asequible (alrededor de 300 €). Estos procesadores son los Intel Core 2 Quad y sus velocidades de proceso oscilan entre 2.400 y 2.666 MHz, aunque su principal ventaja es la elevada cantidad de memoria caché de segundo nivel: 8 MB. La memoria caché de un ordenador es la que almacena las operaciones que más se repiten, por lo que se almacenan en esa memoria en concreto para acelerar el proceso.

Page 8: Sena angela

Por otro lado tenemos los procesadores multinúcleo de AMD, principal competidor de Intel. Próximamente lanzará al mercado sus procesadores de 3 y 4 núcleos - con los nombres de Phenom y Opteron, respectivamente - aunque los precios todavía son una incógnita.

En cuanto a lo que se aproxima, lo lógico es pensar que los fabricantes buscarán la manera de ir "sumando núcleos" y no tanto en aumentar la velocidad de reloj del procesador.

Otro factor que se sigue trabajando en cuanto a las CPU se refiere, es la velocidad del FSB. Mientras que AMD ha llegado a los 2000 Mhz gracias al Hyper Transport, los últimos procesadores de Intel ya soportan velocidades de 1366 Mhz.

FUTURO DE LOS PROCESADORES:

El último paso conocido ha sido la implementación de la nueva arquitectura de 0.25 micras, que viene a sustituir de forma rotunda la empleada hasta el momento, de 0.35 micras en los últimos modelos de procesador. Esto va a significar varias cosas en un futuro no muy lejano, para empezar la velocidad se incrementará una medida del 33% con respecto a la generación del anterior. Es decir, el mismo procesador usando esta nueva tecnología puede ir un 33% más rápido que el anterior. Para los que no podamos hacer una idea de este tamaño de tecnología, el valor de 0.25 micras es unas 400 veces más pequeño que un cabello de cualquier persona. Y este tamaño es el que tienen transistores que componen el procesador. El transistor, como muchos sabemos, permite el paso de la corriente eléctrica, de modo que en función de en qué transistores haya corriente, el ordenador realiza las cosas (esto es una simplificación de la realidad pero se ajusta a ella). Dicha corriente eléctrica circula entre dos puntos de modo que cuanto menor sea esta distancia, más cantidad de veces podrá pasar, pues el tiempo es menor. Aunque estamos hablando de millonésimas de segundo, tener en cuenta que un procesador está trabajando continuamente, de modo que ese tiempo que parece insignificante cuando es sumado a lo largo de las miles de millones de instrucciones que realizar, nos puede dar una cantidad de tiempo importante. De modo que la tecnología que se utilice puede dar resultados totalmente distintos, incluso utilizando el mismo procesador. en un futuro cercano además de contar con la arquitectura de 0.25 micras podremos disfrutar de una de 0.07, para el año 2011, lo que supondrá la introducción en el procesador de mil millones de transistores, alcanzando una velocidad de reloj cercana a los diez mil MHz, es decir, diez GHz.

Han pasado más de 25 años desde que Intel diseñara el primer microprocesador, que actualmente cuenta con más del 90% del mercado. Un tiempo en el que todo ha cambiado enormemente, y en el hemos visto pasar varias generaciones de maquinas que nos han entretenido y ayudado en el trabajo diario. Dicen que es natural en el ser humano querer mirar constantemente hacia el futuro, buscando información de hacia donde vamos,

Page 9: Sena angela

en lugar de en donde hemos estado. Por ello no podemos menos que asombrarnos de las previsiones que los científicos barajan para dentro de unos 15 años. Según el Dr. Albert Yu, vicepresidente de Intel y responsable del desarrollo de los procesadores desde el año 1984, para el año 2011, utilizaremos procesadores cuyo reloj ira a una velocidad de 10 GHz (10,000 MHz) contendrán mil millones de transistores y será capaz de procesar cerca de 100 mil millones de instrucciones por segundo. Un futuro prometedor, permitirá realizar tareas nunca antes pensadas.

TIPO DE PROCESADORES:

Pentium-75; 5x86-100 (Cyrix y AMD)

AMD 5x86-133

Pentium-90

AMD K5 P100

Pentium-100

Cyrix 686-100 (PR-120)

Pentium-120

Cyrix 686-120 (PR-133) ; AMD K5 P133

Pentium-133

Cyrix 686-133 (PR-150) ; AMD K5 P150

Pentium-150

Pentium-166

Cyrix 686-166 (PR-200)

Pentium-200

Cyrix 686MX (PR-200)

Pentium-166 MMX

Pentium-200 MMX

Cyrix 686MX (PR-233)

AMD K6-233

Pentium II-233

Cyrix 686MX (PR-266); AMD K6-266

Page 10: Sena angela

Pentium II-266

Pentium II-300

Pentium II-333 (Deschutes)

Pentium II-350

Pentium II-400

Page 11: Sena angela

TARJETA MADRE:

Una tarjeta madre es la plataforma sobre la que se construye la computadora, sirve como medio de conexión entre el microprocesador y los circuitos electrónicos de soporte de un sistema de cómputo en la que descansa la arquitectura abierta de la máquina también conocida como la tarjeta principal o "Placa Central" del computador. Existen variantes en el diseño de una placa madre, de acuerdo con el tipo de microprocesador que va a alojar y la posibilidad de recursos que podrá contener. Integra y coordina todos los elementos que permiten el adecuado funcionamiento de una PC, de este modo, una tarjeta madre se comporta como aquel dispositivo que opera como plataforma o circuito principal de una computadora.

Físicamente, se trata de una placa de material sintético, sobre la cual existe un circuito electrónico que conecta diversos componentes que se encuentran insertados o montados sobre la misma, los principales son:

Microprocesador o Procesador: (CPU– Unidad de Procesamiento Central) el cerebro del computador montado sobre una pieza llamada zócalo o slot

Memoria principal temporal: (RAM– Memoria de acceso aleatorio) montados sobre las ranuras de memoria llamados generalmente bancos de memoria.

Las ranuras de expansión: o slots donde se conectan las demás tarjetas que utilizará el computador como por ejemplo la tarjeta de video, sonido, modem, etc.

Chips: como puede ser el BIOS, los Chipset o controladores.

ELEMENTOS QUE COMFORMAN UNA TARJETA MADRE:

Muchos de los elementos fundacionales de la tarjeta madre siguen formando parte de ella (con sus respectivas mejoras), otros han pasado al exterior, y muchos otros se han incorporado. En la actualidad, una tarjeta madre estándar cuenta básicamente con los siguientes elementos:

Page 12: Sena angela

1.- conectores:

1) Conectores PS/2 para mouse y teclado: incorporan un icono para distinguir su uso.2) Puerto paralelo: utilizado por la impresora. Actualmente reemplazado por USB.3) Conectores de sonido: las tarjetas madre modernas incluyen una placa de sonido con todas sus conexiones.4) Puerto serie: utilizado para mouse y conexiones de baja velocidad entre PCS.5) Puerto USB: puerto de alta velocidad empleado por muchos dispositivos externos, como los escáneres o las cámaras digitales.6) Puerto FireWire: puerto de alta velocidad empleado por muchos dispositivos externos. No todas las tarjetas madre cuentan con una conexión de este tipo.7) Red: generalmente las tarjetas madre de última generación incorporan una placa de red y la conexión correspondiente.

Page 13: Sena angela

Tipos de tarjeta madre:

Las tarjetas madres o principales existen en varias formas y con diversos conectores para dispositivos, periféricos etc. Los tipos más comunes de tarjeta son:

ATX

Son las más comunes y difundidas en el mercado, se puede decir que se están convirtiendo en un estándar son las de más fácil ventilación y menos enredo de cables, debido a la colocación de los conectores ya que el microprocesador suele colocarse cerca del ventilador de la fuente de alimentación y los conectores para discos cerca de los extremos de la placa. Además, reciben la electricidad mediante un conector formado por una sola pieza.

AT ó Baby-AT

Fue el estándar durante años con un formato reducido, por adaptarse con mayor facilidad a cualquier caja, pero sus componentes estaban muy juntos, lo que hacia que algunas veces las tarjetas de expansión largas tuvieran problemás.

FUNCIONES DE LA TARJETA MADRE:

Conexión fisica

Administración, control y distribución de la tarjeta eléctrica

Comunicación de datos

Temporización

Sincronismo

Control y monitoreo

Page 14: Sena angela

MONITORES:

El monitor es uno de los principales dispositivos de salida de una computadora por lo cual podemos decir que nos permite visualizar tanto la información introducida por el usuario como la devuelta por un proceso computacional.

La tecnología de estos periféricos ha evolucionado mucho desde la aparición de las PC, desde los viejos monitores de fósforo verde hasta los nuevos de plasma. Pero de manera mucho más lenta que otros componentes, como microprocesadores, etc.

Sus configuraciones han ido evolucionando según las necesidades de los usuarios a partir de la utilización de aplicaciones más sofisticadas como el diseño asistido por computadoras o el aumento del tiempo de estancia delante de la pantalla y q se ha arreglado aumentando el tamaño de la pantalla y la calidad de la visión.

Monitores CRT:

El monitor está basado en un elemento CRT (Tubo de rayos catódicos), los actuales monitores, controlados por un microprocesador para almacenar muy diferentes formatos, así como corregir las eventuales distorsiones, y con capacidad de presentar hasta 1600x1200 puntos en pantalla. Los monitores CRT emplean tubos cortos, pero con la particularidad de disponer de una pantalla completamente plana.

Monitores color:

Las pantallas de estos monitores están formadas internamente por tres capas de material de fósforo, una por cada color básico (rojo, verde y azul). También consta de tres cañones de electrones, e igual que las capas de fósforo hay una por cada color.

Para formar un color en pantalla que no sea ninguno de los colores básicos, se combina las intensidades de loas haces de electrones de los tres colores básicos.

Monitores monocromáticos:

Muestra por pantalla u solo color: negro sobre blanco o ámbar, o verde sobre negro. Uno de estos monitores con una resolución equivalente a la de un monitor a color, si es de buena calidad, generalmente es más nítido y legible.

Funcionamiento de un monitor CRT:

En la parte trasera del tubo encontramos la rejilla catódica, que envía electrones a la superficie interna del tubo. Estos electrones al estrellarse sobre el fósforo hacen que este se ilumine. Un CRT es básicamente un tubo vacío con un cátodo (el emisor de luz electrónico y un ánodo (la pantalla recubierta de

Page 15: Sena angela

fósforo) que permiten a los electrones viajar desde el terminal negativo al positivo. El yugo del monitor, una bobina magnética, desvía la emisión de electrones repartiéndolo por la pantalla, para pintar las diversas líneas que forman un cuadro o imagen completa.

Los monitores monocromos utilizan un único tipo de fósforo pero los monitores de color emplean un fósforo de tres colores distribuidos por triadas. Cada haz controla uno de los colores básicos: rojo, azul y verde sobre los puntos correspondientes de la pantalla.

A medida que mejora la tecnología de los monitores, la separación entre los puntos disminuye y aumenta la resolución en pantalla (la separación entre los puntos oscila entre 0.25mm y 0.31mm). Loa avances en los materiales y las mejoras de diseño en el haz de electrones, producirían monitores de mayor nitidez y contraste. El fósforo utilizado en un monitor se caracteriza por su persistencia, esto es, el periodo que transcurre desde que es excitado (brillante) hasta que se vuelve inactivo (oscuro)

Características de monitores CRT:

El refresco de la pantalla:

El refresco es el número de veces que se dibuja a pantalla por segundo. Evidentemente, cuando mayor sea la cantidad de veces que se refresque, menos se nos cansara la vista y trabajaremos más cómodos y con menos problemas visuales.

La velocidad del refresco se mide en hertzios (Hz. 1/segundo), así que 70 Hz significa que la pantalla se dibuja 70 veces por segundo. Para trabajar cómodamente necesitaremos esos 70 Hz. Para trabajar con el mínimo de fatiga visual, 80Hz o más. El mínimo son 60 Hz; por debajo de esa cifra los ojos sufren demasiado, y unos minutos basta para empezar a sentir escozor o incluso un pequeño dolor de cabeza.

La frecuencia máxima de refresco de un monitor se ve limitada por la resolución de la pantalla. Esta última decide el número de líneas o filas de la máscara de la pantalla y el resultado que se obtiene del número de las filas de un monitor y de su frecuencia de exploración vertical (barrido o refresco) es la frecuencia de exploración horizontal; esto es el número de veces por segundo que el haz de electrones debe desplazarse de izquierda a derecha de la pantalla.

Quien proporciona estos refrescos es la tarjeta gráfica, pero quien debe presentarlos es el monitor. Si ponemos un refresco de pantalla que el monitor no soporta podríamos dañarlo, por lo que debemos conocer sus capacidades a fondo.

Page 16: Sena angela

Resolución:

Se denomina resolución de pantalla a la cantidad de píxeles que se pueden ubicar en un determinado modo de pantalla. Estos píxeles están a su vez distribuidos entre el total de horizontales y el de vértices. Todos los monitores pueden trabajar con múltiples modos, pero dependiendo del tamaño del monitor, unos nos serán más útiles que otros.

Un monitor cuya resolución máxima sea de 1024x768 píxeles puede representar hasta 768 líneas horizontales de 1024 píxeles cada una, probablemente además de otras resoluciones inferiores como 640x480 u 800x600. Cuanto mayor sea la resolución de un monitor, mejor será la calidad de la imagen de pantalla, y mayor será la calidad del monitor. La resolución debe ser apropiada además al tamaño del monitor; hay que decir también que aunque se disponga de un monitor que trabaje a una resolución de 1024x768 píxeles, si la tarjeta gráfica instalada es VGA (640x480) la resolución de nuestro sistema será esta última.

Monitores LCD:

Tamaño:

El tamaño de los monitores CRT se mide en pulgadas, al igual que los televisores. Hay que tener en cuenta que lo que se m es la longitud de la diagonal, y que además estamos hablando de tamaño de tubo, ya que el tamaño aprovechable siempre es menor.

Radiación:

El monitor es un dispositivo que pone en riesgo la visión del usuario. Los monitores producen radiación electromagnética no ionizante (EMR). Hay un ancho de banda de frecuencia que oscila entre la baja frecuencia extrema (ELF) y la muy baja frecuencia, que a producido un debate a escala mundial de los altos tiempos de exposición de dichas emisiones por parte de los usuarios. Los monitores que ostentan las siglas MPRII cumplen con las normas de radiación toleradas fuera de los ámbitos de discusión.

Foco y convergencia:

De ellos depende la fatiga visual y la calidad del texto y de las imágenes. El foco se refiere especialmente a la definición que hay entre lo claro y lo oscuro. La convergencia es lo mismo que el foco, pero se refiere a la definición de los colores del tubo. La convergencia deberá ser ajustada cuando los haces de electrones disparados por los cañones no estén alineados correctamente.

LCD – (Liquid Cristal Display):

La tecnología LCD es, hoy en día, una de las más pujantes y que más rápidamente evoluciona mejorándose continuamente.

Aunque la tecnología que los cristales líquidos es relativamente reciente, parte de las curiosas propiedades de los cristales líquidos ya fueron observados en

Page 17: Sena angela

1888 cuando se experimentaba con una sustancia similar al colesterol, esta sustancia permanecía turbia a temperatura ambiente y se aclaraba según se calentaba; al enfriarse más y más azulado se tornaba de color hasta solidificarse y volverse opaca.

Este efecto paso desapercibido hasta que la compañía RCA aprovecho sus propiedades para crear el primer prototipo de visualizador LCD. A partir de ese momento el desarrollo y aplicación de estos dispositivos ha sido y es espectacular.

Funcionamiento:

El fenómeno LCD está basado en la existencia de algunas sustancias que se encuentran en estado solidó y liquido simultáneamente, con lo que las moléculas que las forman tienen una capacidad de movimiento elevado, como en los líquidos, presentando además una tendencia a ordenarse en el espacio de una forma similar a los cuerpos sólidos cristalinos.

El Display o visualizador LCD está formado por una capa muy delgada d cristal líquido, del orden de 20 micras encerrada entre dos superficies planas de vidrio sobre las que están aplicados unos vidrios polarizados ópticos que solo permiten la transmisión de la luz según el plano horizontal y vertical.

El nombre cristal líquido es si mismo contradictorio, normalmente entendemos a los cristales como algo sólido y todo lo contrario para un líquido, aunque ambos puedan ser transparentes a la luz. Pues bien y por extraño que parezca, existen sustancias que tienen ambas características.

Cambio en la polarización:

El estado líquido ofrece una acción de cambio de polarización de luz incidente en un ángulo de 90° por el cristal y si encuentra un polarizador vertical situado en el vidrio posterior, podrá pasar a través del mismo. Si se aplica una determinada tensión eléctrica entre las superficies que encierran el cristal, las moléculas del mismo dejaran pasar la luz sin introducir ningún cambio sobre la misma, entonces al llegar al polarizado será detenida, comportándose el conjunto como un cuerpo opaco.

En realidad el material de cristal líquido está organizado en capas sucesivas; la posición de las moléculas de cada capa está ligeramente desfasada unas de otras, de tal manera que entre la primera y la última capa hay un desfase total de 90° cuando no hay influencia de ningún campo eléctrico. La luz polarizada se obtiene de hacer pasar la luz incidente en el Display por unos filtros ópticos o polarizados situados en ambas caras del dispositivo: uno colocado verticalmente y otro horizontal, esto es desfasados 90° uno del otro.

Aplicando un campo eléctrico por medio de un electrodo a una determinada zona del cristal, las moléculas de cristal de esta zona toman una posición igual y en fase con el primer filtro pero no con el segundo, no dejando pasar la luz y

Page 18: Sena angela

por lo tanto nada q reflejar por el espejo, sin embargo las zonas del cristal sin influencia del campo eléctrico sigue siendo transparente, el contraste se obtiene así de la relación luz/oscuridad entre zonas transparentes y opacas.

Tipos de despliegues visuales:

Lentes LCD resplandecientes

Tienen la apariencia de un par de anteojos, un foto sensor es montado en estos anteojos de LCD con el único propósito de leer una señal de la computadora. Esta señal le dice a los anteojos si permite pasar luz por el lado derecho o por el izquierdo del lente.

Los anteojos se conmutan de uno a otro lente a 60 Hertz, lo cual causa que el usuario perciba una vista tridimensional continua vía el mecanismo del paralelaje.

Despliegues montados en la cabeza

Colocan una pantalla en frente de cada ojo del individuo todo el tiempo. La vista, el segmento del ambiente virtual generado y presentado es controlado por la orientación de los sensores montados en el “casco”. El movimiento de la cabeza es reconocido por la computadora, y una nueva perspectiva de la escena es generada.

En la mayoría de los casos, un conjunto de lentes ópticos y espejos usados para agrandar la vista, llenar el campo visual y dirigir la escena de los ojos.

Aplicaciones:

Los LCD evolucionaron con el tiempo para cubrir aplicaciones más ambiciosas como pantalla de TV, monitores de PC y en general visualizadores de mayor resolución: esto complicó sus diseños haciéndolos cada vez más sofisticados. Con el paso del tiempo se han sucedido varias tecnologías de fabricación de LCDs, las principales son:

De plano común: Apropiada para desplays sencillos como los que incorporan calculadoras y relojes, se emplea un único electrodo posterior para generar campo eléctrico.

De matriz pasiva: Para crear imágenes de buena resolución. En estos displays hay dos matrices de electrodos en forma de líneas paralelas, el modo de funcionamiento es multiplexado y controlado normalmente por circuitos integrados especializados en esta aplicación. Son baratos y fáciles de construir pero tienen una respuesta lenta al refresco de imágenes.

De matriz activa: Cada píxel esta compuesto por un transistor y un condensador, cada uno de estos grupos esta activado de forma secuencial por líneas de control, la tensión en placas de cada condensador determina el nivel de contraste de ese píxel con lo que se puede crear una escala de grises controlando de forma adecuada la tensión.

Page 19: Sena angela

MONITORES PLASMA:

Se basan en el principio de que haciendo pasar un alto voltaje por un gas a baja presión se genera luz. Estas pantallas usan fósforo como los CRT pero son emisivas como las LCD y frente a estas consiguen una gran mejora del color y un estupendo ángulo de visión.

Estas pantallas son como fluorescentes, y cada píxel es como una pequeña bombilla de color, el problema de esta tecnología es la duración y el tamaño de los píxeles, por lo que su implantación más común es en grandes pantallas de TV.

Están conformadas por miles y miles de píxeles que conforman la imagen, y cada píxel está constituido por tres subpixeles, uno con fósforo rojo otro con verde y el último con azul, cada uno de estos subpixeles tienen un receptáculo de gas (una combinación de xenón, neón y otro gases).

Un par de electrodos en cada subpixel ioniza al gas volviéndolo plasma, generando luz ultravioleta que excita al fósforo que a su vez emite luz que en su conjunto forma una imagen.

Es por esta razón que se necesitaron 70 años para conseguir una nueva tecnología que pudiese conseguir mejores resultados que los CRT’s o cinescopios.

Características:

El diseño de este tipo de productos permite q podamos colgarlo en la pared como si tratase de un cuadro. Las pantallas de plasma cuentan con un panel de celdas con las que consigue, mayores niveles de brillo y blancos mas puros, lo cual es una combinación que mejora los sistemas anteriores. Además, las imágenes son aún más nítidas, naturales y brillantes.

El gran inconveniente de estos productos es el precio el cual es demasiado elevado para el común de los usuarios.

Nuevas Tecnologías:

Visualización 3D

Largamente asociada a lentes especiales ya se empieza a disponer de hardware de presentación 3D visible a ojo desnudo, como las computadoras 3D, que hasta hace algún tiempo solo podían ser apreciadas en las películas o en los laboratorios de la NASA. La primera generación de estos computadores requería que los usuarios utilizaran lentes especiales, al igual que los utilizados en el cine, pero esto traía como consecuencia una rápida fatiga de la visión.

El desarrollo de la tecnología 3D ha dado como resultado computadoras que están ya disponibles comercialmente.

Page 20: Sena angela

Displays Autostereoscópicos o de paralelaje

Son pantallas de computadora similares a las tradicionales, en las que no es necesario el uso de gafas polarizantes o filtros de colores. Algunos sistemas disponen de obturadores selectivos que muestran solo las columnas de píxeles que corresponden a la imagen de uno de los ojos, tapando a las que corresponden al otro, para la posición de la cabeza del usuario. Por ello suelen estar asociados a sistemas de la cabeza por infrarrojos.

Displays Volumétricos

Son sistemas que presentan la información de un determinado volumen. Al igual que una pantalla de TV es capaz de iluminar selectivamente todos y cada uno de los píxeles de su superficie, un Display volumétrico es capaz de iluminar todos los vóxeles (píxeles en 3D) que componen su volumen. Hay tres tipos fundamentales:

Espejo varifocal, Una membrana espejeada oscila convirtiéndose en un espejo de distancia focal variable que refleja la imagen de una pantalla.

Volumen emisivo, Un determinado volumen ocupado por un medio capaz de emitir luz en cualquier parte de su interior como resultado es una excitación externa.

Pantalla rotativa, una pantalla plana gira a una velocidad 600 rpm. Para cada uno de un conjunto predeterminado de posiciones angulares de la misma, un sistema de espejos proyecta sobre ella la imagen del objeto tal como corresponde a la perspectiva asociada a dicho ángulo.

El resultado final es la imagen 3D de un objeto que podamos ver desde 360 grados. Proporciona una resolución de más de 100 millones de vóxeles, es el más avanzado en este tipo de sistemas.

Multi-layer display

Esta tecnología es la más avanzada de todas, usa dos capas físicamente separadas de píxeles para crear la impresión de profundidad. La tecnología consiste en dos planos de píxeles, de esta manera se hace más sencillo para el usuario absorber información y disminuye el cansancio ocular.

Page 21: Sena angela

DISPOSITIVOS DE ALMACENAMIENTO DE DATOS:

Los dispositivos que no se utilizan exclusivamente para grabación (por ejemplo manos, bocas, instrumentos musicales) y dispositivos que son intermedios en el proceso de almacenamiento y recuperación (por ejemplo, ojos, oídos, cámaras, escáneres, micrófonos, altavoces, monitores, proyectores de vídeo) no son por lo general considerados como dispositivos de almacenamiento. Los dispositivos usados exclusivamente para grabación (por ejemplo impresoras), exclusivamente para lectura (por ejemplo lectores de códigos de barras), o los dispositivos que procesan solamente una forma de información (por ejemplo fonógrafos) pueden o no considerarse dispositivos de almacenamiento. En computación éstos se conocen como dispositivos de entrada-salida.

Un cerebro orgánico puede o no considerarse un dispositivo de almacenamiento de datos.

DISCO DURO:

Los discos duros tienen una gran capacidad de almacenamiento de información, pero al estar alojados normalmente dentro de la computadora (discos internos), no son extraíbles fácilmente. Para intercambiar información con otros equipos (si no están conectados en red) necesitamos utilizar unidades de disco, como los disquetes, los discos ópticos (CD, DVD), los discos magneto-ópticos, memorias USB, memorias flash, etc.

El disco duro almacena casi toda la información que manejamos al trabajar con una computadora. En él se aloja, por ejemplo, el sistema operativo que permite arrancar la máquina, los programas, archivos de texto, imagen, vídeo, etc. Dicha unidad puede ser interna (fija) o externa (portátil), dependiendo del lugar que ocupe en el gabinete o caja de computadora.

Un disco duro está formado por varios discos apilados sobre los que se mueve una pequeña cabeza magnética que graba y lee la información.

Este componente, al contrario que el micro o los módulos de memoria, no se pincha directamente en la placa, sino que se conecta a ella mediante un cable. También va conectado a la fuente de alimentación, pues, como cualquier otro componente, necesita energía para funcionar.

Además, una sola placa puede tener varios discos duros conectados.

Las características principales de un disco duro son:

Capacidad: Se mide en gigabytes (GB). Es el espacio disponible para almacenar secuencias de 1 byte. La capacidad aumenta constantemente desde cientos de MB, decenas de GB, cientos de GB y hasta TB.

Velocidad de giro: Se mide en revoluciones por minuto (RPM). Cuanto más rápido gire el disco, más rápido podrá acceder a la información la

Page 22: Sena angela

cabeza lectora. Los discos actuales giran desde las 4.200 a 15.000 RPM, dependiendo del tipo de ordenador al que estén destinadas.

Capacidad de transmisión de datos: De poco servirá un disco duro de gran capacidad si transmite los datos lentamente. Los discos actuales pueden alcanzar transferencias de datos de 3 GB por segundo.

También existen discos duros externos que permiten almacenar grandes cantidades de información. Son muy útiles para intercambiar información entre dos equipos. Normalmente se conectan al PC mediante un conector USB.

Cuando el disco duro está leyendo, se enciende en la carcasa un LED (de color rojo, verde u otro). Esto es útil para saber, por ejemplo, si la máquina ha acabado de realizar una tarea o si aún está procesando datos.

DISQUETERIA:

La unidad de 3,5 pulgadas permite intercambiar información utilizando disquetes magnéticos de 1,44 MB de capacidad. Aunque la capacidad de soporte es muy limitada si tenemos en cuenta las necesidades de las aplicaciones actuales se siguen utilizando para intercambiar archivos pequeños, pues pueden borrarse y reescribirse cuantas veces se desee de una manera muy cómoda, aunque la transferencia de información es bastante lenta si la comparamos con otros soportes, como el disco duro o un CD-ROM.

Para usar el disquete basta con introducirlo en la ranura de la disquetera. Para expulsarlo se pulsa el botón situado junto a la ranura, o bien se ejecuta alguna acción en el entorno gráfico con el que trabajamos (por ejemplo, se arrastra el símbolo del disquete hasta un icono representado por una papelera).

La unidad de disco se alimenta mediante cables a partir de la fuente de alimentación del sistema. Y también va conectada mediante un cable a la placa base. Un diodo LED se ilumina junto a la ranura cuando la unidad está leyendo el disco, como ocurre en el caso del disco duro.

En los disquetes solo se puede escribir cuando la pestaña está cerrada.

Cabe destacar que el uso de este soporte en la actualidad es escaso o nulo, puesto que se ha vuelto obsoleto teniendo en cuenta los avances que en materia de tecnología se han producido.

Unidad de CD-ROM o “lectora”:

La unidad de CD-ROM permite utilizar discos ópticos de una mayor capacidad que los disquetes de 3,5 pulgadas: hasta 700 MB. Ésta es su principal ventaja, pues los CD-ROM se han convertido en el estándar para distribuir sistemas operativos, aplicaciones, etc.

El uso de estas unidades está muy extendido, ya que también permiten leer los discos compactos de audio.

Page 23: Sena angela

Para introducir un disco, en la mayoría de las unidades hay que pulsar un botón para que salga una especie de bandeja donde se deposita el CD-ROM. Pulsando nuevamente el botón, la bandeja se introduce.

En estas unidades, además, existe una toma para auriculares, y también pueden estar presentes los controles de navegación y de volumen típicos de los equipos de audio para saltar de una pista a otra, por ejemplo.

Una característica básica de las unidades de CD-ROM es la velocidad de lectura, que normalmente se expresa como un número seguido de una «x» (40x, 52x,..). Este número indica la velocidad de lectura en múltiplos de 128 Kb/s. Así, una unidad de 52x lee información de 128 Kb/s × 52 = 6,656 Kb/s, es decir, a 6,5 MB/s.

Unidad de CD-RW (regrabadora) o “grabadora”:

Las unidades de CD-ROM son de sólo lectura. Es decir, pueden leer la información en un disco, pero no pueden escribir datos en él.

Una regrabadora puede grabar y regrabar discos compactos. Las características básicas de estas unidades son la velocidad de lectura, de grabación y de regrabación. En los discos regrabables es normalmente menor que en los discos que sólo pueden ser grabados una vez. Las regrabadoras que trabajan a 8X, 16X, 20X, 24X, etc., permiten grabar los 650, 700 o más megabytes (hasta 900 MB) de un disco compacto en unos pocos minutos. Es habitual observar tres datos de velocidad, según la expresión ax bx cx (a: velocidad de lectura; b: velocidad de grabación; c: velocidad de regrabación).

Unidad de DVD-ROM o “lectora de DVD”:

Las unidades de DVD-ROM son aparentemente iguales que las de CD-ROM, pueden leer tanto discos DVD-ROM como CD-ROM. Se diferencian de las unidades lectoras de CD-ROM en que el soporte empleado tiene hasta 17 GB de capacidad, y en la velocidad de lectura de los datos. La velocidad se expresa con otro número de la «x»: 12x, 16x… Pero ahora la x hace referencia a 1,32 MB/s. Así: 16x = 21,12 MB/s.

Las conexiones de una unidad de DVD-ROM son similares a las de la unidad de CD-ROM: placa base, fuente de alimentación y tarjeta de sonido. La diferencia más destacable es que las unidades lectoras de discos DVD-ROM también pueden disponer de una salida de audio digital. Gracias a esta conexión es posible leer películas en formato DVD y escuchar seis canales de audio separados si disponemos de una buena tarjeta de sonido y un juego de altavoces apropiado (subwoofer más cinco satélites).

Unidad de DVD-RW o “grabadora de DVD”:

Puede leer y grabar y regrabar imágenes, sonido y datos en discos de varios gigabytes de capacidad, de una capacidad de 650 MB a 9 GB.

Page 24: Sena angela

Lector de tarjetas de memoria:

El lector de tarjetas de memoria es un periférico que lee o escribe en soportes de memoria flash. Actualmente, los instalados en computadores (incluidos en una placa o mediante puerto USB), marcos digitales, lectores de DVD y otros dispositivos, suelen leer varios tipos de tarjetas.

Una tarjeta de memoria es un pequeño soporte de almacenamiento que utiliza memoria flash para guardar la información que puede requerir o no baterías (pilas), en los últimos modelos la batería no es requerida, la batería era utilizada por los primeros modelos. Estas memorias son resistentes a los rasguños externos y al polvo que han afectado a las formas previas de almacenamiento portátil, como los CD y los disquetes.

Page 25: Sena angela

MEMORIAS:

MEMORIAS DINAMICAS:

Las memorias dinámicas son las que solicitar memoria en tiempo ejecución por lo que cuantas más memorias se necesite más se solicita el sistema operativo.

Su función es memorizar la información en forma de cargas eléctricas con lo q la información tiende a perderse con el tiempo; en estas memorias hay un estado estable y no estable q sin embargo puede ser reducido a estable en un tiempo relativamente largo mediante un dispositivo q se llama capacitor.

MEMORIAS ESTATICAS:

La memoria estática maneja una tecnología diferente, se puede entender como un circuito electrónico capaz de mantener un bit de memoria.

Pueden llevar 4 o 6 transistores y algo de cableado pero no tiene q ser refrescado jamás.

MEMORIAS ROM:

La memoria ROM, también conocida como firmware, es un circuito integrado programado con unos datos específicos cuando es fabricado. Los chips de características ROM no solo se usan en ordenadores, sino en muchos otros componentes electrónicos también. Hay varios tipos de ROM, por lo que lo mejor es empezar por partes.

Tipos de ROM

Hay 5 tipos básicos de ROM, los cuales se pueden identificar como:

ROM PROM EPROM EEPROM Memoria Flash

Cada tipo tiene unas características especiales, aunque todas tienen algo en común:

Los datos que se almacenan en estos chips son no volátiles, lo cual significa que no se pierden cuando se apaga el equipo. Los datos almacenados no pueden ser cambiados o en su defecto necesitan alguna operación especial para modificarse. Recordemos que la memoria RAM puede ser cambiada en al momento.

Page 26: Sena angela

Todo esto significa que quitando la fuente de energía que alimenta el chip no supondrá que los datos se pierdan irremediablemente.

Funcionamiento ROM

De un modo similar a la memoria RAM, los chips ROM contienen una hilera de filas y columnas, aunque la manera en que interactúan es bastante diferente. Mientras que RAM usualmente utiliza transistores para dar paso a un capacitador en cada intersección, ROM usa un diodo para conectar las líneas si el valor es igual a 1. Por el contrario, si el valor es 0, las líneas no se conectan en absoluto.

Diodo normalmente permite el flujo eléctrico en un sentido y tiene un umbral determinado, que nos dice cuanto fluido eléctrico será necesario para dejarlo pasar. Normalmente, la manera en que trabaja un chip ROM necesita la perfecta programación y todos los datos necesarios cuando es creado. No se puede variar una vez que está creado. Si algo es incorrecto o hay que actualizar algo, hay que descartarlo y empezar con uno nuevo. Crear la plantilla original de un chip ROM es normalmente laborioso dando bastantes problemas, pero una vez terminado, los beneficios son grandes. Una vez terminada la plantilla, los siguientes chips pueden costar cantidades ridículas.

Estos chips no consumen apenas nada y son bastante fiables, y pueden llevar toda la programación para controlar el dispositivo en cuestión. Los ejemplos más cercanos los tenemos en algunos juguetes infantiles los cuales hacen actos repetitivos y continuos.

PROM

Crear chips desde la nada lleva mucho tiempo. Por ello, los desarrolladores crearon un tipo de ROM conocido como PROM (programmable read-only memory). Los chips PROM vacíos pueden ser comprados económicamente y codificados con una simple herramienta llamada programador.

La peculiaridad es que solo pueden ser programados una vez. Son más frágiles que los chips ROM hasta el extremo que la electricidad estática lo puede quemar. Afortunadamente, los dispositivos PROM vírgenes son baratos e ideales para hacer pruebas para crear un chip ROM definitivo.

EPROM

Trabajando con chips ROM y PROM puede ser una labor tediosa. Aunque el precio no sea demasiado elevado, al cabo del tiempo puede suponer un aumento del precio con todos los inconvenientes. Los EPROM (Erasable programmable read-only memory) solucionan este problema. Los chips EPROM pueden ser regrabados varias veces.

Page 27: Sena angela

Borrar una EEPROM requiere una herramienta especial que emite una frecuencia determinada de luz ultravioleta. Son configuradas usando un programador EPROM que provee voltaje a un nivel determinado dependiendo del chip usado.

Para sobrescribir una EPROM, tienes que borrarla primero. El problema es que no es selectivo, lo que quiere decir que borrará toda la EPROM. Para hacer esto, hay que retirar el chip del dispositivo en el que se encuentra alojado y puesto debajo de la luz ultravioleta comentada anteriormente.

EEPROM y memoria flash

Aunque las EPROM son un gran paso sobre las PROM en términos de utilidad, siguen necesitando un equipamiento dedicado y un proceso intensivo para ser retirados y reinstalados cuando un cambio es necesario. Como se ha dicho, no se pueden añadir cambios a la EPROM; todo el chip sebe ser borrado. Aquí es donde entra en juego la EEPROM(Electrically erasable programmable read-only memory).

Algunas peculiaridades incluyen:

Los chips no tienen que ser retirados para sobre escribirse. No se tiene que borrar el chip por completo para cambiar una porción del mismo. Para cambiar el contenido no se requiere equipamiento adicional.

En lugar de utilizar luz ultra violeta, se pueden utilizar campos eléctricos para volver a incluir información en las celdas de datos que componen circuitos del chip. El problema con la EEPROM, es que, aunque son muy versátiles, también pueden ser lentos con algunos productos lo cuales deben realizar cambios rápidos a los datos almacenados en el chip.

Los fabricantes respondieron a esta limitación con la memoria flash, un tipo de EEPROM que utiliza un “cableado” interno que puede aplicar un campo eléctrico para borrar todo el chip, o simplemente zonas predeterminadas llamadas bloques.

GRAFICAS:

Page 28: Sena angela

PROCESADORES:

MEMORIAS:

Page 29: Sena angela
Page 30: Sena angela

TARJETA MADRE:

MINITORES:

Page 31: Sena angela

DISPOSITIVOS DE ALMACENAMIENTO:

Page 32: Sena angela

BIBLIOGRAFIA

http://es.wikipedia.org/wiki/Procesadores

www.cavsi.com/preguntasrespuestas/que-es-una-tarjeta- madre /

http://www.ordenadores-y-portatiles.com/memoria-rom.html

es.wikipedia.org/wiki/Dispositivo_de_almacenamiento_de_datos