43
UNIVERSIDAD NACIONAL DE CHIMBORAZO FACULTAD DE CIENCIAS POLITICAS Y ADMINISTRATIVAS Sistema operativo (SO) es un software que actúa de interfaz entre los dispositivos de hardware y los programas usados por el usuario para manejar un computador. 1 Es responsable de gestionar, coordinar las actividades y llevar a cabo el intercambio de los recursos y actúa como estación para las aplicaciones que se ejecutan en la máquina. Uno de los más prominentes ejemplos de sistema operativo, es el núcleo Linux, 2 el cual junto a las herramientas GNU, forman las llamadas distribuciones Linux. Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo, pues este, es sólo el núcleo y no necesita de entorno operador para estar operativo y funcional. 3 4 Este error de precisión, se debe a la modernización de la informática llevada a cabo a finales de los 80, cuando la filosofía de estructura básica de funcionamiento de los grandes computadores 5 se rediseñó a fin de llevarla a los hogares y facilitar su uso, cambiando el concepto de computador multiusuario, (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más sencillo de gestionar. 6 (Véase AmigaOS, beOS o MacOS como los pioneros 7 de dicha modernización, cuando los Amiga, fueron bautizados con el sobrenombre de Video Toasters 8 por su capacidad para la Edición de vídeo en entorno multitarea round robin, con gestión de miles de colores e interfaces intuitivos para diseño en 3D con programas como Imagine 9 o Scala multimedia, entre muchos otros.) 10 Uno de los propósitos de un sistema operativo como programa estación principal, consiste en gestionar los recursos de localización y protección de acceso del hardware, hecho que alivia a los programadores de aplicaciones de tener que tratar con estos detalles. Se encuentran en la mayoría de los aparatos electrónicos que utilizan microprocesadores para funcionar. (teléfonos móviles, reproductores de DVD, computadoras, radios, etc.) Parte de la infraestructura de la World Wide Web está compuesta por el Sistema Operativo de Internet, creado por Cisco Systems para gestionar equipos de interconexión como los conmutadores y los enrutadores . AUTORES: KARINA VILLAGOMEZ Página 1

F:\trabajo parta enviar

Embed Size (px)

DESCRIPTION

 

Citation preview

Page 1: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

Sistema operativo (SO) es un software que actúa de interfaz entre los dispositivos de hardware y los programas usados por el usuario para manejar un computador.1 Es responsable de gestionar, coordinar las actividades y llevar a cabo el intercambio de los recursos y actúa como estación para las aplicaciones que se ejecutan en la máquina.

Uno de los más prominentes ejemplos de sistema operativo, es el núcleo Linux,2 el cual junto a las herramientas GNU, forman las llamadas distribuciones Linux.

Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo, pues este, es sólo el núcleo y no necesita de entorno operador para estar operativo y funcional.3 4 Este error de precisión, se debe a la modernización de la informática llevada a cabo a finales de los 80, cuando la filosofía de estructura básica de funcionamiento de los grandes computadores 5 se rediseñó a fin de llevarla a los hogares y facilitar su uso, cambiando el concepto de computador multiusuario, (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más

sencillo de gestionar.6 (Véase AmigaOS, beOS o MacOS como los pioneros7 de dicha modernización, cuando los Amiga, fueron bautizados con el sobrenombre de Video Toasters8 por su capacidad para la Edición de vídeo en entorno multitarea round robin, con gestión de miles de colores e interfaces intuitivos para diseño en 3D con programas como Imagine9 o Scala multimedia, entre muchos otros.)10

Uno de los propósitos de un sistema operativo como programa estación principal, consiste en gestionar los recursos de localización y protección de acceso del hardware, hecho que alivia a los programadores de aplicaciones de tener que tratar con estos detalles. Se encuentran en la mayoría de los aparatos electrónicos que utilizan microprocesadores para funcionar. (teléfonos móviles, reproductores de DVD, computadoras, radios, etc.)

Parte de la infraestructura de la World Wide Web está compuesta por el Sistema Operativo de Internet, creado por Cisco Systems para gestionar equipos de interconexión como los conmutadores y los enrutadores.

PERSPECTIVA HISTÓRICA

Los primeros sistemas (1945 - 1950) eran grandes máquinas operadas desde la consola maestra por los programadores. Durante la década siguiente (1950 - 1960) se llevaron a cabo avances en el hardware: lectoras de tarjetas, impresoras, cintas magnéticas, etc. Esto a su vez provocó un avance en el software: compiladores, ensambladores, cargadores, manejadores de dispositivos, etc.

A finales de los años 80, un Amiga equipado con una aceleradora Video Toaster, era capaz de producir efectos comparados a sistemas dedicados que costaban el triple. Un

AUTORES: KARINA VILLAGOMEZ Página 1

Page 2: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

Video Toaster junto a Lightwave ayudó a producir muchos programas de televisión y películas, entre las que se incluyen Babylon 5, Seaquest DSV y Terminator II[]

PROBLEMAS DE EXPLOTACIÓN Y SOLUCIONES INICIALES

El problema principal de los primeros sistemas era la baja utilización de los mismos, la primera solución fue poner un operador profesional que lo manejase, con lo que se eliminaron las hojas de reserva, se ahorró tiempo y se aumentó la velocidad.

Para ello, los trabajos se agrupaban de forma manual en lotes mediante lo que se conoce como procesamiento por lotes (batch) sin automatizar.

MONITORES RESIDENTES

Fichas en lenguaje de procesamiento por lotes, con programa y datos, para ejecución secuencial.

Según fue avanzando la complejidad de los programas, fue necesario implementar soluciones que automatizaran la organización de tareas sin necesidad de un operador. Debido a ello se crearon los monitores residentes: programas que residían en memoria y que gestionaban la ejecución de una cola de trabajos.

Un monitor residente estaba compuesto por un cargador, un Intérprete de comandos y un Controlador (drivers) para el manejo de entrada/salida.

SISTEMAS CON ALMACENAMIENTO TEMPORAL DE E/S

Los avances en el hardware crearon el soporte de interrupciones y posteriormente se llevó a cabo un intento de solución más avanzado: solapar la E/S de un trabajo con sus propios cálculos, por lo que se creó el sistema de buffers con el siguiente funcionamiento:

Un programa escribe su salida en un área de memoria (buffer 1). El monitor residente inicia la salida desde el buffer y el programa de aplicación calcula

depositando la salida en el buffer 2. La salida desde el buffer 1 termina y el nuevo cálculo también. Se inicia la salida desde el buffer 2 y otro nuevo cálculo dirige su salida al

buffer 1. El proceso se puede repetir de nuevo.

Los problemas surgen si hay muchas más operaciones de cálculo que de E/S (limitado por la CPU) o si por el contrario hay muchas más operaciones de E/S que cálculo (limitado por la E/S).

SPOOLERS

Hace aparición el disco magnético con lo que surgen nuevas soluciones a los problemas de rendimiento. Se eliminan las cintas magnéticas para el volcado previo de los datos de dispositivos lentos y se sustituyen por discos (un disco puede simular varias cintas). Debido al solapamiento del cálculo de un trabajo con la E/S de otro trabajo se crean tablas en el disco

AUTORES: KARINA VILLAGOMEZ Página 2

Page 3: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

para diferentes tareas, lo que se conoce como Spool (Simultaneous Peripherial Operation On-Line).

SISTEMAS OPERATIVOS MULTIPROGRAMADOS

Surge un nuevo avance en el hardware: el hardware con protección de memoria. Lo que ofrece nuevas soluciones a los problemas de rendimiento:

Se solapa el cálculo de unos trabajos con la entrada/salida de otros trabajos. Se pueden mantener en memoria varios programas. Se asigna el uso de la CPU a los diferentes programas en memoria.

Debido a los cambios anteriores, se producen cambios en el monitor residente, con lo que éste debe abordar nuevas tareas, naciendo lo que se denomina como Sistemas Operativos multiprogramados, los cuales cumplen con las siguientes funciones:

Administrar la memoria. Gestionar el uso de la CPU (planificación). Administrar el uso de los dispositivos de E/S.

Cuando desempeña esas tareas, el monitor residente se transforma en un sistema operativo multiprogramado.

LLAMADAS AL SISTEMA OPERATIVO

Definición breve: llamadas que ejecutan los programas de aplicación para pedir algún servicio al SO.

Cada SO implementa un conjunto propio de llamadas al sistema. Ese conjunto de llamadas es la interfaz del SO frente a las aplicaciones. Constituyen el lenguaje que deben usar las aplicaciones para comunicarse con el SO. Por ello si cambiamos de SO, y abrimos un programa diseñado para trabajar sobre el anterior, en general el programa no funcionará, a no ser que el nuevo SO tenga la misma interfaz. Para ello:

Las llamadas correspondientes deben tener el mismo formato. Cada llamada al nuevo SO tiene que dar los mismos resultados que la correspondiente

del anterior.

MODOS DE EJECUCIÓN EN UN CPU

Las aplicaciones no deben poder usar todas las instrucciones de la CPU. No obstante el Sistema Operativo, tiene que poder utilizar todo el juego de instrucciones del CPU. Por ello, una CPU debe tener (al menos) dos modos de operación diferentes:

Modo usuario: el CPU podrá ejecutar sólo las instrucciones del juego restringido de las aplicaciones.

Modo supervisor: la CPU debe poder ejecutar el juego completo de instrucciones.

AUTORES: KARINA VILLAGOMEZ Página 3

Page 4: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

LLAMADAS AL SISTEMA

Una aplicación, normalmente no sabe dónde está situada la rutina de servicio de la llamada. Por lo que si ésta se codifica como una llamada de función, cualquier cambio en el SO haría que hubiera que reconstruir la aplicación.

Pero lo más importante es que una llamada de función no cambia el modo de ejecución de la CPU. Con lo que hay que conseguir llamar a la rutina de servicio, sin tener que conocer su ubicación, y hacer que se fuerce un cambio de modo de operación de la CPU en la llamada (y la recuperación del modo anterior en el retorno).

Esto se hace utilizando instrucciones máquina diseñadas específicamente para este cometido, distintas de las que se usan para las llamadas de función.

COMPONENTES DE UN SISTEMA OPERATIVO

Gestión de procesos

Un proceso es simplemente, un programa en ejecución que necesita recursos para realizar su tarea: tiempo de CPU, memoria, archivos y dispositivos de E/S. El SO es el responsable de:

Crear y destruir los procesos. Parar y reanudar los procesos. Ofrecer mecanismos para que se comuniquen y sincronicen.

La gestión de procesos podría ser similar al trabajo de oficina. Se puede tener una lista de tareas a realizar y a estas fijarles prioridades alta, media, baja por ejemplo. Debemos comenzar haciendo las tareas de prioridad alta primero y cuando se terminen seguir con las de prioridad media y después las de baja. Una vez realizada la tarea se tacha. Esto puede traer un problema que las tareas de baja prioridad pueden que nunca lleguen a ejecutarse. y permanezcan en la lista para siempre. Para solucionar esto, se puede asignar alta prioridad a las tareas más antiguas

AUTORES: KARINA VILLAGOMEZ Página 4

Page 5: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

La ofimática es el conjunto de técnicas, aplicaciones y herramientas informáticas que se utilizan en funciones de oficina para optimizar, automatizar y mejorar los procedimientos o tareas relacionados

Las herramientas ofimáticas permiten idear, crear, manipular, transmitir y almacenar información necesaria en una oficina. Actualmente es fundamental que estas estén conectadas a una red local y/o a internet.

Cualquier actividad que pueda hacerse manualmente en una oficina puede ser automatizada o ayudada por herramientas ofimáticas: dictado, mecanografía, archivado, fax, microfilmado, gestión de archivos y documentos, etc.

La ofimática comienza a desarrollarse en la década del 70, con la masificación de los equipos de oficina que comienzan a incluir microprocesadores, dejándose de usar métodos y

AUTORES: KARINA VILLAGOMEZ Página 5

Page 6: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

herramientas por otras más modernas. Por ejemplo, se deja la máquina de escribir y se reemplaza por computadoras y sus procesadores de texto e incluso el dictado por voz automatizado.Herramientas y procedimientos ofimáticos

* Procesamiento de textos: Ver Procesador de texto.* Hoja de cálculo* Herramientas de presentación multimedia.* Base de datos.* Utilidades: agendas, calculadoras, etc.* Programas de e-mail, correo de voz, mensajeros.* Herramientas de reconocimiento de voz.* Suite o paquete ofimático: paquete de múltiples herramientas ofimáticas como Microsoft Office, OpenOffice, etc.

HISTORIA/ORIGEN DE LA OFIRMÁTICA

La ofimática o la automatización de la oficina moderna, comienza con la máquina de escribir y con la fotocopiadora, que permitieron mecanizar tareas que antes eran manuales.

Más cerca en el tiempo, la automatización de la oficina también comenzó a incluir el traspaso de información hacia medios electrónicos.

Pero la revolución de la automatización llegó de la mano de las computadoras, en especial de las computadoras personales en 1980.

La ofimática básicamente se originó para la gestión de datos (gracias al poder de cálculo y procesamiento de las computadoras), luego para el almacenamiento de información (dado que la capacidad de almacenamiento crecía y se hacía más barato) y finalmente el intercambio de datos (gracias a las facilidades de las redes, la conexión a internet, etc.).

Hoy en día vivimos en una sociedad basada en la información, de forma que el almacenamiento, transmisión y manipulación de la misma resulta vital para alcanzar nuestros objetivos ya sean personales o empresariales.

El hardware y el software nos permiten crear archivos digitales que almacen considerables volúmenes de información. Por su parte el desarrollo de las redes de comunicación ha permitido que la transmisión de dichos archivos sea casi inmediata entre los posibles usuarios interesados.

La ofimática es el equipo de hardware y el software utilizado para idear y crear, coleccionar, almacenar, manipular y transmitir digitalmente la información necesaria en una oficina.

Por lo tanto el hardware empleado en ofimática básicamente es:* Los dispositivos necesarios para la red LAN: routers, cableado, módems, etc.* Las computadoras.* Impresoras, escáneres, en ocasiones plotters.* Cualquier otro dispositivo empleado en la oficina, relacionado a la informatización

HERRAMIENTAS DEL PAQUETE PARA OFICINA.

AUTORES: KARINA VILLAGOMEZ Página 6

Page 7: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

El término "paquete para oficina " hace referencia a todos los programas de software que permiten realizar las tareas que normalmente se llevan a cabo en una oficina. En especial, un paquete para oficina incluye, por lo tanto, los siguientes programas de software:

• procesamiento de textos.

• una hoja de cálculo.

• una herramienta de presentación.

• una base de datos.

• un programador.

• A continuación se enumeran los principales paquetes:

• AppleWorks.

• Corel WordPerfect.

• IBM/Lotus SmartSuite.

• Microsoft Office.

• Sun StarOffice.

• OpenOffice. (gratuito, sin licencia)

Microsoft Office

Si hablamos de paquetes ofimáticos es de obligada referencia la suite ofrecida por Microsoft, ya que Office se ha convertido en el estándar de facto en cuanto a ofimática se refiere.

Este paquete incluye diferentes aplicaciones que se han convertido en un referente en cada sector, Word como editor de texto, Excel como hoja de cálculo y Power Point para la creación de presentaciones multimedia.

El paquete Microsoft Office incluye otra serie de aplicaciones tal vez menos conocidas pero de igual valor, Access como base de datos, FrontPage para la creación de páginas web, Outlook para la gestión del correo electrónico, y algunas otras más específicas para determinadas tareas como pueden ser Project o Visio.

AUTORES: KARINA VILLAGOMEZ Página 7

Page 8: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

OPEN OFFICE

Ante la hegemonía forzada por Microsoft Office surge una alternativa en forma de paquete ofimático totalmente gratuito desarrollo por Sun Microsystems.

Este nuevo paquete ofrece herramientas con funcionalidades muy similares a las ya ofrecidas por Microsoft Office, y con la intención de mejorar la interoperabilidad entre las diferentes suites ofimáticas propuso un estándar para el almacenamiento de la información conocido como ODF (Open Document Format).

En la actualidad este paquete ofrece herramientas muy potentes y con gran estabilidad que suponen una seria competencia para el hegemónico Office de Microsoft. Entre sus principales aplicaciones destacan Writer, Calc, Impress y Draw.

AppleWorks ActualApple lanza periódicamente versiones nuevas del software que incorporan funciones adicionales, corrigen

problemas de las versiones anteriores o responden a las demandas de los usuarios.

Las actualizaciones parciales, a diferencia de las actualizaciones completas, contienen ligeros cambios

con respecto a la versión anterior del programa, e incluyen sólo los archivos correspondientes a las

funciones nuevas y los archivos que solucionan problemas hallados en versiones anteriores. Al ejecutar el

programa de actualización, éste se integra con Apple Works 6.0.x dando lugar al la versión 6.0.4. de la

aplicación.

AppleWorks 6.0.4 es una versión de mantenimiento del programa que resuelve gran número de

cuestiones de rendimiento, estabilidad y compatibilidad de la versión 6.0.1. Se trata de la primera versión

de mantenimiento de AppleWorks 6 (no existen las versiones 6.0.2 ni 6.0.3 en este idioma), que actualiza:

la aplicación, el Asistente para sobres, las extensiones de sistema CarbonLib, los Puntos de Partida, los

Fondos, los Títulos, las noticias de últimas hora y varias páginas de la Ayuda. Además, incorpora un

conversor RTF a la carpeta AppleWorks Esencial, pero no modifica el resto de archivos de AppleWorks.

WordPerfectWordPerfect es un programa de procesamiento de textos que tuvo su máxima popularidad a finales de los años 1980 y a principios de los años 1990. Fue el estándar de facto durante muchos años, pero en la actualidad ha sido eclipsado, tanto en ventas como en popularidad, por Microsoft Word. Hoy Wordperfect se está recuperando en mercados como el de Norteamérica gracias al desarrollo por Corel y las ventajas que su suite ofrece sobre la de Microsoft, y ha iniciado la recuperación en otros mercados.

Llegó a estar disponible para una amplia variedad de ordenadores y sistemas operativos, incluyendo DOS, Windows, Mac OS, Linux, Apple II, las versiones más populares de Unix, VMS, Data General

COMIENZOS

WordPerfect fue desarrollado originalmente por Satellite Software International, Inc. de Orem, Utah, la cual cambió de nombre posteriormente a WordPerfect Corporation.

AUTORES: KARINA VILLAGOMEZ Página 8

Page 9: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

Escrito originalmente para los computadores Data General, en 1982 los desarrolladores lo adaptaron a los IBM PC como WordPerfect 2.20, continuando con la numeración de la versión de Data General

PROPIEDAD DE WORDPERFECT

El procesador de textos WordPerfect fue vendido dos veces, primero a Novell en junio de 1994, que a su vez lo vendió a Corel en enero de 1996. En 2003 Corel fue comprada por Vector Capital. En la actualidad WordPerfect es comercializado por Corel. extensiones para el programa son.vgd .hvc

VERSIÓN PARA DOS

La popularidad del programa creció con el lanzamiento de WordPerfect 4.2 en 1986 con dos características muy útiles para el mercado legal:[1] enumeración automática de párrafos y enumeración y colocación automáticas de notas al pie de la página. WordPerfect 4.2 se convirtió en el primer programa en sobrepasar al líder de ese momento en el mercado --WordStar-- en una categoría de aplicaciones importante en la plataforma DOS. En 1989, WordPerfect Corporation lanzó la versión más exitosa del programa: WordPerfect 5.1 para el DOS.

Interfaz de usuario

WordPerfect utilizaba casi todas las combinaciones posibles de las teclas de función, conocidas como teclas F, sumadas a Ctrl, Alt y Shift. En esto se diferenciaba de WordStar , que utilizaba solamente Ctrl, unido a las teclas tradicionales. Mucha gente todavía recuerda las combinaciones de las teclas F de la versión para DOS, que fueron diseñadas para la disposición del teclado original de los PC IBM, con dos columnas de teclas F en el extremo izquierdo del teclado. Por ejemplo, el tabulador y la tecla F4 eran adyacentes, por tener funciones similares. Esta plétora de posibilidades de pulsación, combinado con el deseo de los desarrolladores de mantener el interfaz de usuario libre de estorbos como menús en pantalla, hizo necesario a muchos usuarios usar una plantilla de teclado mostrando cada función. De manera poco acertada WordPerfect utilizó F3 en vez de F1 para Ayuda, F1 en vez de Esc para Cancelar, y Esc para Repetir, aunque una opción de la configuración en versiones posteriores permitió que estas funciones fueran cambiadas a teclas más estándares. Posteriormente WordPerfect fue adaptado para usar el paradigma de interfaz gráfica WYSIWYG (Del ingles "What You See Is What You Get", "Lo que ves es lo que obtienes -en la impresora-).

Wordperfect poseía una función para crear tablas de manera muy flexible que mantiene hasta la actualidad. Las celdas de las tablas funcionaban como una hoja de cálculo con lo cual era posible realizar cálculos.

A diferencia de OpenOffice, StarOffice cuenta con el soporte directo de Sun, además de incluir extensiones y plantillas preinstaladas. Si necesitas una seguridad adicional en la solución de incidencias técnicas, StarOffice te la garantiza.

STAROFFICE SOPORTA LOS SIGUIENTES FORMATOS:

ODT, ODS, ODG, ODP, ODC, ODF, ODI, ODB, ODM, DOC, XLS, PPT, PNG, JPG, TXT, RTF, DOCX, XLSX, PPTX, OTT, OTS, OTP, OTG

Cambios recientes en StarOffice:

AUTORES: KARINA VILLAGOMEZ Página 9

Page 10: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

Mejor compatibilidad con Microsoft Office El formato por defecto es OpenDocument Soporta XForms y firmas digitales Cambios en la interfaz Exportación a PDF

El software libre (en inglés free software, esta denominación también se confunde a veces con gratis por el doble sentido del inglés free en castellano) es la denominación del software que respeta la libertad de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, cambiado y redistribuido libremente. Según la Free Software Foundation, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, modificar el software y distribuirlo modificado.

El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar software libre a "software gratuito" (denominado usualmente freeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente ("software comercial"). Análogamente, el "software gratis" o "gratuito" incluye en ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos

AUTORES: KARINA VILLAGOMEZ Página 10

Page 11: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa.

Tampoco debe confundirse software libre con "software de dominio público". Éste último es aquel software que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre con fines legales y consignando su autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autor han expirado, tras un plazo contado desde la muerte de este, habitualmente 70 años. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público.

HISTORIA

El mismo Richard Stallman cuenta que por aquellos años, en el laboratorio donde trabajaba, habían recibido una impresora donada por una empresa externa. El dispositivo, que era utilizado en red por todos los trabajadores, parecía no funcionar a la perfección, dado que cada cierto tiempo el papel se atascaba. Como agravante, no se generaba ningún aviso que se enviase por red e informase a los usuarios de la situación.

La pérdida de tiempo era constante, ya que en ocasiones, los trabajadores enviaban por red sus trabajos a imprimir y al ir a buscarlos se encontraban la impresora atascada y una cola enorme de trabajos pendientes. Richard Stallman decidió arreglar el problema, e implementar el envío de un aviso por red cuando la impresora se bloqueara. Para ello necesitaba tener acceso al código fuente de los controladores de la impresora. Pidió a la empresa propietaria de la impresora lo que necesitaba, comentando, sin pedir nada a cambio, qué era lo que pretendía realizar. La empresa se negó a entregarle el código fuente.

En ese preciso instante, Richard Stallman se vio en una encrucijada: debía elegir entre aceptar el nuevo software privativo firmando acuerdos de no revelación y acabar desarrollando más software privativo con licencias restrictivas, que a su vez deberían ser más adelante aceptadas por sus propios colegas.

Con este antecedente, en 1984, Richard Stallman comenzó a trabajar en el proyecto GNU, y un año más tarde fundó la Free Software Foundation (FSF). Stallman introdujo la definición de free software y el concepto de "copyleft", que desarrolló para otorgar libertad a los usuarios y para restringir las posibilidades de apropiación del software.<0>

TIPOS DE LICENCIAS

Una licencia es aquella autorización formal con carácter contractual que un autor de un software da a un interesado para ejercer "actos de explotación legales". Pueden existir tantas licencias como acuerdos concretos se den entre el autor y el licenciatario. Desde el punto de vista del software libre, existen distintas variantes del concepto o grupos de licencias:

Licencias GPL

Una de las más utilizadas es la Licencia Pública General de GNU (GNU GPL). El autor conserva los derechos de autor (copyright), y permite la redistribución y modificación bajo términos diseñados para asegurarse de que todas las versiones modificadas del software permanecen bajo los términos más restrictivos de la propia GNU GPL. Esto hace que sea imposible crear un producto con partes no licenciadas GPL: el conjunto tiene que ser GPL.

Es decir, la licencia GNU GPL posibilita la modificación y redistribución del software, pero únicamente bajo esa misma licencia. Y añade que si se reutiliza en un mismo programa código

AUTORES: KARINA VILLAGOMEZ Página 11

Page 12: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

"A" licenciado bajo licencia GNU GPL y código "B" licenciado bajo otro tipo de licencia libre, el código final "C", independientemente de la cantidad y calidad de cada uno de los códigos "A" y "B", debe estar bajo la licencia GNU GPL.

En la práctica esto hace que las licencias de software libre se dividan en dos grandes grupos, aquellas que pueden ser mezcladas con código licenciado bajo GNU GPL (y que inevitablemente desaparecerán en el proceso, al ser el código resultante licenciado bajo GNU GPL) y las que no lo permiten al incluir mayores u otros requisitos que no contemplan ni admiten la GNU GPL y que por lo tanto no pueden ser enlazadas ni mezcladas con código gobernado por la licencia GNU GPL.

En el sitio web oficial de GNU hay una lista de licencias que cumplen las condiciones impuestas por la GNU GPL y otras que no.<3>

Aproximadamente el 60% del software licenciado como software libre emplea una licencia GPL Licencias AGPL

La Licencia Pública General de Affero (en inglés Affero General Public License, también Affero GPL o AGPL ) es una licencia copyleft derivada de la Licencia Pública General de GNU diseñada específicamente para asegurar la cooperación con la comunidad en el caso de software que corra en servidores de red.

Licencias estilo BSD

Llamadas así porque se utilizan en gran cantidad de software distribuido junto a los sistemas operativos BSD. El autor, bajo tales licencias, mantiene la protección de copyright únicamente para la renuncia de garantía y para requerir la adecuada atribución de la autoría en trabajos derivados, pero permite la libre redistribución y modificación, incluso si dichos trabajos tienen propietario. Son muy permisivas, tanto que son fácilmente absorbidas al ser mezcladas con la licencia GNU GPL con quienes son compatibles. Puede argumentarse que esta licencia asegura “verdadero” software libre, en el sentido que el usuario tiene libertad ilimitada con respecto al software, y que puede decidir incluso redistribuirlo como no libre. Otras opiniones están orientadas a destacar que este tipo de licencia no contribuye al desarrollo de más software libre (normalmente utilizando la siguiente analogía: "una licencia BSD es más libre que una GPL si y sólo si se opina también que un país que permita la esclavitud es más libre que otro que no la permite").

Licencias estilo MPL y derivadas

Esta licencia es de Software Libre y tiene un gran valor porque fue el instrumento que empleó Netscape Communications Corp. para liberar su Netscape Communicator 4.0 y empezar ese proyecto tan importante para el mundo del Software Libre: Mozilla. Se utilizan en gran cantidad de productos de software libre de uso cotidiano en todo tipo de sistemas operativos. La MPL es Software Libre y promueve eficazmente la colaboración evitando el efecto "viral" de la GPL (si usas código licenciado GPL, tu desarrollo final tiene que estar licenciado GPL). Desde un punto de vista del desarrollador la GPL presenta un inconveniente en este punto, y lamentablemente mucha gente se cierra en banda ante el uso de dicho código. No obstante la MPL no es tan excesivamente permisiva como las licencias tipo BSD. Estas licencias son denominadas de copyleft débil. La NPL (luego la MPL) fue la primera licencia nueva después de muchos años, que se encargaba de algunos puntos que no fueron tenidos en cuenta por las licencias BSD y GNU. En el espectro de las licencias de software libre se la puede considerar adyacente a la licencia estilo BSD, pero perfeccionada.

AUTORES: KARINA VILLAGOMEZ Página 12

Page 13: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

Copyleft

Hay que hacer constar que el titular de los derechos de autor (copyright) de un software bajo licencia copyleft puede también realizar una versión modificada bajo su copyright original, y venderla bajo cualquier licencia que desee, además de distribuir la versión original como software libre. Esta técnica ha sido usada como un modelo de negocio por una serie de empresas que realizan software libre (por ejemplo MySQL); esta práctica no restringe ninguno de los derechos otorgados a los usuarios de la versión copyleft. También podría retirar todas las licencias de software libre anteriormente otorgadas, pero esto obligaría a una indemnización a los titulares de las licencias en uso. En España, toda obra derivada está tan protegida como una original, siempre que la obra derivada parta de una autorización contractual con el autor. En el caso genérico de que el autor retire las licencias "copyleft", no afectaría de ningún modo a los productos derivados anteriores a esa retirada, ya que no tiene efecto retroactivo. En términos legales, el autor no tiene derecho a retirar el permiso de una licencia en vigencia. Si así sucediera, el conflicto entre las partes se resolvería en un pleito convencional.

Ventajas del software libreEste artículo o sección necesita referencias que aparezcan en una publicación acreditada, como revistas especializadas, monografías, prensa diaria o páginas de Internet fidedignas.Puedes añadirlas así o avisar al autor principal del artículo en su página de discusión pegando: {{subst:Aviso referencias|Software libre

Bajo costo de adquisición: Se trata de un software económico ya que permite un ahorro de grandes cantidades en la adquisición de las licencias.

Innovación tecnológica: Esto se debe a que cada usuario puede aportar sus conocimientos y su experiencia y asi decidir de manera conjunta hacia donde se debe dirigir la evolución y el desarrollo del software. Este es un gran avance en la tecnología mundial.

Independencia del proveedor: Al disponer del código fuente, se garantiza una independencia del proveedor que hace que cada empresa o particular pueda seguir contribuyendo al desarrollo y los servicios del software.

Escrutinio público: Esto hace que la corrección de errores y la mejora del producto se lleven a cabo de manera rápida y eficaz por cada uno de los usuarios que lleguen a utilizar el producto.

Adaptación del software: Esta cualidad resulta de gran utilidad para empresas e industrias específicas que necesitan un software personalizado para realizar un trabajo específico y con el software libre se puede realizar y con costes mucho más razonables.

Lenguas: Aunque el software se cree y salga al mercado en una sola lengua, el hecho de ser software libre facilita en gran medida su traducción y localización para que usuarios de diferentes partes del mundo puedan aprovechar estos beneficios.

AUTORES: KARINA VILLAGOMEZ Página 13

Page 14: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

Una biblioteca digital o biblioteca virtual es una biblioteca en que una proporción significante de los recursos de información se encuentran disponibles en el formato digital (pdf, doc, etc. o microforma), accesible por medio de las computadoras. Es importante considerar que en el concepto de biblioteca digital está presente el efecto de la integración de la informática y las comunicaciones cuyo exponente esencial es Internet.

Para hablar de una biblioteca digital es necesario que las fuentes de información estén disponibles de alguna manera y su acceso sea ubicuo, es decir, no importe dónde residan físicamente ni quién se encargó específicamente de su procesamiento y almacenamiento.

Predomina el concepto de biblioteca como espacio y como proceso, por lo que es un concepto que refleja el dinamismo del internet. Lo digital tiene que ver con el propósito y la flexibilidad del sistema de medios de la biblioteca para poder articularse flexiblemente y responder a diversas demandas. Digital en este contexto se relaciona con el hecho que la biblioteca es relativa en espacio y tiempo, porque sus fronteras no las marca la geografía y su disponibilidad temporal es instancia de la demanda de quien la consulta.

La biblioteca permite que los documentos se encuentren cuando el usuario necesita consultarlos y para ello responde dinámicamente a partir de su red de fuentes de información.

AUTORES: KARINA VILLAGOMEZ Página 14

Page 15: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

Es un concepto que subraya la importancia del trabajo en red y los atributos de ubicuidad, sincronía, asincronía e hipermedialidad de Internet. Es la biblioteca como espacio compartido que preserva las funciones específicas de una colección sistematizada de documentos, pero que las incrementa a través de la flexibilidad que ofrece el uso de las tecnologías de la información y la comunicación. Es por tanto un concepto abarcador e incluye tanto a la biblioteca digital como a la electrónica que son modalidades anteriores en el tiempo.

En términos históricos el concepto de biblioteca ha acompañado a las tecnologías y ha estado muy condicionado por las mismas. Así se habló de bibliotecas como colecciones de tablillas de arcilla, o de papiros en la antigüedad, o como bibliotecas electrónicas cuando se automatizaron determinados procesos y servicios, o biblioteca digital cuando las colecciones de documentos comenzaron a soportarse en soporte digital. Se llega al concepto de biblioteca digital cuando las colecciones y servicios bibliotecarios en sus diversas modalidades comenzaron a integrarse en un espacio en red.

Bibliotecas digitales y características

Biblioteca Digital Bicentenario México 2010 Más de 600 títulos completamente gratis

sobre la historia de México. Permite descargas de PDF sin ningún tipo de registro.

Gutenberg , esta es quizá la biblioteca más popular de Internet. Miles de libros

disponibles para descarga de obras cuyos derechos de reproducción han expirado. En

muchos idiomas, pero sólo en inglés el catálogo es nutrido.

Biblioteca Virtual Miguel de Cervantes , esta es quizá la biblioteca más popular en

español. No permite descargas de autores clásicos, sólo lectura página a página en

pantalla, bien de facsímiles, bien de páginas web.

Biblioteca Virtual EUMEDNET , Más de quinientos libros de Economía, Derecho y

Ciencias Sociales. Pueden descargarse gratis y sin necesidad de registrarse a texto

completo en formato DOC o PDF o leerse en pantalla como páginas web.

Biblioteca Virtual Extremeña Más de 600 archivos digitalizados sobre Extremadura

Biblioteca Virtual de Salud , que es una red de descentralizada de fuentes y servicios de

información en América Latina y el Caribe.

Biblioteca Virtual de Salud de Cuba , integrante de la red de América Latina y el Caribe y

que es parte de Infomed, el Portal de Salud de Cuba.

Biblioteca Digital Ciudad Seva , la más importante colección de cuentos clásicos, en

cualquier idioma. Desde Esopo hasta Juan Manuel, desde Boccaccio hasta los clásicos

del siglo XX. Miles de cuentos que se pueden leer en pantalla, descargar o imprimir.

Librodot en español con literatura, ensayo, historia, viajes, etc.

Dominio Público . Organismo del Gobierno de Brasil, con abundantes obras en

portugués y otros idiomas. Permite la descarga en PDF.

AUTORES: KARINA VILLAGOMEZ Página 15

Page 16: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

Biblopía es una biblioteca virtual gratuita con textos en español e inglés de temática

general, agrupados en diversas categorías científicas y humanísticas. Los libros que

ofrece en sus archivos son de dominio público o han sido publicados con el

consentimiento expreso del autor.

Cibera , es la Biblioteca Virtual Iberoamérica/España/Portugal, y forma parte del portal

científico alemán Vascoda. Se dirige a científicos, especialistas y estudiantes de la

cultura de los países de lengua española y portuguesa.

Catálogo de Biblioteca Digital de Negrete, Chile .

BVAECH Biblioteca Virtual Ambiental del Estado de Chihuahua . Colección especializada

en información ambiental del estado de Chihuahua, México y sus zonas circundantes

desarrollada por El Colegio de Chihuahua, institución de investigación y posgrado.

Biblioteca Virtual-Libros Digitales , Matemáticas, Física, Química, Electrónica, Mecánica,

Medicina, Economía, Sistemas, Biología, Literatura, Informática, Solucionarios, Serie

shaum´s, Enciclopedias, etc.

Biblioteca Virtual Omegalfa . Biblioteca digital,

E-LEARNINGEl e-learning es educación a través de correo electrónico o a distancia en el que se integra el uso de las tecnologías de la información y otros elementos pedagógicos (didácticos) para la formación, capacitación y enseñanza de los usuarios o estudiantes en línea, es decir, se puede entender como una modalidad de aprendizaje dentro de la educación a distancia y se define como e-learning. Utiliza herramientas y medios diversos como Internet, intranets, CD-ROM, producciones multimedia (Textos, imágenes, audio, video, etc.), entre otros. Literalmente e-learning es aprendizaje con medios electrónicos: enseñanza dirigida por la tecnología.

E-learning es principalmente un medio electrónico para el aprendizaje a distancia o virtual, donde se puede interactuar con los profesores por medio de Internet. El usuario puede manejar los horarios, es un medio completamente autónomo. Constituye una propuesta de formación que contempla su implementación predominantemente mediante Internet, haciendo uso de los servicios y herramientas que esta tecnología provee.

Dentro de la modalidad a distancia, el 'e-learning es una de las opciones que actualmente se utiliza con mayor frecuencia para atender la necesidad de educación continua o permanente. La generación de programas de perfeccionamiento profesional no reglados está en crecimiento debido a que existe un reconocimiento de que los trabajadores se capaciten y se adapten a los nuevos requerimientos productivos. El e-learning, dadas sus características y el soporte tecnológico que lo respalda, se constituye en una alternativa para aquellos que combinan trabajo y actualización, ya que no es necesario acudir a una aula permanentemente.

Si la educación a distancia es, desde sus orígenes, una opción para atender la formación de personas adultas, el e-learning tiene la ventaja de que los usuarios eligen sus propios horarios, y puede entrar a la plataforma desde cualquier lugar donde puedan acceder a una computadora y tengan conexión a Internet. La educación virtual da la oportunidad de que el

AUTORES: KARINA VILLAGOMEZ Página 16

Page 17: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

estudiante elija sus horarios de estudio convirtiéndose así en una muy buena opción para aquellas personas autónomas que trabajen y quieran estudiar en sus momentos libres; por otra parte es importante mencionar que el e-learning es una excelente herramienta que puede ayudar a los usuarios no solo a aprender conceptos nuevos sino también a afianzar conocimientos y habilidades, aumentado así la autonomía y la motivación de los estudiantes por diferentes temas.

Por tanto a la vista de lo expuesto, podemos definir el e-learning de la siguiente manera:

Enseñanza a distancia caracterizada por una separación espacio/temporal entre profesorado y alumnado (sin excluir encuentros físicos puntuales), entre los que predomina una comunicación de doble vía asíncrona, donde se usa preferentemente Internet como medio de comunicación y de distribución del conocimiento, de tal manera que el alumno es el centro de una formación independiente y flexible, al tener que gestionar su propio aprendizaje, generalmente con ayuda de tutores externos

Existen algunas publicaciones que han contribuido notablemente a la difusión de esta modalidad formativa e incluso a definirla, realizando un importante aporte en términos de comprensión de sus ventajas y potencialidades, y colaborando fuertemente en brindar elementos de análisis para la toma de decisiones. En 1999 salió al mercado la revista digital Bitácora, una publicación especializada en capacitación virtual de renovación diaria, que se constituyó en una de las primeras experiencias a nivel iberoamericano en generar una comunidad integrada por especialistas de habla hispana, focalizados en ésta área de la gestión del conocimiento. En diciembre de 2002, cuando el sector del e-learning comenzaba a consolidarse como industria a nivel iberoeméricano, una nueva vía de comunicación comenzó a convertirse en el medio más consultado por especialistas, universidades, gobiernos y empresas: la revista e-Learning América Latina, con renovación quincenal, más de 60.000 suscriptores y 20.000 visitas únicas diarias, en la cual participaron autores como Jay Cross, Peter Scott, George Siemens, Elliot Masie, Iñigo Babot, Marta Mena, Fredric Litto, Hervé Fischer, Javier Martínez Aldanondo, José María Calés, Germán Ruipérez, Susan Webster y Tony Bates. A partir de estas experiencias y su legado, surgieron publicaciones hispanoparlantes como Data Learning y Learning Review. Esta ultima es la unica que perdura y actualmente es el medio referente latinoamericano sobre elearning.

Ventajas

Las ventajas que ofrece la formación online serían las siguientes:

Inmersión práctica en un entorno Web 2.0Eliminación de barreras espaciales y temporales (desde su propia casa, en el trabajo, en un viaje a través de dispositivos móviles, etc.). Supone una gran ventaja para empresas distribuidas geográficamentePrácticas en entornos de simulación virtual, difíciles de conseguir en formación presencial, sin una gran inversión.Gestión real del conocimiento: intercambio de ideas, opiniones, prácticas, experiencias. Enriquecimiento colectivo del proceso de aprendizaje sin límites geográficos.Actualización constante de los contenidos (deducción lógica del punto anterior)Reducción de costes (en la mayoría de los casos, a nivel metodológico y, siempre, en el aspecto logístico)Permite una mayor conciliación de la vida familiar y laboral

AUTORES: KARINA VILLAGOMEZ Página 17

Page 18: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

UN LIBRO ELECTRONICO

Un libro electrónico, también conocido como e-book, eBook, ecolibro o libro digital, es una versión electrónica o digital de un libro. También suele denominarse así al e-reader, dispositivo usado para leer estos libros.

GENERALIDADES

El término es ambiguo, ya que se refiere tanto a una obra individual en formato digital como a un dispositivo electrónico utilizado para leer libros en formato digital.

Por otra parte, algunos autores proponen que se debe hacer una distinción entre los libros electrónicos y el hipertexto. El hipertexto está destinado a la estructuración de la información a través de enlaces, mientras que un libro electrónico no es más que la digitalización de un libro originariamente editado en papel. Un ejemplo de hipertexto sería WikiSource y uno de libro electrónico, cualquier libro en formato digital que pueda encontrarse en Internet o en CD-ROM.

EVOLUCIÓN DE LOS LIBROS ELECTRÓNICOS

Diversos dispositivos pueden ser utilizados como libro electrónico: un PC, una PDA, un portátil, y en general cualquier dispositivo que posea una pantalla y memoria.

Sin embargo, a finales de la primera década del siglo XXI comenzaron a aparecer dispositivos cuya función era servir exclusivamente de libro electrónico. Estos dispositivos se caracterizan por un diseño que permite emular la versatilidad del libro de papel tradicional. Así, se buscó movilidad y autonomía (dispositivos móviles con bajo consumo de energía para permitir lecturas prolongadas sin necesidad de recargas), pantallas con dimensiones suficientes para mostrar documentos tradicionales (un A4 o un A5) y alto nivel de contraste incluso a plena luz del día.

En este contexto aparece la tinta electrónica, que tiene un "efecto papel" (debido a la ausencia de iluminación propia y alto contraste obtenido) y su bajo consumo (pues esta tecnología no necesita alimentación más que en los cambios de pantalla).

Ejemplos de estos dispositivos son el iLiad (fabricado por iRex y primer dispositivo comercializado en España desde 2006), el Reader (PRS-500 y PRS-505) de Sony, el HanLin V3 (comercializado en España por Grammata bajo el nombre de Papyre), el STAReBOOK STK-101, el Bookeen Cybook ,el Kindle que es un producto de Amazon y el 2010 iPad, un producto de Apple que además de ofrecer una librería en línea como Amazon, también permite diversificar la presentación de libros electrónicos con cualidades multimediales.

VENTAJAS Y DESVENTAJAS DE LOS LECTORES ELECTRÓNICOS

El libro electrónico posee ventajas y desventajas.

Es necesario distinguir entre el lector y el libro electrónico. Un lector, con una tarjeta de memoria, puede almacenar hasta cientos de libros electrónicos. La accesibilidad es el punto fuerte del libro electrónico. Ya que con él se puede leer casi cualquier documento en cualquier lugar, con luz, ya que no tiene retro-iluminación, como es el caso de otros dispositivos de mano; o una computadora. Esto es como leer un libro en papel; sin cansancio alguno para la vista. Otra de las ventajas es que algunos de estos dispositivos tienen lo que se llama la tinta electrónica, de la que ya se ha hablado antes. Con tal tecnología el aparato puede ser tan fino que puede llegar a enrollarse como un pergamino, y la sensibilidad del ojo humano es mejor,

AUTORES: KARINA VILLAGOMEZ Página 18

Page 19: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

por lo que puede llegar a estar más horas leyendo sin que la vista se perjudique.Otra de los buenos elementos es que los e-books más avanzados tienen conexión a Internet, con lo que pueden conectarse con los principales portales de venta de libros electrónicos, así como descargarse las ediciones en PDF de los diarios de papel. Por lo que el libro electrónico ya no sólo sería un soporte para leer sino para otras utilidades, ampliando así el campo de uso.En cuanto a los puntos negativos, las principales son las repercusiones de la salud. La columna vertebral puede ser la afectada sólo si hay una mala posición a la hora de leer. Con lo que una buena posición sería más que suficiente.

Un fenómeno que percibimos a través de los sentidos que se desarrolla en un espacio ficticio, en un paréntesis de la realidad. La Realidad Virtual es un sistemainteractivo que permite sintetizar un mundo tridimensional ficticio, creándote una ilusión de realidad. La realidad Virtual es una técnica de fotográfica de 360 grados, el cuál te permite moverte hacia arriba o hacia abajo, realizar acercamientos o alejamientos; la diferencia es que en la realidad virtual tú tienes el control absoluto de los movimientos; y este te ofrece un realismo de estar en el sitio.

Virtual, en informática, significa 'algo simulado', creado por el ordenador para llevar a cabo determinado fin. La Realidad Virtual es considerada en muchos aspectos como el interface definitivo entre los seres humanos y el ordenador.

AUTORES: KARINA VILLAGOMEZ Página 19

Page 20: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

Básicamente consiste en simular todas las posibles percepciones de una persona, como los gráficos para la vista, sonido, tacto e incluso sensaciones de aceleración o movimiento. Todas estas sensaciones diferentes deben ser presentadas al usuario de forma que se siente inmerso en el universo generado por el ordenador, hasta el punto de dejar de percibir la realidad y ser engañado, sentirse transportado (al otro lado de la pantalla) como si de un universo nuevo se tratase.

HISTORIA DE LA REALIDAD VIRTUAL

Todo esto de la realidad virtual comenzó a finales de los 70´s como material para una clase de aviación en el departamento de defensa de los Estados Unidos, para hacer simulaciones de vuelo, practicando y no arriesgando vidas.

Después de esto en 1982 Scott Fisher considerado uno de los "Padres Fundadores" de la realidad virtual y en 1985él creo el VISIOCASO más avanzado en la Nasa Ames Center, Por todas partes empiezan a surgir equipos de desarrollo trabajando en lo que era la tecnología de la realidad virtual, y se empiezan a ver los primeros resultados comerciales

1980: La Compañía StereoGraphics hace las gafas de visión estéreo.

1982: Thomas Zimmerman patenta un Electroguante que invento mientras investigaba sobre como controlar con la mano un instrumento musical virtual.

1987: La compañía Inglesa Dimensión Internacional desarrolla un Software de construcción de mundos tridimensionales sobre P.C.

1988: Scott Foster inventa un dispositivo para la generación de sonido tridimensional.

1989: ATARI saca al mercado la primera maquina de galería de vídeo juegoscon tecnología 3D. En ese mismo año Autodesk presenta su primer sistema de realidad virtual para P.C.

A partir de aquí entramos de lleno a la carrera comercial los sistemas de realidad virtual comienzan a popularizarse y muchos productosempiezan a invadir el mercado, en forma paralela se crea un cierto movimiento cultural conocido como el Cyberpunk. La estética y la temática del cyberpunk han llegado en los últimos años a la televisión y al cine, quizás los mejores ejemplos son "El hombre del jardín" y "Blade Runer"

Los primeros albores de la Realidad Virtual pueden remontarse, según algunos autores, a distintas épocas, pero uno de los precedentes más claros es la industria del cine. Desde siempre la cinematografía ha intentado crear formatos de imagen y sonido que hiciesen creer al espectador que se encontraba formando parte de la escena. De este intento han surgido tecnologías como el Cinemascope o el más moderno Omnimax, así como sistemas de sonido del tipo del Dolby Surround.

A comienzos de los 70 se empezó a investigar como hacer más fácil el entendimiento hombre - computadora, para mejorar el rendimiento y obtener toda la potencia de estas máquinas, ya que mientras la capacidad y velocidad de los ordenadores aumentaba vertiginosamente, nuestra habilidad para comunicarnos con ellos, permanecía limitada por interfaces inadecuados.

También por esta época se comenzaron a apreciar las grandes ventajas de entrenar a pilotos de aviación en simuladores, en lugar de emplear auténticos aviones: menores costes, reducción de tiempo y mejora del aprendizaje, además del consiguiente y obvio nivel de seguridad que impone la práctica virtual.

AUTORES: KARINA VILLAGOMEZ Página 20

Page 21: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

EQUIPOS UTILIZADOS PARA LA REALIDAD VIRTUAL

Para visión:

La realidad virtual en el área de la visión trabaja básicamente con dos tipos de implementos: cascos y boom, este último es un equipo que consiste en un brazo mecánico que sostiene un display a través del cual al girarlo se puede observar el entorno del mundo virtual en el cual se está; debido a que su peso es soportado por el brazo mecánico y no por el usuario, como ocurre con el casco, este puede ser un equipo de mayor complejidad y contenido electrónico, lo cual se traduce en ventajas tales como la obtención de una mejor solución. A continuación presentamos algunas características de estos equipos

Visión estereoscópica: Es la sensación de ver una determinada imagen en 3 dimensiones, esto se logra haciendo una representación igual para cada ojo de la imagen que se va a observar, estas representaciones son posteriormente proyectadas desde un mismo plano y separadas una distancia que está determinada por la distancia a la cual se encuentra el observador del plano de las imágenes. Desde este punto de vista, también existen equipos de visión monocular a través de los cuales se visualizan los objetos en la forma habitual.

Binoculares: Son equipos que constan de una pantalla individual para cada ojo, para el funcionamiento de la visión estereoscópica, es necesario tener un equipo que tenga esta característica; para equipos de visión monoscópica esta característica es opcional. Así mismo, también existen equipos monoculares, los cuales constan de una sola pantalla para ambos ojos.

Para interactuar: En la actualidad la realidad virtual esta haciendo uso de guantes y vestidos como medio para interactuar en un ambiente virtual, para lograr esto, estos dispositivos se comportan inicialmente como dispositivos de entrada que le permiten al computador conocer la ubicación del usuario dentro del ambiente virtual, así mismo, le permiten al usuario ubicarse en el medio e interactuar con el y en algunos casos recibir ciertos estímulos donde estos dispositivos se convierten en dispositivos de salida. Algunas sensaciones o estímulos que se pueden recibir son:

Sensación de estar sosteniendo un objeto que se ha cogido dentro del ambiente virtual, esto se logra gracias a unas almohadillas que se inflan en el guante y dan la sensación de percibir un peso. También se puede llegar a percibir la rugosidad y forma propias de objetos situados en el interior del ambiente virtual, lo cual se logra gracias a que algunos dispositivos tienen partes de aleaciones con memoria que tras variaciones en la temperatura toman formas que se les han practicado con anterioridad.

Para audición: Los audífonos son el equipo básico empleado para escuchar los sonidos propios de un ambiente virtual. A continuación se presentan algunas variantes de estos equipos:

Audífonos convencionales: Son los audífonos de uso más corriente, a través de estos se escucha el sonido simulado de los objetos sin identificar auditivamente el punto de ubicación del mismo.

Convolvotrón: Estos audífonos además de simular el sonido propio de los objetos, simulan la ubicación de los mismos dentro del ambiente virtual.

Cabinas de Simulación: Como su nombre lo indica, son grandes aparatos en los que se sumerge al usuario como si maniobrara un vehículo cabinado (simuladores de vuelo, submarinos,...).

AUTORES: KARINA VILLAGOMEZ Página 21

Page 22: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

NIVELES DE TECNOLOGÍA DE REALIDAD VIRTUAL

En la práctica de Realidad Virtual, muchos dispositivos de hardware son utilizados. La tecnología utilizada en Realidad Virtual puede ser clasificada en cuatro categorías o niveles:

NIVEL DE ENTRADA

Es el que utiliza un computador personal o estación de trabajo, e implementa un sistema "Window on a World", es decir, la representación del mundo a través de la pantalla, como si se tuviera una "ventana al mundo"

NIVEL BÁSICO

Cuando se agrega unas ampliaciones básicas de interacción (guante o Mouse 3D) y visión (Gafas estereoscópicas) Nivel Avanzado El siguiente paso en la tecnología de Realidad Virtual es un mejor despliegue de las gráficas y mejor manejo de información de entrada. Esto generalmente se logra con aceleradores de gráficas, e incorporación de procesadores en paralelo.

NIVEL INMERSIVO

En este nivel, se han agregado al sistema de Realidad Virtual dispositivos más inmersivos, que le añaden realismo: HMD, Boom, feedback táctil...

ELEMENTOS BÁSICOS DE LA REALIDAD VIRTUAL

El Visiocasco: (El usuario se lo coloca en la cabeza)

Este Visiocasco te impide lo que te rodea. Poniéndote una pantalla en cada ojo. Las imágenes que aparecen en las dos pantallas son ligeramente diferentes, de forma que el efecto es que el usuario puede ver un relieve.

Un mando con botones: Apretando el botón se desplazara en la dirección en la que en ese momento este mirando. *Un sensor de posición (esta en el visiocasco)

para identificar donde esta viendo, él cual esta conectado a la unidad de control, mide tu posición.

Tanto el visiocasco como el mando de control están conectados a una computadora.

MECANISMOS BÁSICOS DE LA REALIDAD VIRTUAL

AUTORES: KARINA VILLAGOMEZ Página 22

Page 23: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

Existen cinco mecanismos habitualmente empleados en las aplicaciones de la realidad virtual. Estos son:

-GRÁFICOS TRIDIMENSIONALES (3D).

Técnicas de estereoscopia: Esta técnica permite al usuario no solo percibir las claves de la profundidad, sino además ver la imagen en relieve. Esto se debe a que la imagen que percibe cada ojo es algo distinta lo que le permite al cerebro comparar las dos imágenes y deducir, a partir de las diferencias relativas

Simulación de comportamiento: La simulación en el mundo virtual no está pre calculada la evolución, esta se va calculando en tiempo real.

Facilidades de navegación: Es el dispositivo de control, que te permite indicar lo que quieres navegación, esto o realiza a través de un joystick o de las teclas de control del computador o también se puede cuando mueves la cabeza, en ese momento el sistema detecta el hecho y desplaza la imagen de la pantalla.

Técnicas de inmersión: Consisten en aislarte de los estímulos del mundo real, al quedar privado de sensaciones procedentes del mundo real, pierdes la referencia con la cual puedes comparar las sensaciones que el mundo virtual produce.

QUÉ EQUIPO SE UTILIZA PARA CREAR REALIDAD VIRTUAL

El equipo se divide en tres: factores de entrada, factores de salida y motorde realidad. Los factores de entrada toman la información del usuario y la mandan a la computadora, el guante y sensores de posición/orientación son un ejemplo. Los factores de salida sacan información de la computadora y la presentan al usuario, los displays del casco, bocinas son los ejemplos más usados. El motor de realidad es la computadora encargada de ejecutar el universo virtual.

EL FUTURO EN LA REALIDAD VIRTUAL

El futuro de un entorno de Realidad Virtual será algo parecido al Holodeck, un dispositivo en forma de habitación, que permite una visión de 360 grados, con imágenes estereoscópicas para todos los usuarios desde cualquier punto de vista, proporcionando una representación de cualquier circunstancia imaginable, que no se distinga del mundo real.

AUTORES: KARINA VILLAGOMEZ Página 23

Page 24: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

RELACIÓN REAL/IRREAL

La realidad virtual ha eliminado la frontera existente entre realidad e irrealidad. No se trata en este caso de la imposibilidad de separación entre lo real y aquello que no lo es, sino la difusión de los límites que los separan. La amplia variedad de posibilidades que ésta ofrece, ha facilitado el establecimiento de un estatus de realidad, sustentado fundamentalmente en tres aspectos:

La realidad virtual es compartida con otras personas. Se centra generalmente en la interacción interpersonal, que a pesar de no producirse en el mismo espacio-tiempo, si es percibida como un acto colectivo.

Tiene una estrecha relación con el mundo físico dada su interrelación e influencia mutua. La experiencia en la realidad virtual viene mediada por la experiencia en el mundo real y ésta es influida por lo que allí es experimentado.

Está interconectada con la producción artística, ya que se convierte en un espacio más de creación con motivaciones estéticas.

La generación de nuevas oportunidades en entornos diversos ha facilitado la existencia de posibilidades emergentes para la reconstrucción de la propia identidad. Los entornos virtuales, y más concretamente la realidad virtual, han generado un espacio de moratoria para la construcción de la identidad sustentada en la creación de más de un yo. La existencia de estas identidades múltiples favorece la experimentación, pudiendo adoptar, potenciar o desestimar aspectos puestos en práctica en estos entornos, en la propia cotidianidad. Se trataría pues de un espacio de interrelación entre los espacios cotidianos y la realidad virtual, en que las propias experiencias en estos entornos producen una mutua influencia, generando una ruptura de las fronteras entre ambos.

INMERSIÓN Y NAVEGACIÓN

La realidad virtual puede ser de dos tipos: inmersiva y no inmersiva. Los métodos inmersivos de realidad virtual con frecuencia se ligan a un ambiente tridimensional creado por un ordenador, el cual se manipula a través de cascos, guantes u otros dispositivos que capturan la posición y rotación de diferentes partes del cuerpo humano. La realidad virtual no inmersiva también utiliza el ordenador y se vale de medios como el que actualmente nos ofrece Internet, en el cual podemos interactuar en tiempo real con diferentes personas en espacios y ambientes que en realidad no existen sin la necesidad de dispositivos adicionales al ordenador. Nos acercamos en este caso a la navegación, a través de la cual ofrecemos al sujeto la posibilidad de experimentar (moverse, desplazarse, sentir) determinados espacios, mundos, lugares, como si se encontrase en ellos.

La realidad virtual no inmersiva ofrece un nuevo mundo a través de una ventana de escritorio. Este enfoque no inmersivo tiene varias ventajas sobre el enfoque inmersivo como son el bajo

coste y fácil y rápida aceptación de los usuarios. Los dispositivos inmersivos son de alto coste y generalmente el usuario prefiere manipular el ambiente virtual por medio de dispositivos familiares como son el teclado y el ratón que por medio de cascos pesados o guantes.

El alto precio de los dispositivos inmersivos ha generalizado el uso de ambientes virtuales fáciles de manipular por medio de dispositivos más sencillos, como es el ejemplo del importante negocio de las videoconsolas o los juegos en los que numerosos usuarios interactúan a través de Internet. Es a través de Internet como nace VRML, que es un estándar para la creación de estos mundos virtuales no inmersivos, que provee un conjunto de primitivas para el modelaje

AUTORES: KARINA VILLAGOMEZ Página 24

Page 25: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

tridimensional y permite dar comportamiento a los objetos y asignar diferentes animaciones que pueden ser activadas por los usuarios.

Por último hay que destacar algunas mejoras que facilitan los sistemas de realidad virtual, en lo que se refiere al tratamiento de enfermedades relativas a problemas de movilidad.

Se llama software contable a los programas de contabilidad o paquetes contables, destinados a sistematizar y simplificar las tareas de contabilidad. El Software contable registra y procesa

AUTORES: KARINA VILLAGOMEZ Página 25

Page 26: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

las transacciones históricas que se generan en una empresa o actividad productiva: las funciones de compras, ventas, cuentas por cobrar, cuentas por pagar, control de inventarios, balances, producción de artículos, nóminas, etc. Para ello solo hay que ingresar la información requerida, como las pólizas contables, ingresos y egresos, y hacer que el programa realice los cálculos necesarios.

Estas funciones pueden ser desarrolladas internamente por la compañía o la organización que lo está utilizando o puede ser adquirido a un tercero, existiendo también una combinación de ambas alternativas, es decir, un paquete de software desarrollado por un tercero con modificaciones locales.

Desde mediados de los años 1990, el mercado ha sobrellevado una consolidación considerable, muchos proveedores dejaron de hacer tratos en grandes grupos, notablemente por Sage y Microsoft. Desde el 2000 ha tenido un notable incremento el uso de soluciones de código abierto, dirigidos por TurboCASH al final del proceso y OpenERP, Compiere o Adempiere en el rango medio de sistemas.

TIPOLOGÍA

Dependiendo de las necesidades del usuario final, existen varios tipos de software contable:

USO PERSONAL O DOMÉSTICO Y DINAMICO

Principalmente dedicado para los usuarios domésticos que por lo general utilizan el programa contable con pólizas contables manuales, y a través de cuentas de mayor controlan sus cuentas por pagar, en hojas de cálculo sus presupuestos administrativos al igual que la conciliación de contabilidad simple incluye:

LOW END

En el low end del mercado de los negocios, las aplicaciones de costos bajos del software contable permiten que se realice la mayoría de la contabilidad de los negocios.

Frecuentemente los proveedores sirven a un solo mercado nacional, mientras que un gran número de proveedores ofrecen soluciones contables separadas en cada mercado nacional, también existen excepciones que proveen aplicaciones administrativas contables adaptables a casi todos los países de un continente, para ello deben cumplir con integrar en sus procesos las 20NIC) y los Conceptos Generalmente Aceptados de Contabilidad (CGAC).

Muchos de los productos antiguos low end, principalmente realizados en DOS, o programas de desarrollo obsoletos son caracterizados por ser productos de "entrada única", como oposición de los sistemas modernos en windows, macintosh, linux que son programas de doble entrada los cuales son usados por la gran mayoría de negocios.

Actualmente las características de los Software contables, exigidas por los usuarios, ha permitido que en la oferta de los mismos, sus atributos mejoren en relación al pasado.

AUTORES: KARINA VILLAGOMEZ Página 26

Page 27: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

Así tenemos que hoy en día los Software Contables, son integrados entre la parte de gestión y la parte contable, ya no en procesos posteriores sino en línea, es decir,en tiempo real. La época de los programas modulares independientes, está pasando, ya que los empresarios aun en las pyme, exigen integración total entre todos los módulos de sus aplicaciones.

MERCADO MEDIO

El mercado medio cubre un rango amplio de negocios de software que pueden ser capaces de servir a las necesidades de estándares de contabilidad múltiples nacionales que permite la contabilidad en divisas, o no. Pero su principal características es que atiende a empresas con necesidades de participar varios usuarios simultáneamente, existen aplicativos de software contable con opción de multiusuarios concurrentes y otros que no la tienen, y con procesos integrados a la contabilidad de la empresa.

Así mismo existen aplicaciones de software contable, de nivel medio multiusuario que tienen facilidad en la adaptación de las necesidades de cada empresa, en cambio otros son solo para un tipo de mercado. Uno de los aspectos que las empresas evalúan es el grado de dificultad a la hora de las actualizaciones, la facilidad de autoaprendizaje e implementaciones no traumáticas. La capacidad de las empresas proveedoras de apoyarlos on-line, pero dándoles un espacio en que prácticamente no requieran de ellos para no tener tecnodependencia.

La facilidad de migrar de la versión monousuario (gratuita o no ) a la versión multiusuario sin efectos colaterales o procesos engorrosos, es otro aspecto que miran las empresas al decidirse por este tipo de software contable a fin de organizar su empresa con una verdadera solución contable.

HIGH END

Es el más complejo y costoso software de contabilidad de los negocios es frecuentemente parte de un extenso juego de software muchas veces conocido como Planificación de recursos empresariales.

MERCADO VERTICAL

Algunos software para la contabilidad de negocios están diseñados para ciertos negocios específicos. Incluirá las características que son específicas para dicha industria. En algunos casos este se usa en pocas empresas.

CARACTERISTICAS DE UN SOFTWARE CONTABLE

AUTORES: KARINA VILLAGOMEZ Página 27

Page 28: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

FLEXIBILIDAD. -Adaptación de esquema del programa a los requerimientos de la empresa. -Definición de documentos típicos que son de mayor utilización en la empresa. -Edición del plan de cuentas de acuerdo con las normas y necesidades de la empresa. -Posibilidad de cambios en los formatos y fuentes para la presentación de informes.

COMPATIBILIDAD. -Con otros programas de oficina más utilizados como el Office. -Con otros programas contables y financieros

Diagrama a bloques de la operación de un buen compilador.

Un compilador es un programa informático que traduce un programa escrito en un lenguaje de programación a otro lenguaje de programación, generando un programa equivalente que la máquina será capaz de interpretar. Usualmente el segundo lenguaje es lenguaje de máquina, pero también puede ser simplemente texto. Este proceso de traducción se conoce como compilación.[1]

AUTORES: KARINA VILLAGOMEZ Página 28

Page 29: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

Un compilador es un programa que permite traducir el código fuente de un programa en lenguaje de alto nivel, a otro lenguaje de nivel inferior (típicamente lenguaje de máquina). De esta manera un programador puede diseñar un programa en un lenguaje mucho más cercano a como piensa un ser humano, para luego compilarlo a un programa más manejable por una computadora

AUTORES: KARINA VILLAGOMEZ Página 29

Page 30: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

PARTES DE UN COMPILADOR

La construcción de un compilador involucra la división del proceso en una serie de fases que variará con su complejidad. Generalmente estas fases se agrupan en dos tareas: el análisis del programa fuente y la síntesis del programa objeto.

Análisis: Se trata de la comprobación de la corrección del programa fuente, e incluye las fases correspondientes al Análisis Léxico (que consiste en la descomposición del programa fuente en componentes léxicos), Análisis Sintáctico (agrupación de los componentes léxicos en frases gramaticales ) y Análisis Semántico (comprobación de la validez semántica de las sentencias aceptadas en la fase de Análisis Sintáctico).

Síntesis: Su objetivo es la generación de la salida expresada en el lenguaje objeto y suele estar formado por una o varias combinaciones de fases de Generación de Código (normalmente se trata de código intermedio o de código objeto) y de Optimización de Código (en las que se busca obtener un código lo más eficiente posible).

Alternativamente, las fases descritas para las tareas de análisis y síntesis se pueden agrupar en Front-end y Back-end:

Front-end : es la parte que analiza el código fuente, comprueba su validez, genera el árbol de derivación y rellena los valores de la tabla de símbolos. Esta parte suele ser independiente de la plataforma o sistema para el cual se vaya a compilar, y está compuesta por las fases comprendidas entre el Análisis Léxico y la Generación de Código Intermedio.

Back-end : es la parte que genera el código máquina, específico de una plataforma, a partir de los resultados de la fase de análisis, realizada por el Front End.

Esta división permite que el mismo Back End se utilice para generar el código máquina de varios lenguajes de programación distintos y que el mismo Front End que sirve para analizar el código fuente de un lenguaje de programación concreto sirva para generar código máquina en varias plataformas distintas. Suele incluir la generación y optimización del código dependiente de la máquina.

El código que genera el Back End normalmente no se puede ejecutar directamente, sino que necesita ser enlazado por un programa enlazador (linker)

HISTORIA

En 1946 se desarrolló la primera computadora digital. En un principio, estas máquinas ejecutaban instrucciones consistentes en códigos numéricos que señalaban a los circuitos de la máquina los estados correspondientes a cada operación, lo que se denominó lenguaje máquina.

Pronto los primeros usuarios de estos ordenadores descubrieron la ventaja de escribir sus programas mediante claves más fáciles de recordar que esos códigos; al final, todas esas claves juntas se traducían manualmente a lenguaje máquina. Estas claves constituyen los llamados lenguajes ensambladores.

Pese a todo, el lenguaje ensamblador seguía siendo el de una máquina, pero más fácil de manejar. Los trabajos de investigación se orientaron hacia la creación de un lenguaje que expresara las distintas acciones a realizar de una manera lo más sencilla posible para una persona. El primer compilador fue escrito por Grace Hopper, en 1952 para el lenguaje de programación A-0, En 1950 John Backus dirigió una investigación en IBM sobre un lenguaje

AUTORES: KARINA VILLAGOMEZ Página 30

Page 31: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

algebraico. En 1954 se empezó a desarrollar un lenguaje que permitía escribir fórmulas matemáticas de manera traducible por un ordenador; le llamaron FORTRAN (FORmulae TRANslator). Fue el primer lenguaje de alto nivel y se introdujo en 1957 para el uso de la computadora IBM modelo 704.

Surgió así por primera vez el concepto de un traductor como un programa que traducía un lenguaje a otro lenguaje. En el caso particular de que el lenguaje a traducir es un lenguaje de alto nivel y el lenguaje traducido de bajo nivel, se emplea el término compilador.

La tarea de realizar un compilador no fue fácil. El primer compilador de FORTRAN tardó 18 años-persona en realizarse y era muy sencillo. Este desarrollo de FORTRAN estaba muy influenciado por la máquina objeto en la que iba a ser implementado. Como un ejemplo de ello tenemos el hecho de que los espacios en blanco fuesen ignorados, debido a que el periférico que se utilizaba como entrada de programas (una lectora de tarjetas perforadas) no contaba correctamente los espacios en blanco.

El primer compilador autocontenido, es decir, capaz de compilar su propio código fuente fue el creado para Lisp por Hart y Levin en el MIT en 1962. Desde 1970 se ha convertido en una práctica común escribir el compilador en el mismo lenguaje que este compila, aunque Pascal y C han sido alternativas muy usadas.

Crear un compilador autocontenido genera un problema llamado bootstrapping, es decir el primer compilador creado para un lenguaje tiene que o bien ser compilado por un compilador escrito en otro lenguaje o bien compilado al ejecutar el compilador en un intérprete.

TIPOS DE COMPILADORES

Esta taxonomía de los tipos de compiladores no es excluyente, por lo que puede haber compiladores que se adscriban a varias categorías:

Compiladores cruzados: generan código para un sistema distinto del que están funcionando.

Compiladores optimizadores: realizan cambios en el código para mejorar su eficiencia, pero manteniendo la funcionalidad del programa original.

Compiladores de una sola pasada: generan el código máquina a partir de una única lectura del código fuente.

Compiladores de varias pasadas: necesitan leer el código fuente varias veces antes de poder producir el código máquina.

Compiladores JIT (Just In Time): forman parte de un intérprete y compilan partes del código según se necesitan.

Pauta de creación de un compilador: En las primeras épocas de la informática, el software de los compiladores era considerado como uno de los más complejos existentes.

Los primeros compiladores se realizaron programándolos directamente en lenguaje máquina o en ensamblador. Una vez que se dispone de un compilador, se pueden escribir nuevas versiones del compilador (u otros compiladores distintos) en el lenguaje que compila ese compilador.

AUTORES: KARINA VILLAGOMEZ Página 31

Page 32: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

Actualmente existen herramientas que facilitan la tarea de escribir compiladores ó intérpretes informáticos. Estas herramientas permiten generar el esqueleto del analizador sintáctico a partir de una definición formal del lenguaje de partida, especificada normalmente mediante una gramática formal y barata, dejando únicamente al programador del compilador la tarea de programar las acciones semánticas asociadas.

PROCESO DE COMPILACIÓN

Es el proceso por el cual se traducen las instrucciones escritas en un determinado lenguaje de programación a lenguaje máquina. Además de un traductor, se pueden necesitar otros programas para crear un programa objeto ejecutable. Un programa fuente se puede dividir en módulos almacenados en archivos distintos. La tarea de reunir el programa fuente a menudo se confía a un programa distinto, llamado preprocesador. El preprocesador también puede expandir abreviaturas, llamadas a macros, a proposiciones del lenguaje fuente.

Normalmente la creación de un programa ejecutable (un típico.exe para Microsoft Windows o DOS) conlleva dos pasos. El primer paso se llama compilación (propiamente dicho) y traduce el código fuente escrito en un lenguaje de programación almacenado en un archivo a código en bajo nivel (normalmente en código objeto, no directamente a lenguaje máquina). El segundo paso se llama enlazado en el cual se enlaza el código de bajo nivel generado de todos los ficheros y subprogramas que se han mandado compilar y se añade el código de las funciones que hay en las bibliotecas del compilador para que el ejecutable pueda comunicarse directamente con el sistema operativo, traduciendo así finalmente el código objeto a código máquina, y generando un módulo ejecutable.

Estos dos pasos se pueden hacer por separado, almacenando el resultado de la fase de compilación en archivos objetos (un típico.obj para Microsoft Windows, DOS o para Unix); para enlazarlos en fases posteriores, o crear directamente el ejecutable; con lo que la fase de compilación se almacena sólo temporalmente. Un programa podría tener partes escritas en varios lenguajes (por ejemplo C, C++ y Asm), que se podrían compilar de forma independiente y luego enlazar juntas para formar un único módulo ejecutable.

ETAPAS DEL PROCESO

El proceso de traducción se compone internamente de varias etapas o fases, que realizan distintas operaciones lógicas. Es útil pensar en estas fases como en piezas separadas dentro del traductor, y pueden en realidad escribirse como operaciones codificadas separadamente aunque en la práctica a menudo se integren juntas.

[FASE DE ANÁLISIS

Análisis léxico

El análisis léxico constituye la primera fase, aquí se lee el programa fuente de izquierda a derecha y se agrupa en componentes léxicos (tokens), que son secuencias de caracteres que tienen un significado. Además, todos los espacios en blanco, líneas en blanco, comentarios y demás información innecesaria se elimina del programa fuente. También se comprueba que los símbolos del lenguaje (palabras clave, operadores,...) se han escrito correctamente.

Como la tarea que realiza el analizador léxico es un caso especial de coincidencia de patrones, se necesitan los métodos de especificación y reconocimiento de patrones, y éstos métodos son principalmente las expresiones regulares y los autómatas finitos. Sin embargo, un analizador léxico también es la parte del traductor que maneja la entrada del código fuente, y puesto que

AUTORES: KARINA VILLAGOMEZ Página 32

Page 33: F:\trabajo parta enviar

UNIVERSIDAD NACIONAL DE CHIMBORAZOFACULTAD DE CIENCIAS POLITICAS Y

ADMINISTRATIVAS

esta entrada a menudo involucra un importante gasto de tiempo, el analizador léxico debe funcionar de manera tan eficiente como sea posible.

Análisis sintáctico

En esta fase los caracteres o componentes léxicos se agrupan jerárquicamente en frases gramaticales que el compilador utiliza para sintetizar la salida. Se comprueba si lo obtenido de la fase anterior es sintácticamente correcto (obedece a la gramática del lenguaje). Por lo general, las frases gramaticales del programa fuente se representan mediante un árbol de análisis sintáctico.

La estructura jerárquica de un programa normalmente se expresa utilizando reglas recursivas. Por ejemplo, se pueden dar las siguientes reglas como parte de la definición de expresiones:

1. Cualquier identificador es una expresión.2. Cualquier número es una expresión.3. Si expresión1 y expresión2 son expresiones, entonces también lo son:

o expresión1 + expresión2

o expresión1 * expresión2

o ( expresión1 )

Las reglas 1 y 2 son reglas básicas (no recursivas), en tanto que la regla 3 define expresiones en función de operadores aplicados a otras expresiones.

La división entre análisis léxico y análisis sintáctico es algo arbitraria. Un factor para determinar la división es si una construcción del lenguaje fuente es inherentemente recursiva o no. Las construcciones léxicas no requieren recursión, mientras que las construcciones sintácticas suelen requerirla. No se requiere recursión para reconocer los identificadores, que suelen ser cadenas de letras y dígitos que comienzan con una letra. Normalmente, se reconocen los identificadores por el simple examen del flujo de entrada, esperando hasta encontrar un carácter que no sea ni letra ni dígito, y agrupando después todas las letras y dígitos encontrados hasta ese punto en un componente léxico llamado identificador. Por otra parte, esta clase de análisis no es suficientemente poderoso para analizar expresiones o proposiciones. Por ejemplo, no podemos emparejar de manera apropiada los paréntesis de las expresiones, o las palabras begin y end en proposiciones sin imponer alguna clase de estructura jerárquica o de anidamiento a la entrada.

AUTORES: KARINA VILLAGOMEZ Página 33