96
DIAGNOSTICO DE LA CONECTIVIDAD DE LA RED Leidy Ríos Bernal Presentado al docente ANGEL VILORIA en TECNICO DE SISTEMAS SENA 10º IDETP BARRANQUILLA 2011

DIAGNOSTICO DE LA CONECTIVIDAD DE LA RED

Embed Size (px)

Citation preview

DIAGNOSTICO DE LA CONECTIVIDAD DE LA RED

Leidy Ríos Bernal

Presentado al docente ANGEL VILORIA en TECNICO DE SISTEMAS

SENA

10º

IDETP

BARRANQUILLA

2011

INDICE

Modelo de referencia OSITopologías físicas y lógicas de redMedios de transmisión y conectorizaciónUTPFibra ópticaMedios inalámbricos (atmosféricos)RJ 45RJ 11STEquipos activos de interconexiónSwitchesRouterAccess PointModemDireccionamiento de redInterpretación de manuales técnicos de redÁrea de trabajoAplicar herramientas de protección de estaciones clientesInterpretar convenciones de rotulaciónCuarto de equiposCuarto de telecomunicacionesCableado horizontalCableado verticalVerificación de la capa físicaInspección física del cable y los conectoresVerificación de la capa de enlace de datosManejo de software de diagnósticoConfiguración de la NICVerificación de la capa de redComandos de gestión de redPingTracertNetstatOrganización de cuartos de telecomunicaciones.Organización de cuartos de equipos telecomunicaciones.Redes cableadas e inalámbricasConcepto. Tipos. Topologías. Medios de transmisión. Unidades de Frecuencia. Ondas Electromagnéticas.Radio propagación (Reflexión, Difracción, Refracción y Dispersión). Señales.Espectro electromagnético.Efecto Doppler.Acoples de impedancia. Técnicas de Modulación y Multiplexación.Protocolos. Estándares 802.11 Mantenimiento y soporte.

Equipos de conectividad (Pasivos y Activos)Concepto. Clasificación.Componentes (Adaptadores, Access point, Bridges, Routers, AntenasUnidades de medida de la informaciónAncho de banda.Ondas eléctricas, señales analógicas y digitales. Óptica (La Luz).Protocolos TCP/IPTelecomunicaciones (Telefonía IP, VoIP). VPN. Tecnologías (Bluetooth, 3G, Wi-Fi, WiMAX, UWBConcepto.Métodos de Acceso (FDMA, TDMA, CDMA).Redes públicas de radio (Redes Celulares, Sistemas Trunking, Roaming, Sistemas Satelitales). Calidad de Servicio (802.11e). Seguridad de Redes cableadas e InalámbricasConcepto.Vulnerabilidades.Amenazas. Certificados.Tecnologías de seguridad.Sistema de encriptación.Protocolos (RADIUS, 802.1x EAP)Métodos de Autenticación (WEP, WPA, WPA2) Documentación técnica:Normas.Técnicas comunicación (oral y escrita).Planos. Herramientas (MS-Visio, Autocad, FlashSeguridad en el lugar de trabajo:Seguridad e higiene en la instalación.Accidentes de trabajo.Ambientes peligrosos.Prevención de accidentes y lesiones.Primeros auxilios.Fundamentos de ergonomía.Uso de extintores de incendios.

1. MODELO DE REFERENCIA OSI

El modelo de referencia OSI (sigla inglesa de “interconexión de sistemas abiertos”) es una abstracción propuesta por la Organización Internacional para la Estandarización (ISO), con el objetivo de normalizar internacionalmente los protocolos que se usan para comunicar distintos equipos en las redes telemáticas. Se habla de sistemas abiertos porque el modelo OSI no se concibe para equipos aislados sino para equipos que pueden comunicarse con otros.

Aunque, en cierto modo, el modelo OSI ha quedado superado con la aparición de redes y protocolos que responden a modelos con delimitaciones más difusas que las que expone OSI, éste sigue teniendo una gran aceptación como patrón teórico del funcionamiento de la arquitectura de las redes de ordenadores, por lo que es estudiado en escuelas de ingeniería e informática por todo el mundo.

El modelo OSI está formado por capas, en cada una de las cuales se emplean protocolos de comunicación distintos. Para lograr sistematizar en capas las redes reales de la época en que fue concebido el modelo de referencia (principios de los años ochenta) se emplearon los siguientes principios (Tanenbaum, 1997):

• Cada capa corresponde a un nivel diferente de abstracción, de lo más tangible (físico) a lo puramente lógico.

• Las capas deben realizar funciones bien definidas. • La función de cada capa debe ser coherente con las definiciones de los

protocolos estandarizados internacionalmente. • Las fronteras entre capas deben delimitarse de manera que el flujo de

información a través de las interfaces sea mínimo. • El número total de capas debe ser tal que cada una de ellas tenga una

función distinta, pero sin que la arquitectura resultante sea tan compleja como para resultar inmanejable.

Con estas condiciones, el modelo que se eligió está formado por siete capas o niveles bien diferenciados que forman una “pila”. Los siete niveles del modelo de referencia OSI son:

1 Físico

2 Enlace de datos

3 Red

4 Transporte

5 Sesión

6 Presentación

Topologías de redes La topología de una red es el arreglo físico o lógico en el cual los dispositivos o nodos de una red (computadoras, impresoras, servidores, hubs, switches, enrutadores, etc.) se interconectan entre sí sobre un medio de comunicación.

a) Topología física: Se refiere al diseño actual del medio de transmisión de la red.b) Topología lógica: Se refiere a la trayectoria lógica que una señal a su paso por los nodos de la red.

Existen varias topologías de red básicas (ducto, estrella, anillo y malla), pero también existen redes híbridas que combinan una o más de las topologías anteriores en una misma red.

Topología de ducto (bus)Una topología de ducto o bus está caracterizada por una dorsal principal con dispositivos de red interconectados a lo largo de la dorsal. Las redes de ductos son consideradas como topologías pasivas. Las computadoras "escuchan" al ducto. Cuando éstas están listas para transmitir, ellas se aseguran que no haya nadie más transmitiendo en el ducto, y entonces ellas envían sus paquetes de información. Las redes de ducto basadas en contención (ya que cada computadora debe contender por un tiempo de transmisión) típicamente emplean la arquitectura de red ETHERNET.

Las redes de bus comúnmente utilizan cable coaxial como medio de comunicación, las computadoras se contaban al ducto mediante un conector BNC en forma de T.

En el extremo de la red se ponia un terminador (si se utilizaba un cable de 50 ohm, se ponia un terminador de 50 ohms también).

Las redes de ducto son fácil de instalar y de extender. Son muy susceptibles a quebraduras de cable, conectores y cortos en el cable que son muy díficiles de encontrar. Un problema físico en la red, tal como un conector T, puede tumbar toda la red.

Topología de estrella (star)

En una topología de estrella, las computadoras en la red se conectan a un dispositivo central conocido como concentrador (hub en inglés) o a un conmutador de paquetes (swicth en inglés).

En un ambiente LAN cada computadora se conecta con su propio cable (típicamente par trenzado) a un puerto del hub o switch. Este tipo de red sigue siendo pasiva, utilizando un método basado en contensión, las computadoras escuchan el cable y contienden por un tiempo de transmisión.

Debido a que la topología estrella utiliza un cable de conexión para cada computadora, es muy fácil de expandir, sólo dependerá del número de puertos disponibles en el hub o switch (aunque se pueden conectar hubs o switchs en cadena para así incrementar el número de puertos). La desventaja de esta topología en la centralización de la comunicación, ya que si el hub falla, toda la red se cae.

Hay que aclarar que aunque la topología física de una red Ethernet basada en hub es estrella, la topología lógica sigue siendo basada en ducto.

Topología de anillo (ring)Una topología de anillo conecta los dispositivos de red uno tras otro sobre el cable en un círculo físico. La topología de anillo mueve información sobre el cable en una dirección y es considerada como una topología activa. Las computadoras en la red retransmiten los paquetes que reciben y los envían a la siguiente computadora en la red. El acceso al medio de la red es otorgado a una computadora en particular en la red por un "token". El token circula alrededor del anillo y cuando una computadora desea enviar datos, espera al token y posiciona de él. La computadora entonces envía los datos sobre el cable. La computadora destino envía un mensaje (a la computadora que envió los datos) que de fueron recibidos correctamente. La computadora que transmitio los datos, crea un nuevo token y los envía a la siguiente computadora, empezando el ritual de paso de token o estafeta (token passing) nuevamente.

Topología de malla (mesh)La topología de malla (mesh) utiliza conexiones redundantes entre los dispositivos de la red así como una estrategía de tolerancia a fallas.

Cada dispositivo en la red está conectado a todos los demás (todos conectados con todos). Este tipo de tecnología requiere mucho cable (cuando se utiliza el cable como medio, pero puede ser inalámbrico también). Pero debido a la redundancia, la red puede seguir operando si una conexión se rompe.

Las redes de malla, obviamente, son mas difíciles y caras para instalar que las otras topologías de red debido al gran número de conexiones requeridas.

Topología de árbol

La topología de árbol combina características de la topología de estrella con la BUS. Consiste en un conjunto de subredes estrella conectadas a un BUS. Esta topología facilita el crecimiento de la red.

Ventajas

Cableado punto a punto para segmentos individuales.

Soportado por multitud de vendedores de software y de hardware.

Desventajas

La medida de cada segmento viene determinada por el tipo de cable utilizado.

Si se viene abajo el segmento principal todo el segmento se viene abajo con él.

Es más difícil su configuración.

Las redes de computadoras se montan con una serie de componentes de uso común y que es mayor o menor medida aparece siempre en cualquier instalación.

Topología de doble anillo

Una topología en anillo doble consta de dos anillos concéntricos, donde cada Host de la red está conectado a ambos anillos, aunque los dos anillos no están conectados directamente entre sí. Es análoga a la topología de anillo, con la diferencia de que, para incrementar la confiabilidad y flexibilidad de la red, hay un segundo anillo redundante que conecta los mismos dispositivos. La topología de anillo doble actúa como si fueran dos anillos independientes, de los cuales se usa solamente uno por vez.

Topología totalmente conexa

Red Totalmente conexa: cada computadora se conectará a cada computadora, por medio de cables y no requiere un servidor.

VentajasRobustez ante fallas. Privacidad y seguridad.

DesventajasDificultad en la instalación. Puede llegar a representar costos altos.

Medios de transmisión

El medio de transmisión constituye el soporte físico a través del cual emisor y receptor pueden comunicarse en un sistema de transmisión de datos. Distinguimos dos tipos de medios: guiados y no guiados. En ambos casos la transmisión se realiza por medio de ondas electromagnéticas. Los medios guiados conducen (guían) las ondas a través de un camino físico, ejemplos de estos medios son el cable coaxial, la fibra óptica y el par trenzado. Los medios no guiados proporcionan un soporte para que las ondas se transmitan, pero no las dirigen; como ejemplo de ellos tenemos el aire y el vacío. La naturaleza del medio junto con la de la señal que se transmite a través de él constituye los factores determinantes de las características y la calidad de la transmisión. En el caso de medios guiados es el propio medio el que determina el que determina principalmente las limitaciones de la transmisión: velocidad de transmisión de los datos, ancho de banda que puede soportar y espaciado entre repetidores. Sin embargo, al utilizar medios no guiados resulta más determinante en la transmisión el espectro de frecuencia de la señal producida por la antena que el propio medio de transmisión.

MEDIOS GUIADOS

• Pares trenzados• Cable coaxial• fibra óptica

MEDIOS NO GUIADOS

• redes inalámbricas• microondas• infrarrojo• bluetooth

El cable UTP Es un sistema de cableado estructurado consiste de una infraestructura flexible de cables que puede aceptar y soportar sistemas de computación y de teléfono múltiples.Es un cable que tiene 4 pares hilos de cobre de calibre 22 o 24, tiene una impedancia de 100 ohmios; esto lo hace diferente de los demas tipos de cables ya que se puede usar en cualquier arquitectura de networking principales, por lo tanto es el más utilizado y el más popular en el cableado estructurado.

Vetajas:

Es facil de instalaciòn y mas economicos de los demas tipos de cables.Su diàmetro externo es tan pequeño que no permite llenar los condutos para el cableado tan rapidamente como otros tipos de cables.

Desventajas:

El cable UTP es más sensible al ruido eléctrico y la interferencia que otros tipos de medios de networking.Para conectar el cable UTP a los distintos dispositivos de red se usan unos conectores especiales, denominados RJ-45 (Registered Jack-45), muy parecidos a los típicos conectores del cableado telefónico casero.

Fibra óptica

La fibra óptica es una delgada hebra de vidrio o silicio fundido que conduce la luz. Se requieren dos filamentos para una comunicación bi-direccional: TX y RX.

El grosor del filamento es comparable al grosor de un cabello humano, es decir, aproximadamente de 0,1 mm. En cada filamento de fibra óptica podemos apreciar 3 componentes:

• La fuente de luz: LED o laser.• el medio transmisor: fibra óptica.• el detector de luz: fotodiodo.

Un cable de fibra óptica está compuesto por: Núcleo, manto,recubrimiento, tensores y chaqueta.

Las fibras ópticas se pueden utilizar con LAN, así como para transmisión de largo alcance, aunque derivar en ella es más complicado que conectarse a una Ethernet. La interfaz en cada computadora pasa la corriente de pulsos de luz hacia el siguiente enlace y también sirve como unión T para que la computadora pueda enviar y recibir mensajes. Convencionalmente, un pulso de luz indica un bit 1 y la ausencia de luz indica un bit 0. El detector genera un pulso eléctrico cuando la luz incide en él.

Éste sistema de transmisión tendría fugas de luz y sería inútil en la práctica excepto por un principio interesante de la física. Cuando un rayo de luz pasa de un medio a otro, el rayo se refracta (se dobla) entre las fronteras de los medios.

El grado de refracción depende de las propiedades de los dos medios (en particular, de sus índices de refracción). Para ángulos de incidencia por encima de cierto valor crítico, la luz se refracta de regreso; ninguna función escapa hacia el otro medio, de esta forma el rayo queda atrapado dentro de la fibra y se puede propagar por muchos kilómetros virtualmente sin pérdidas. En la siguiente animación puede verse la secuencia de transmisión.

El RJ45

Es una interfaz física usada para conectar redes de cableado estructurado. Tiene ocho pines, usados generalmente como extremos de cables de par trenzado.

Se utiliza comúnmente en cables de redes Ethernet (8 pines), terminaciones de teléfonos (4 pines), etc.

Son conectores similares a los RJ-11, pero más anchos.

El conector RJ11

Es el conector más utilizado para líneas telefónicas. Es similar a un conector RJ45 pero más pequeño.

En un equipo, se suele utilizar para conectar el módem.

ST

Los cables ST son usados como cordón de servicio extra pesado para equipos y herramientas portátiles; en especial para talleres escenarios y vitrinas. Instalación abierta, en extensiones portátiles con terminales.

Qué es la interconexión de redes (equipos activos de interconexión)

Cuando se diseña una red de datos se desea sacar el máximo rendimiento de sus capacidades. Para conseguir esto, la red debe estar preparada para efectuar conexiones a través de otras redes, sin importar qué características posean.El objetivo de la Interconexión de Redes (internetworking) es dar un servicio de comunicación de datos que involucre diversas redes con diferentes tecnologías de forma transparente para el usuario. Este concepto hace que las cuestiones técnicas particulares de cada red puedan ser ignoradas al diseñar las aplicaciones que utilizarán los usuarios de los servicios.Los dispositivos de interconexión de redes sirven para superar las limitaciones físicas de los elementos básicos de una red, extendiendo las topologías de esta.Algunas de las ventajas que plantea la interconexión de redes de datos, son:

• Compartición de recursos dispersos.• Coordinación de tareas de diversos grupos de trabajo.• Reducción de costos, al utilizar recursos de otras redes.• Aumento de la cobertura geográfica.

Tipos de Interconexión de redesSe pueden distinguir dos tipos de interconexión de redes, dependiendo del ámbito de aplicación:

• Interconexión de Área Local (RAL con RAL)

Una interconexión de Área Local conecta redes que están geográficamente cerca, como puede ser la interconexión de redes de un mismo edificio o entre edificios, creando una Red de Área Metropolitana (MAN)

• Interconexión de Área Extensa (RAL con MAN y RAL con WAN)

La interconexión de Área Extensa conecta redes geográficamente dispersas, por ejemplo, redes situadas en diferentes ciudades o países creando una Red de Área Extensa (WAN)

2. Dispositivos de interconexion de redes.

Concentradores (Hubs)El término concentrador o hub describe la manera en que las conexiones de cableado de cada nodo de una red se centralizan y conectan en un único dispositivo. Se suele aplicar a concentradores Ethernet, Token Ring, y FDDI (Fiber Distributed Data Interface) soportando módulos individuales que concentran múltiples tipos de funciones en un solo dispositivo. Normalmente los concentradores incluyen ranuras para aceptar varios módulos y un panel trasero común para funciones de encaminamiento, filtrado y conexión a diferentes medios de transmisión (por ejemplo Ethernet y TokenRing).Los primeros hubs o de "primera generación" son cajas de cableado avanzadas que ofrecen un punto central de conexión conectado a varios puntos. Sus principales beneficios son la conversión de medio (por ejemplo de coaxial a fibra óptica), y algunas funciones de gestión bastante primitivas como particionamiento automático cuando se detecta un problema en un segmento determinado.Los hubs inteligentes de "segunda generación" basan su potencial en las posibilidades de gestión ofrecidas por las topologías radiales (TokenRing y Ethernet). Tiene la capacidad de gestión, supervisión y control remoto, dando a los gestores de la red la oportunidad de ofrecer un período mayor de funcionamiento de la red gracias a la aceleración del diagnóstico y solución de problemas. Sin embargo tienen limitaciones cuando se intentan emplear como herramienta universal de configuración y gestión de arquitecturas complejas y heterogéneas.Los nuevos hubs de "tercera generación" ofrecen proceso basado en arquitectura RISC (Reduced Instructions Set Computer) junto con múltiples placas de alta velocidad. Estas placas están formadas por varios buses independientes Ethernet, TokenRing, FDDI y de gestión, lo que elimina la saturación de tráfico de los actuales productos de segunda generación.A un hub Ethernet se le denomina "repetidor multipuerta". El dispositivo repite simultáneamente la señal a múltiples cables conectados en cada uno de los puertos del hub. En el otro extremo de cada cable está un nodo de la red, por ejemplo un ordenador personal. Un hub Ethernet se convierte en un hub inteligente (smart hub) cuando puede soportar inteligencia añadida para realizar monitorización y funciones de control.Los concentradores inteligentes (smart hub) permiten a los usuarios dividir la red en segmentos de fácil detección de errores a la vez que proporcionan una estructura de crecimiento ordenado de la red. La capacidad de gestión remota de los hubs inteligentes hace posible el diagnóstico remoto de un problema y aísla un punto con problemas del resto de la RAL, con lo que otros usuarios no se ven afectados.

El tipo de hub Ethernet más popular es el hub 10BaseT. En este sistema la señal llega a través de cables de par trenzado a una de las puertas, siendo regenerada eléctricamente y enviada a las demás salidas. Este elemento también se encarga de desconectar las salidas cuando se produce una situación de error.

RepetidoresEl repetidor es un elemento que permite la conexión de dos tramos de red, teniendo como función principal regenerar eléctricamente la señal, para permitir alcanzar distancias mayores manteniendo el mismo nivel de la señal a lo largo de la red. De esta forma se puede extender, teóricamente, la longitud de la red hasta el infinito.Un repetidor interconecta múltiples segmentos de red en el nivel físico del modelo de referencia OSI. Por esto sólo se pueden utilizar para unir dos redes que tengan los mismos protocolos de nivel físico.Los repetidores no discriminan entre los paquetes generados en un segmento y los que son generados en otro segmento, por lo que los paquetes llegan a todos los nodos de la red. Debido a esto existen más riesgos de colisión y más posibilidades de congestión de la red.Se pueden clasificar en dos tipos:

• Locales: cuando enlazan redes próximas.

Remotos: cuando las redes están alejadas y se necesita un medio intermedio de comunicación.En la siguiente figura se muestra un ejemplo de utilización de un repetidor.Normalmente la utilización de repetidores está limitada por la distancia máxima de la red y el tamaño máximo de cada uno de los segmentos de red conectados. En las redes Ethernet, por problemas de gestión de tráfico en la red, no deben existir más de dos repetidores entre dos equipos terminales de datos, lo que limita la distancia máxima entre los nodos más lejanos de la red a 1.500 m. (enlazando con dos repetidores tres segmentos de máxima longitud, 500 m).Ventajas:

• Incrementa la distancia cubierta por la RAL.• Retransmite los datos sin retardos.• Es transparente a los niveles superiores al físico.

Desventajas:

• Incrementa la carga en los segmentos que interconecta.

Los repetidores son utilizados para interconectar RALs que estén muy próximas, cuando se quiere una extensión física de la red. La tendencia actual es dotar de más inteligencia y flexibilidad a los repetidores, de tal forma que ofrezcan capacidad de gestión y soporte de múltiples medios físicos, como Ethernet sobre par trenzado (10BaseT), ThickEthernet (10Base5), ThinEthernet (10Base2), TokenRing, fibra óptica, etc.

Puentes (Bridges)Son elementos inteligentes, constituidos como nodos de la red, que conectan entre sí dos subredes, transmitiendo de una a otra el tráfico generado no local. Al distinguir los tráficos locales y no locales, estos elementos disminuyen el mínimo total de paquetes circulando por la red por lo que, en general, habrá menos colisiones y resultará más difícil llegar a la congestión de la red.Operan en el Nivel de Enlace del modelo de referencia OSI, en el nivel de trama MAC (Medium Access Control, Control de Acceso al Medio) y se utilizan para conectar o extender redes similares, es decir redes que tienen protocolos idénticos en los dos niveles inferiores OSI, (como es TokenRing con TokenRing, Ethernet con Ethernet, etc) y conexiones a redes de área extensa.Se encargan de filtrar el tráfico que pasa de una a otra red según la dirección de destino y una tabla que relaciona las direcciones y la red en que se encuentran las estaciones asignadas.Las redes conectadas a través de bridge aparentan ser una única red, ya que realizan su función transparentemente; es decir, las estaciones no necesitan conocer la existencia de estos dispositivos, ni siquiera si una estación pertenece a uno u otro segmento.Un bridge ejecuta tres tareas básicas:

• Aprendizaje de las direcciones de nodos en cada red.• Filtrado de las tramas destinadas a la red local.• Envío de las tramas destinadas a la red remota.

Se distinguen dos tipos de bridge:

• Locales: sirven para enlazar directamente dos redes físicamente cercanas.

• Remotos o de área extensa: se conectan en parejas, enlazando dos o más redes locales, formando una red de área extensa, a través de líneas telefónicas.

Ventajas de la utilización de bridges:

• Fiabilidad. Utilizando bridges se segmentan las redes de forma que un fallo sólo imposibilita las comunicaciones en un segmento.

• Eficiencia. Segmentando una red se limita el tráfico por segmento, no influyendo el tráfico de un segmento en el de otro.

• Seguridad. Creando diferentes segmentos de red se pueden definir distintos niveles de seguridad para acceder a cada uno de ellos, siendo no visible por un segmento la información que circula por otro.

• Dispersión. Cuando la conexión mediante repetidores no es posible debido a la excesiva distancia de separación, los bridges permiten romper esa barrera de distancias.

Desventajas de los bridges:

• Son ineficientes en grandes interconexiones de redes, debido a la gran cantidad de tráfico administrativo que se genera.

• Pueden surgir problemas de temporización cuando se encadenan varios bridges.

• Pueden aparecer problemas de saturación de las redes por tráfico de difusión.

Encaminadores (Routers)Son dispositivos inteligentes que trabajan en el Nivel de Red del modelo de referencia OSI, por lo que son dependientes del protocolo particular de cada red. Envían paquetes de datos de un protocolo común, desde una red a otra.Convierten los paquetes de información de la red de área local, en paquetes capaces de ser enviados mediante redes de área extensa. Durante el envío, el encaminador examina el paquete buscando la dirección de destino y consultando su propia tabla de direcciones, la cual mantiene actualizada intercambiando direcciones con los demás routers para establecer rutas de enlace a través de las redes que los interconectan. Este intercambio de información entre routers se realiza mediante protocolos de gestión propietarios.

Switch

Es un dispositivo digital de lógica de interconexión de redes de computadores que opera en la capa de enlace de datos del modelo OSI. Su función es interconectar dos o más segmentos de red, de manera similar a los puentes de red, pasando datos de un segmento a otro de acuerdo con la dirección MAC de destino de las tramas en la red.

Un conmutador en el centro de una red en estrella.

Los conmutadores se utilizan cuando se desea conectar múltiples redes, fusionándolas en una sola. Al igual que los puentes, dado que funcionan como un filtro en la red, mejoran el rendimiento y la seguridad de las redes de área local.

ROUTER

Un router es un dispositivo que envía paquetes de datos a través de redes informáticas

Los Routers realizar los datos de “tráfico de la dirección de” funciones en el Internet .

Algunos router para el hogar de gama media son el Cisco 831 o Soho 91.

Un router está conectado a dos o más líneas de datos de distintas redes.

Cuando los datos se presenta en en una de las líneas, el router lee la información de dirección en el paquete para determinar su destino final.

Luego, utilizando la información en su tabla de enrutamiento, que dirige el paquete a la red siguiente de su viaje o descarta el paquete.

Un paquete de datos es por lo general pasan de un router a través de las redes de Internet hasta que llegue a su equipo de destino a menos que la dirección IP de origen está en una red privada.

El tipo más común de los routers son el hogar y routers para pequeñas oficinas que simplemente pasar los datos, como las páginas Web y correo electrónico, entre los equipos de casa y el dueño del cable o módem DSL, que se conecta a Internet ( ISP ).

Sin embargo, más sofisticados routers gama de routers de la empresa, que conectan las grandes empresas o redes de ISP a los poderosos routers de núcleo que se envían los datos a alta velocidad a lo largo de la fibra óptica, líneas de la red troncal de Internet.

Todos los tamaños de los routers se pueden encontrar dentro de las empresas.

Los routers más poderosos se encuentran generalmente en los ISPs, instalaciones académicas y de investigación.

Las grandes empresas también pueden necesitar routers más potentes para hacer frente a demandas cada vez mayores de la intranet del tráfico de datos.

Un modelo de tres capas es de uso común, no todos los cuales deben estar presentes en redes más pequeñas

Redes externas deben ser cuidadosamente consideradas como parte de la estrategia global de seguridad.

Separado del router puede ser un firewall o VPN dispositivo de manipulación, o el router puede incluir estas y otras funciones de seguridad.

Muchas empresas de producción orientadas a la seguridad routers, incluyendo PIX de Cisco Systems y la serie ASA5500, Netscreen de Juniper, WatchGuard Firebox, la variedad de Barracuda de correo electrónico orientado a los dispositivos, y muchos otros.

ACCESS POINT

Un punto de acceso o Access Point en redes de computadoras es un dispositivo que interconecta equipos de comunicación para formar una red. Normalmente puede conectarse a una red cableada o en una red inalámbrica, y puede transmitir datos entre los dispositivos conectados a la red cable y los dispositivos inalámbricos.

Muchos Access Points pueden conectarse entre sí para formar una red aún mayor, permitiendo realizar "roaming". Un único punto de acceso puede soportar un pequeño grupo de usuarios y puede funcionar en un rango de al menos treinta metros y hasta varios cientos.

MODEM

Un modem es un dispositivo que permite la transmisión y recepción de información binaria (es decir, datos de ordenador) a través de un medio analógico (o sea, la línea telefónica); para poder realizar este proceso, es necesario convertir la señal digital en analógica, y viceversa, y esa es la función del modem.

INTERPRETACIÓN DE MANUALES TÉCNICOS

La dirección de red ayuda al router a identificar una ruta dentro de la nube de red, el router utiliza esta dirección de red para identificar la red destino de un paquete dentro de la red. Lee despacio estos conceptos, son muy sencillos y obvios pero si tienes la base clara te ayudará mucho a comprender como funcionan las redes.

Además de la dirección de red, los protocolos de red utilizan algún tipo de dirección de Host o nodo. Para algunos protocolos de capa de red, el administrador de la red asigna direcciones de red de acuerdo con un plan de direccionamiento de red por defecto. Para otros protocolos de capa de red, asignar direcciones es una operación parcial o totalmente dinámica o automática. El gráfico muestra tres dispositivos en la Red 1 (dos estaciones de trabajo y un router), cada una de los cuales tiene su propia dirección de equipo exclusiva. (También muestra que el router está conectado a otras dos redes: las Redes 2 y 3).

Sin el direccionamiento de capa de red, no se puede producir el enrutamiento. Los routers requieren direcciones de red para garantizar el envío correcto de los paquetes. Si no existiera alguna estructura de direccionamiento jerárquico, los paquetes no podrían transportarse a través de una red. De la misma manera, si no existiera alguna estructura jerárquica para los números telefónicos, las direcciones postales o los sistemas de transporte, no se podría realizar la entrega correcta. La Capa 3 y la movilidad de los ordenadores.

AREA DE TRABAJO

El cableado de las áreas de trabajo generalmente no es permanente y debe ser fácil de cambiar. La longitud máxima del cable horizontal se ha especificado con el supuesto que el cable de parcheo empleado en el área de trabajo tiene una longitud máxima de 3 m. Comúnmente se emplean cordones con conectores idénticos en ambos extremos. Cuando se requieran adaptaciones especificas a una aplicación en el área de trabajo, éstas deben ser externas a la toma/conector de telecomunicaciones.

Es importante tomar en cuenta los efectos de los adaptadores y los equipos empleados en el área de trabajo antes de diseñar el cableado para evitar una degradación del rendimiento del sistema de cableado de telecomunicaciones.

Salidas de área de trabajo: Los ductos a las salidas de área de trabajo (work area outlet, WAO) deben prever la capacidad de manejar tres cables. Las salidas de área de trabajo deben contar con un mínimo de dos conectores. Uno de los conectores debe ser del tipo RJ-45 bajo el código de colores de cableado T568A (recomendado) o T568B. Algunos equipos requieren componentes adicionales (tales como baluns o adaptadores RS-232) en la salida del área de trabajo. Estos componentes no deben instalarse como parte del cableado horizontal, deben instalarse externos a la salida del área de trabajo. Esto garantiza la utilización del sistema de cableado estructurado para otros usos.

Adaptaciones comunes en el área de trabajo: Un cable especial para adaptar el conector del equipo (computadora, terminal, teléfono) al conector de la salida de telecomunicaciones. Un adaptador en "Y" para proporcionar dos servicios en un solo cable multipar (e.g. teléfono con dos extensiones). Un adaptador pasivo (e.g. balun) utilizado para convertir del tipo de cable del equipo al tipo de cable del cableado horizontal.

HERRAMIENTAS DE PROTECCIÓN DE ESTACIONES CLIENTES

En las estaciones de trabajo se han de instalar y configurar todos los protocolos necesarios para la conexión a cuantos servidores necesiten los usuarios. Por ejemplo, habrá que instalar TCP/IP si se desea hacer una conexión hacia máquinas UNIX, NetBEUI para realizar conexiones sencillas a servidores Microsoft e IPX para la conexión con servidores Novell, aunque ya hemos estudiado en la Unidad anterior que el mundo informático habla, en general, TCP/IP.

• Tours Cusco Machupicchu Fine World garantía y confianza Con Oficinas en Lima y Bogotáwww.finewb.com Enlaces patrocinados

Si instalamos más protocolos de los que realmente se utilizarán haremos un consumo excesivo e inútil de memoria central, así como una sobrecarga en el software de red de las estaciones, lo que ralentizará tanto los procesos informáticos como los de comunicaciones.

También hay que asegurarse de que si una aplicación tiene previsto utilizar un interfaz de aplicaciones concreto, por ejemplo, NetBIOS, debe estar instalado, ya que de lo contrario la aplicación de usuario no podrá gestionar las unidades de red remotas. Éste sería el trabajo típico de un redirector, como ya se veía en la Unidad anterior.

El administrador debe valorar el modo en que trabajarán los usuarios, con información local o centralizada. Podemos encontrarnos con tres tipos de configuraciones para los clientes:

- Los programas y aplicaciones están instalados en el disco duro local de la estación y no son compartidos por la red. Cada usuario tiene una copia de cada aplicación. Los datos residen también de modo habitual en el disco local, aunque es posible centralizar la información en los servidores.

- Los programas están instalados en el servidor y todos los usuarios acceden al servidor para disparar sus aplicaciones. Por tanto, se instala una única copia de las aplicaciones, lo que ahorra espacio en disco. Hay que tener en cuenta, no obstante, que no todas las aplicaciones permiten esta operativa de trabajo. Los datos de usuario pueden seguir estando distribuidos por las estaciones clientes, aunque también pueden residir en el servidor.

Hay un caso particular de esta configuración: los clientes ligeros o las estaciones que no poseen disco local (o que poseyéndolo, no lo utilizan para almacenar aplicaciones o datos) y que deben arrancar remotamente a través de la red desde un servidor de sistemas operativos. La instalación de aplicaciones distribuidas exige la colaboración del cliente y del servidor, o entre varios servidores, para completar la aplicación. Por ejemplo, una aplicación de correo electrónico consta de una parte denominada cliente, que se instala en la estación cliente, y una parte denominada servidor, que se instala en el servidor de correo.

CUARTO DE TELECOMUNICACIONES

Un cuarto de telecomunicaciones es el área en un edificio utilizada para el uso exclusivo de equipo asociado con el sistema de cableado de telecomunicaciones. El espacio del cuarto de comunicaciones no debe ser compartido con instalaciones eléctricas que no sean de telecomunicaciones. El cuarto de telecomunicaciones debe ser capaz de albergar equipo de telecomunicaciones, terminaciones de cable y cableado de interconexión asociado. El diseño de cuartos de telecomunicaciones debe considerar, además de voz y datos, la incorporación de otros sistemas de información del edificio tales como televisión por cable (CATV), alarmas, seguridad, audio y otros sistemas de telecomunicaciones. Todo edificio debe contar con al menos un cuarto de telecomunicaciones o cuarto de equipo. No hay un límite máximo en la cantidad de cuartos de telecomunicaciones que pueda haber en un edificio.

Cuarto de telecomunicaciones,el cuarto de equipo es un espacio centralizado de uso específico para equipo de telecomunicaciones tal como central telefónica, equipo de cómputo y/o conmutador de video. Varias o todas las funciones de un cuarto de telecomunicaciones pueden ser proporcionadas por un cuarto de equipo. Los cuartos de equipo se consideran distintos de los cuartos de telecomunicaciones por la naturaleza, costo, tamaño y/o complejidad del equipo que contienen. Los cuartos de equipo incluyen espacio de trabajo para personal de telecomunicaciones. Todo edificio debe contener un cuarto de telecomunicaciones o un cuarto de equipo. Los requerimientos del cuarto de equipo se especifican en los estándares ANSI/TIA/EIA-568-A y ANSI/TIA/EIA-569.

Cuarto de equipos. Los cuartos de equipos son considerados de manera diferente que los cuartos de telecomunicaciones debido a la naturaleza o complejidad de los equipos que ellos contienen. Todas la funciones de los cuartos de telecomunicaciones deben ser proveídas por los cuartos de equipos. El cuarto de equipo es un espacio centralizado de uso específico para equipo de telecomunicaciones tal como central telefónica, equipo de cómputo y/o conmutador de video. Varias o todas las funciones de un cuarto de telecomunicaciones pueden ser proporcionadas por un cuarto de equipo. Los cuartos de equipo se consideran distintos de los cuartos de telecomunicaciones por la naturaleza, costo, tamaño y/o complejidad del equipo que contienen. Los cuartos de equipo incluyen espacio de trabajo para personal de telecomunicaciones.

Todo edificio debe contener un cuarto de telecomunicaciones o un cuarto de equipo. Los requerimientos del cuarto de equipo se especifican en los estándares ANSI/TIA/EIA-568-A y ANSI/TIA/EIA-569. Diseño. Los cuartos de equipos deben ser diseñados y aprovisionados de acuerdo a los requerimientos de la norma EIA/TIA 569.

CABLEADO HORIZONTAL

El cableado horizontal es la porción del sistema de cableado de las telecomunicaciones que va del conector/salida de telecomunicaciones del área de trabajo de telecomunicaciones a la conexión cruzada horizontal en el armario de telecomunicaciones. El cableado horizontal incluye los cables horizontales, el conector/salida de telecomunicaciones l área de trabajo, la terminación mecánica, y las cuerdas auxiliares o puentes situadas en el armario de telecomunicaciones.

CABLEADO VERTICAL

El cableado vertical debe soportar todos los dispositivos que están dentro del Rack y a menudo todas las impresoras, terminales y servidores de archivo de un piso de un edificio. Si más clientes o servidores son agregados a un piso, ellos compiten por el ancho de banda disponible en le cableado vertical. Sin embargo existe una ventaja, y esta es la poca cantidad de canales verticales en un edificio y por ello se pueden usar equipos más costosos para proveer un mayor ancho de banda. Este es el área donde la fibra óptica se ha convertido en el medio más apropiado. El cableado vertical se presenta en diferentes topologías, la más usada es la topología en estrella.

VERIFICACION DE LA CAPA FISICA

El nivel de enlace es el segundo nivel del modelo OSI. Recibe peticiones del nivel de red y utiliza los servicios del nivel físico.

El objetivo del nivel de enlace es conseguir que la información fluya, libre de errores, entre dos máquinas que estén conectadas directamente (servicio orientado a conexión).

Para lograr este objetivo tiene que montar bloques de información (llamados tramas en este nivel), dotarles de una dirección de nivel de enlace, gestionar la detección o corrección de errores, y ocuparse del control de flujo entre equipos (para evitar que un equipo más rápido desborde a uno más lento).

Cuando el medio de comunicación está compartido entre más de dos equipos es necesario arbitrar el uso del mismo. Esta tarea se realiza en el subnivel de acceso al medio.

Dentro del grupo de normas IEEE 802, el subnivel de enlace lógico se recoge en la norma IEEE 802.2 y es común para todos los demás tipos de redes (Ethernet o IEEE 802.3, IEEE 802.11 o Wi-Fi, IEEE 802.16 o WiMAX, etc.); todas ellas especifican un subnivel de acceso al medio así como un nivel físico distintos.

SEGURIDAD FÍSICA DEL CABLEADO

La seguridad física del cableado es bastante sencilla aunque difícil de asegurar. La principal preocupación para un consultor de seguridad física es que el cableado pueda fallar o que pueda ser seccionado por un intruso malintencionado. En principio tendremos también en cuenta lo comentado para las bocas de red y los conectores, que son también parte del cableado.

Para comprobar la red existen aparatos diseñados para esta tarea, que nos permitirán comprobar los cables para ver si tienen algún tipo de problema. También deberemos comprobar que el cableado cumple las normativas necesarias y que tiene la calidad necesaria, normalmente CAT5 o CAT7. Para el cableado coaxial grueso o fino deberemos usar otro tipo de aparatos para comprobarlos y deberemos comprobar sus características eléctricas y las de los terminadores y dispositivos "T" que conectan las máquinas. Como cada vez son menos comunes no hablaremos mucho de ellos. Para evitar el posible seccionamiento del cableado de red lo mejor es entubarlo o integrarlo en la estructura del edificio. Muchos edificios tienen paneles desmontables dentro de los cuales se puede alojar el cableado de red, pero deberá asegurarse que no son fácilmente desmontables o cualquiera podría abrirlos y seccionar el cable. Para los cables de fibra óptica deberemos estudiar la posibilidad del seccionamiento del cable, las características ópticas de este (para esto necesitamos instrumental al efecto, puede ser necesario contratar a un especialista) y vigilar que este tipo de cables que suelen ser frágiles no estén acodados o doblados excesivamente.

DISPOSITIVOS TAP PARA CAPTURA DE DATOS

Los dispositivos Tap son un caso similar al que comentábamos para los keycatchers y máquinas conectadas a las bocas de red. Tienen un problema añadido, y es que estos dispositivos permiten leer el tráfico de una red sin tener que emitir ningún tipo de dato en la red, por lo que son en principio indetectables a nivel de seguridad informática. Se suelen usar para instalar dispositivos IDS stealth (Detectores de intrusos no detectables como máquinas de la red) y para hacer sniffing de la red sin ser detectados. Son muy útiles para el administrador de sistemas, pero pueden volverse contra nosotros si un supuesto intruso malintencionado lo instala en nuestra red. Estos dispositivos pueden funcionar incluso sin una dirección IP asignada, y con todo pueden estudiar los datos que pasan por la red a la que están conectados, sobre todo si se conectan al puerto que replica los demás puertos de un concentrador.

Para evitar esto solo tenemos dos opciones, una de ellas es limitar de alguna forma las direcciones MAC a las que se envían los datos, ya sea por medio de los concentradores o por medio de la VLAN, la otra es la vigilancia intensiva de que este tipo de dispositivos no se inserten en las bocas de red desocupadas y sobre todo en los concentradores. De todas formas si hemos tomado las medidas aconsejadas más arriba para los concentradores es poco probable que un intruso pueda introducir un Tap y un portátil para obtener datos de nuestra red.

MONITORIZACIÓN DE EQUIPOS Y DISPOSITIVOS DE RED

Hablaremos aquí sobre la monitorización física de los equipos y dispositivos de red. Es aconsejable de vez en cuando realizar una inspección física de todo el hardware instalado en la empresa, buscando todos los puntos de fallo y errores que comentamos en este documento y cualquier otro que podamos encontrar o que se nos ocurra. Es una tarea que no lleva demasiado tiempo y que puede suponer la diferencia entre tener una red y un hardware seguros o no tenerlos. Si tenemos personal de vigilancia con la capacidad técnica para realizar esta tarea se les puede encargar a ellos, en caso contrario uno de los administradores o encargados de la seguridad deberá realizar una ronda de vigilancia de los equipos cada cierto tiempo para comprobar que todo está como debe estar. No es necesario la contratación de personal de consultoría para realizar este tipo de estudios o vigilancias rutinarias del hardware, basta con detectar los fallos más evidentes y tener el sistema actualizado y en un estado conocido.

Es aconsejable la implantación de una política de seguridad física del hardware que debe cumplirse, pero tan importante como imponer esta política es la monitorización de que esta política se cumple y que el hardware cumple las medidas de seguridad física que hayamos decidido.

MONITORIZACIÓN DEL HARDWARE. SMART Y SISTEMAS SNMP

Tan importante como el aseguramiento del hardware es su monitorización, es algo en lo que ya hemos insistido. Existen varios sistemas de monitorización del hardware, algunos de ellos estándar como el SNMP o el SMART y otros específicos del hardware que tengamos instalado. Buscaremos siempre sistemas de monitorización que puedan funcionar a través de la red y sobre una única consola que nos permita tener todo el hardware controlado, existe software de este tipo que nos permitirá ir añadiendo las características del hardware que vayamos instalando.

Sobre el SNMP debemos decir que es el sistema estándar de monitorización de hardware. Casi cualquier máquina o dispositivo de red medianamente complicado proveerá de servicios SNMP para permitir la monitorización de todos sus parámetros. Además de los parámetros estándar que el protocolo prevee para todos los sistemas cada fabricante puede incorporar una serie de extensiones a este sistema y proporcionar los datos necesarios para que el sistema gestor SNMP pueda monitorizar estos sistemas. Incluso pueden proveer las llamadas traps, que son avisos que el hardware manda al sistema de monitorización para avisar de algún cambio en el hardware o error en el sistema, pasando así de un sistema principalmente pasivo como es el SNMP a un sistema activo que permite recibir avisos cuando es necesario.

Deberemos elegir hardware que soporte SNMP y que incorpore el máximo número de extensiones que permitan monitorizar el hardware en todos los parámetros posibles. En el caso de los dispositivos de red estos suelen contar con una lista incontable de parámetros a monitorizar, a veces tantos que pueden marear un poco al administrador poco avezado en estas lides. Un buen software de gestión de red resolverá el problema de tratar con montones de dispositivos de red con montones de parámetros a monitorizar, y un sistema de estos bien instalado y funcionando correctamente es una herramienta impagable para el administrador de sistemas.

Entre los parámetros que se pueden monitorizar de estos dispositivos se encuentran todos los parámetros software como tráfico en los interfaces, estadísticas de tráfico, tipos de tráfico y cientos de parámetros más; luego tenemos los parámetros hardware, como velocidad de giro de los ventiladores, temperatura de la caja y de los dispositivos internos, tasas de fallo debidas al cableado o al mismo hardware y muchos parámetros más.

En los ordenadores es menos común encontrar SNMP, pero existen varios fabricantes que proporcionan agentes SNMP que permiten la monitorización de todos los parámetros del sistema. En cualquier caso siempre podemos optar por agentes software SNMP libres como los incluidos en los sistemas de software libre como Linux o FreeBSD, estos sistemas proporcionan monitorización de parámetros como el tráfico en los interfaces, estadísticas de uso del sistema y muchos más, además de ser programables y permitir la monitorización de prácticamente cualquier parámetro ya sea sobre el hardware o del funcionamiento del software del sistema. Es interesante contar con SNMP en las máquinas, sobre todo en los servidores y en las máquinas más críticas, pues estos nos permitirán el tener un sistema estandarizado para todo el conjunto del hardware y nos ahorrará tiempo de administración.

Respecto al software gestor de red que usa los datos SNMP para ofrecernos una vista completa de nuestro hardware debemos decir que suele ser caro y difícil de usar, pero que una vez instalado y controlado su funcionamiento su funcionalidad es impagable, pues permite monitorizar todos los parámetros de redes inmensas y a la vez nos permite reconfigurar dispositivos o realizar cambios en la misma estructura de la red.

Un sistema de este tipo es OpenView de HP, que provee todas estas funcionalidades. Como software libre citaremos a OpenNMS que intenta ser una alternativa libre a los sistemas de gestión de red comerciales y que tiene a día de hoy una funcionalidad ya muy importante.

Otro tipo de sistemas de monitorización son los basados en tomar muestras, como por ejemplo Nagios, Big Brother y similares. Este tipo de sistemas puede usar también SNMP para monitorizar dispositivos de red y luego pruebas de otro tipo para monitorizar máquinas y servicios, comprobando la salud de estos y ofreciéndonos un vistazo rápido de nuestra red, de nuestros servidores y de los servicios que estamos proveyendo a nuestros usuarios o clientes. Es muy aconsejable la instalación de un sistema de este tipo, porque además de permitirnos estudiar nuestro sistema para ver fallos o máquinas caídas nos envía avisos mediante correo electrónico o pagers si alguno de estos sistemas o servicios falla.

Por último comentaremos los sistemas SMART, que son un sistema implementado en casi todos los discos duros modernos que nos ofrecen una cantidad ingente de datos sobre el funcionamiento de estos y sobre su vida útil. Los discos duros son los sistemas que probablemente más fallan en un ordenador, por contener partes mecánicas que están constantemente en movimiento. El sistema SMART está implementado en el hardware y puede ser leído por medio de software al efecto, informándonos de todos los parámetros de funcionamiento del disco duro y de parámetros como el tiempo estimado entre fallos o el tiempo estimado de vida del disco. Es aconsejable utilizar las utilidades al efecto para aprovechar la funcionalidad SMART de los discos duros, y poder así preveer fallos antes de que estos se produzcan. El poder saber que un disco duro va a fallar muy probablemente en un espacio corto de tiempo puede ser vital para replicarlo y sustituirlo por otro nuevo, evitando una gran cantidad de problemas de administración y posible perdida de datos.

CONTROL REMOTO DE HARDWARE

El control remoto del hardware podemos verlo desde dos puntos de vista. El punto de vista hardware puro, donde estaríamos hablando de los sistemas SNMP que hemos comentado en el punto anterior o el punto de vista del software, que abarca una gran cantidad de servicios como TELNET, SSH, FTP/SCP/SFTP, Webmin y similares, etc.

En el caso de la seguridad física solo nos interesa la posibilidad de que alguien controle de forma remota nuestro hardware. Esto es cada vez menos común y no debe ser una gran preocupación para el consultor. Uno de los puntos a tener en cuenta es si existen modems conectados a las máquinas que puedan ser accedidos desde el exterior, y por supuesto la conectividad de red desde el exterior, pero estos son puntos más adecuados para el tratamiento por parte del personal de seguridad informática que por el personal de seguridad física.

Nuestra mayor preocupación será por tanto la ocultación dentro de la empresa por un intruso malintencionado de dispositivos como portátiles, pequeños ordenadores tipo Capuccino o similares conectados a nuestra red interna y que puedan servir a un atacante exterior para controlar nuestra red y por tanto nuestro hardware, aunque esta posibilidad es pequeña y casi poco plausible. Los sistemas de seguridad informática deberían detectar este tipo de dispositivos fácilmente y trazarlos hasta ser eliminados.

Se puede hablar también de control remoto del hardware cuando hablamos de virus, troyanos, gusanos o rootkits instalados dentro de la empresa, ya sea a través de la red pública o por usuarios mal formados o malintencionados. Estos sistemas proporcionan a un supuesto atacante exterior control sobre nuestro software y hardware, pero deberían ser fácilmente detectables por el personal de seguridad informática.

ACCESO A DATOS TÉCNICOS DE LA RED Y DEL HARDWARE

Aquí tenemos un punto verdaderamente importante dentro de la seguridad física. Hay que ser muy claros en este punto: Nadie que no sea parte del personal de administración de la red y del hardware debe tener acceso a los datos técnicos de la red y del hardware. Si alguien necesita acceso puntual a algún dato se investigará si realmente necesita ese acceso y se concederá el acceso en base a cada petición y con todas las reservas posibles.

Conocer los datos técnicos de la red y del hardware de un sistema proporciona a un supuesto atacante dos facilidades muy apreciadas por estos: La primera es la facilidad que el conocimiento del hardware y la estructura de la red proporciona para realizar ataques informáticos de todo tipo. La segunda es la posibilidad de usar estos datos para usarlos en ataques de Hacking Social, que son tan peligrosos como los ataques informáticos.

Para protegernos de este tipo de ataques debemos mantener la estructura de la red y del hardware (incluido marcas, software instalado, direcciones IP, MACs, etc) secretas o al menos bajo un control de acceso estricto. Uno de los primeros pasos que realiza siempre un hacker antes de atacar un sistema es estudiar la estructura de la red y de las máquinas que la componen. Si ya tiene estos datos tiene la mitad del trabajo hecho, y nosotros la mitad del sistema hackeado... Deberemos por tanto mantener los datos técnicos en armarios a tal efecto, y deberá pedirse permiso al personal de administración de red para acceder a ellos, proporcionando únicamente los datos imprescindibles y apuntando siempre quien ha solicitado los datos y para que. Un buen control de estos datos redundará en una mayor seguridad de todo el sistema.

Por parte de los encargados de la seguridad informática deberán considerar cualquier intento de análisis remoto de la estructura de la red o de las máquinas como un intento de intrusión (no hablamos aquí de un simple escaneo de puertos, por supuesto, sino de ataques más sofisticados de recopilación de datos) y por tanto deberán comunicarlo a quien consideren necesario.

Otro peligro son los ataques de hacking social. Un intruso que ha obtenido datos técnicos muy concretos sobre la red de la empresa y sobre el hardware y los ordenadores de la empresa puede hacerse pasar por una persona del servicio técnico de cualquiera de las marcas con las que trabajamos o por personal de otro departamento, proporcionando estos datos a una persona del personal de administración o al usuario final puede convencerlo para que le proporcione otros datos, como claves de acceso o datos que puedan llevarle a conseguir un acceso remoto a nuestros sistemas. El hacking social debe ser considerado como una de las mayores amenazas para la seguridad de los sistemas hoy en día y el mejor arma que tiene un hacker social son los datos, sobre todo si se trata de datos técnicos que se suponen secretos o únicamente conocidos por el personal de la empresa.

VERIFICACIÓN DE LA CAPA DE ENLACE DE DATOS

El nivel de enlace de datos o capa de enlace de datos es la segunda capa del modelo OSI, el cual es responsable de la transferencia fiable de información a través de un circuito de transmisión de datos. Recibe peticiones de la capa de red y utiliza los servicios de la capa física.

El objetivo de la capa de enlace es conseguir que la información fluya, libre de errores, entre dos máquinas que estén conectadas directamente (servicio orientado a conexión).

Para lograr este objetivo tiene que montar bloques de información (llamados tramas en esta capa), dotarles de una dirección de capa de enlace, gestionar la detección o corrección de errores, y ocuparse del control de flujo entre equipos (para evitar que un equipo más rápido desborde a uno más lento).

Cuando el medio de comunicación está compartido entre más de dos equipos es necesario arbitrar el uso del mismo. Esta tarea se realiza en la subcapa de control de acceso al medio.

Dentro del grupo de normas IEEE 802, la subcapa de enlace lógico se recoge en la norma IEEE 802.2 y es común para todos los demás tipos de redes (Ethernet o IEEE 802.3, IEEE 802.11 o Wi-Fi, IEEE 802.16 o WiMAX, etc.); todas ellas especifican un subcapa de acceso al medio así como una capa física distinta.

Otro tipo de protocolos de la capa de enlace serían PPP (Point to point protocol o protocolo punto a punto), HDLC (High level data link control o protocolo de enlace de alto nivel), por citar dos.

En la práctica la subcapa de acceso al medio suele formar parte de la propia tarjeta de comunicaciones, mientras que el subcapa de enlace lógico estaría en el programa adaptador de la tarjeta

SOFTWARE DE DIAGNÓSTICO

Un software de diagnóstico es aquel que nos permitirá acceder a una cantidad importante de información para equipos PC y debería contar con las siguientes características:

Soporte para multiprocesador - Diagnósticos de procesadores con tecnología 3D Now! -Detección de dispositivos PCI.

Debería mostrar información detallada sobre nuestro equipo:

• CPU, FPU y RAM (que soporte SIMM, DIMM, SDRAM, DDR y RIMM)• Placa de video• Puertos COM y LPT• Disketeras• Discos duros• CDROMs. Etc….

Capa de Red

La Capa de Red provee principalmente los servicios de envío, enrutamiento (routing) y control de congestionamiento de los datos (paquetes de datos) de un nodo a otro en la red, esta es la capa más inferior en cuanto a manejo de transmisiones punto a punto.El propósito de esta capa es el de formar una interfase entre los usuarios de una máquina y la red, esto es, la red es controlada por esta capa y las 2 primeras.Los servicios que se proveen deberán ser independientes de la tecnologia de soporte.El diseño de la capa no debe evitar el conectar dos redes con diferentes tecnologias.La capa de Transporte debe de estar protegida del número, tipo y las diferentes topologias que se utilizen en la subred.Todo lo que a esta capa le interesa es un camino de comunicación y no la forma en que este se construye.Se necesita presentar un esquema de direccionamiento para direcciones de la red.

Interacción con la capa de Transporte y la capa de Datos

La interacción entre la capa de Transporte y la capa de Red está dada en base al servicio que se da a la capa de transporte.Este servicio se basa en una serie de primitivas.La comunicación entre estas capas se da de la siguiente manera, el modulo de TCP (capa de Transporte) llamara al modulo de IP (capa de red) para que tome un segmento (incluyendo en este el encabezado del TCP y los datos) como la porción de un paquete de datos, proveerá también la dirección fuente y destino así como otros parámetros en el encabezado del TCP. El modulo de Internet (IP) creara después una serie de paquetes de datos y llamará al interfase de red local para que transmita los paquetes. (Siendo este punto final la forma en que la capa de Red interactúa con la capa de Datos). El enrutamiento (routing) de la información que es pasada a la capa de Datos es controlado por la capa de Red para establecer una ruta transparente entre la fuente y el destino. Teniendo definido el protocolo de interacción entre estas capas, es necesario establecer el protocolo IP el cual agrega un encabezado al segmento pasado por la capa de transporte (TCP).

PING

el ping es una forma de comprobar cuanto tiempo tarda en responder un servidor en este casoconsiste en enviar un paquete de datos a una direccion IP, si ésta está configurada para retornar pings envia otro paquete, cuando llega el programa determina el tiempo transcurrido, y por lo general te lo muestra en microsegundos, mientras mas alto sea ese numero mas lenta es la comunicacion, por eso a mas bajo el valor del ping mas rapido es en linea, aunque obviamente tambien influye el ancho de banda de subida que tengas, si tienes banda ancha incluso la subida puede ser lenta para algunos juegos, por eso es recomendable cerrar programas p2p como el ares emule utorrent y demas.

COMANDOS DE GESTIÓN DE RED

Los comandos de red sirven para detectar el funcionamiento de una red de árealocal e Internet con respecto a la información que se transmite, los ejecutamosdesde la consola de comandos(Inicio->Ejecutar y luego escribimso cmd y dmaos enter)

Ping: Nosinforma del estado de un host. Es necesario permitir paquetes ICMP para su funcionamiento.

• Ping -t: se hace ping hasta que que pulsemos Ctrl+C para detener los envíos.

• Ping -a: devuelve el nombre del host.• Ping -l: establece el tamaño del buffer. Por defecto el valor es 32.• Ping -f: impide que se fragmenten los paquetes.

• Ping -n (valor): realiza la prueba de ping durante un determinado numero deocasiones.

• Ping -i TTL: permite cambiar el valor del TTL. TTL seria sustituido por el nuevo valor.

• Ping -r (nº de saltos): indica los host por los que pasa nuestro ping.(máximo 9)

NETSTAT:

Muestra todas las conexiones activas en el equipo.

• Netstat -a: nos muestra todas las conexiones y puertos.• Netstat -e: muestras las estadísticas Ethernet• Netstat -n muestra direcciones y puertos en forma de numero.• Netstat -o: muestra que programa esta asociado a la conexión activa• Netstat - p (protocolo): permite especificar que protocolo se desea

ver.TCP/UDP• Netstat -s: muestra estadísticas clasificas por protocolo.

CUARTO DE TELECOMUNICACIONES

Área exclusiva dentro de un edificio para el equipo de telecomunicaciones

• Su función principal es la terminación del cableado horizontal y vertical

• Todas las conexiones entre los cables horizontales y verticales deben ser “crossconnects” ( Conexión Cruzada )

• Las conexiones de los cables de equipo al cableado horizontal o vertical pueden ser interconexiones o conexiones cruzadas.

• Deben ser diseñados de acuerdo con los TIA/EIA-569 (Para conocer más de los estándares visite www.tiaonline.org)

ORGANIZACIÓN DE CUARTOS DE EQUIPOS TELECOMUNICACIONES

El cuarto de equipos es un espacio centralizado para los equipos de telecomunicaciones (Ej. PBX, Equipos de Cómputo, Switch), que sirven a los ocupantes del edificio. Este cuarto, únicamente debe guardar equipos directamente relacionados con el sistema de telecomunicaciones y sus sistemas de soporte. La norma que estandariza este subsistema es la EIA/TIA 569.

Se deben tener en cuenta las siguientes consideraciones al momento de diseñar el cuarto de equipos:

• Selección del Sitio

Cuando se seleccione el cuarto de equipos se deben evitar sitios que estén restringidos por componentes del edificio que limiten la expansión tales como: elevadores, escaleras, etc. El cuarto debe tener accesibilidad para la entrada de grandes equipos y el acceso a este cuarto debe ser restringido a personal únicamente autorizado. La capacidad de resistencia del piso debe ser tal que soporte la carga distribuida y concentrada de los equipos instalados. La carga distribuida debe ser mayor a 12.0 kpa (250 lbf/ft2) y la carga concentrada debe ser mayor a 4.4 kN (1000 lbf) sobre el área de mayor concentración de equipos.

El cuarto de equipos no debe estar localizado debajo de niveles de agua a menos que medidas preventivas se hayan tomado en contra de la infiltración de agua. Un drenaje debe ser colocado en el cuarto en caso de que exista el ingreso de agua. El cuarto de equipos debe tener un acceso directo al HVAC (Heating, Ventilating and Air-Conditioning System) El cuarto debe estar localizado lejos de fuentes de interferencias electromagnéticas, a una distancia que reduzca la interferencia a 3.0 V/m a través del espectro de frecuencia. Se debe tener especial atención con Transformadores eléctricos, Motores, Generadores, Equipos de Rayos X, Radios o Radares de Transmisión. Es deseable colocar el cuarto de equipos cerca de la ruta del Backbone Principal.

• Tamaño

El cuarto de equipos debe tener un tamaño suficiente para satisfacer los requerimientos de los equipos. Para definir el tamaño debe tener en cuenta tanto los requerimientos actuales, como los proyectos futuros.

2. REDES INALAMBRICAS.

Una de las tecnologías más prometedoras y discutidas en esta década es la de poder comunicar computadoras mediante tecnología inalámbrica. La conexión de computadoras mediante Ondas de Radio o Luz Infrarroja, actualmente está siendo ampliamente investigada. Las Redes Inalámbricas facilitan la operación en lugares donde la computadora no puede permanecer en un solo lugar, como en almacenes o en oficinas que se encuentren en varios pisos.

También es útil para hacer posibles sistemas basados en plumas. Pero la realidad es que esta tecnología está todavía en pañales y se deben de resolver varios obstáculos técnicos y de regulación antes de que las redes inalámbricas sean utilizadas de una manera general en los sistemas de cómputo de la actualidad.

No se espera que las redes inalámbricas lleguen a remplazar a las redes cableadas. Estas ofrecen velocidades de transmisión mayores que las logradas con la tecnología inalámbrica. Mientras que las redes inalámbricas actuales ofrecen velocidades de 2 Mbps, las redes cableadas ofrecen velocidades de 10 Mbps y se espera que alcancen velocidades de hasta 100 Mbps. Los sistemas de Cable de Fibra Óptica logran velocidades aún mayores, y pensando futuristamente se espera que las redes inalámbricas alcancen velocidades de solo 10 Mbps.

Sin embargo se pueden mezclar las redes cableadas y las inalámbricas, y de esta manera generar una "Red Híbrida" y poder resolver los últimos metros hacia la estación. Se puede considerar que el sistema cableado sea la parte principal y la inalámbrica le proporcione movilidad adicional al equipo y el operador se pueda desplazar con facilidad dentro de un almacén o una oficina. Existen dos amplias categorías de Redes Inalámbricas:

1. De Larga Distancia.- Estas son utilizadas para transmitir la información en espacios que pueden variar desde una misma ciudad o hasta varios países circunvecinos (mejor conocido como Redes de Area Metropolitana MAN); sus velocidades de transmisión son relativamente bajas, de 4.8 a 19.2 Kbps.

1. De Corta Distancia.- Estas son utilizadas principalmente en redes corporativas cuyas oficinas se encuentran en uno o varios edificios que no se encuentran muy retirados entre si, con velocidades del orden de 280 Kbps hasta los 2 Mbps.

• Existen dos tipos de redes de larga distancia: Redes de Conmutación de Paquetes (públicas y privadas) y Redes Telefónicas Celulares. Estas últimas son un medio para transmitir información de alto precio. Debido a que los módems celulares actualmente son más caros y delicados que los convencionales, ya que requieren circuiteria especial, que permite mantener la pérdida de señal cuando el circuito se alterna entre una célula y otra. Esta pérdida de señal no es problema para la comunicación de voz debido a que el retraso en la conmutación dura unos cuantos cientos de milisegundos, lo cual no se nota, pero en la transmisión de información puede hacer estragos. Otras desventajas de la transmisión celular son:

o

La carga de los teléfonos se termina fácilmente.

La transmisión celular se intercepta fácilmente (factor importante en lo relacionado con la seguridad).

Las velocidades de transmisión son bajas.

• Todas estas desventajas hacen que la comunicación celular se utilice poco, o únicamente para archivos muy pequeños como cartas, planos, etc.. Pero se espera que con los avances en la compresión de datos, seguridad y algoritmos de verificación de errores se permita que las redes celulares sean una opción redituable en algunas situaciones.

• La otra opción que existe en redes de larga distancia son las denominadas: Red Pública De Conmutación De Paquetes Por Radio. Estas redes no tienen problemas de pérdida de señal debido a que su arquitectura está diseñada para soportar paquetes de datos en lugar de comunicaciones de voz. Las redes privadas de conmutación de paquetes utilizan la misma tecnología que las públicas, pero bajo bandas de radio frecuencia restringida por la propia organización de sus sistemas de cómputo.

TIPOS DE REDES

• Existen distintas clases de redes de computadoras segun su estructura, tamaño, tipo de transmision y modo de trasferencia de datos que soportan.Por tamaño y extencion

• REDES LAN las llamadas de area local (local area network) son aquellas de abarcan un radio desde 10 metros hasta un kilometro.

• Son las mas frecuentes, y pueden encontrarse en casas particulares, escuelas oficinas, cibercafes, etc.su tamaño es restringido, y sus velocidades tipicas de transmicion van de 10 a 100 mbps.

• REDES MAN cuando el tamaño es superior a una red LAN, se habla de redes man (metropolitan area network) que abarcan la extencion de una ciudad. estas redes son usadas por empresas que poseen distintas oficinas en una ciudad(por ejemplo los bancos) y necesitan interconectar varias sucursales. abarcan un area de 10 kilometros como maximo.

• REDES WAN las redes de area amplia (wide area network)tiene un tamaño superior al de una MAN, y estan formadas por un conjunto de host o de redes LAN conectadas por una subred. esta subred esta integrada por una serie de lineas de transmicion interconectadas por medio de routers, que dirigen paquetes de informacion hacia la LAN o host adecuado. su tamaño puede osilar entre 100 y 1000 kilometros.

• REDES INTERNET UNA "INTERNET" es una red de redes vinculadas mediante rutiadores gateways.

Un gateway o pasarela es una computadora especial que puede traducir entre sistemas con diferentes formatos de datos. su tamaño puede cubrir desde 10000 kilometros en adelante y su ejemplo mas claro es la conocida internet la red de redes mundial.

• POR TECNOLOGIA DE TRANSMICION

• REDES DE BROADCAST son aquellas en las que la transmicion de datos se efectua por un solo canal de comunicacion, compartido por todas las maquinas de la red. cualquier paquetes de datos enviado por cualquier maquina es recibido por todas las de la red.

• REDES POINT TO POINT aquellas redes en las que existen muchas conexiones entre parejas de maquinas individuales. para poder transmitir los paquetes desde una maquina a otra, aveces es necesario que pasen estos paquetes por equipos intermedios, en cuyo caso es un trazado de rutas mediante dispositivos routers.

• POR TIPO DE TRANSFERENCIA

REDES DE TRANSMICION SIMPLE son aquellas redes en las que los datos solo pueden viajar en un sentido.

• REDES HALFT-DUPLEX los datos pueden viajar en ambos sentidos, pero solo uno de ellos en un momento dado, es decir, unicamente puede haber transferencia en un sentido a la vez.

• REDES FULL-DUPLEX a quellas en la que los datos pueden viajar en ambos sentidos al mismo tiempo.

• SEGUN SU SOPORTE

pueden ser cableadas o inalambricas. las redes cableadas utilizan diferentes tipos de cable; utp, coaxial y fibra optica, entre las cuales el primero es el mas habitual.

las inalambricas (o wireless) no tiene cables,estan basadas en la transmicion de datos mediante ondas de radio microondas, satelites o infrarojos, la tecnologia que usa cada una es diferente. las infrarojas y las laser no producen interferencias en las ondas de radio, pero los equipos deben tener contacto visual, es decir, estar situados en linea recta. las que se basan en microondas usan el espacio electromagnetico entorno a los 19 ghz, con lo cual logran un alcance de 300 metros, con velocidades cercanas a los 15 mbps.

Aquellas que utilizan ondas de radio y los satelites trabajan en la banda de 902 a 928 mhz, al igual que los telefonos moviles, los inalambricos y otros dispositivos domesticos, por lo que se exponen a una gran cantidad de interferencias.

TOPOLOGIAS INALAMBRICAS

1. Topología de una WLAN Se define como topología a la disposición lógica o a la disposición física de una red. Nos centraremos en la lógica (cómo se comunican los dispositivos). Tres tipos de Topología WLAN: - Ad-hoc - Infraestructura - Mesh

2. Topología Ad-hoc Los dispositivos establecen enlaces punto a punto, y se comunican a través de esos enlaces con dispositivos que se encuentren en su rango.

3. Topología en Infraestructura Un dispositivo se encarga de centralizar las comunicaciones: se denomina Punto de Acceso ( AP o Access Point).

4. Topología en Infraestructura Los dispositivos cliente se conectan a los AP en lo que se denominan células, y pueden intercambiar información con dispositivos conectados a su mismo AP (siempre a través de éste). Por lo tanto, no tienen que encontrase en el rango de alcance para poder comunicarse. Al ser una comunicación centralizada, si se cae el AP ninguno de los dispositivos podrá comunicarse entre sí.

5. Infraestructura- Comunicación ¿Cómo se comunican dos dispositivos a través de un AP? Dispositivo A Dispositivo B

6. Topología Mesh Es el siguiente paso en las topologías inalámbricas. Se descentraliza la comunicación y los dispositivos que intervienen en la comunicación pueden compartir “recursos”. Si se cae un nodo, no afecta a toda la red.

7. Seguridad - Introducción La mayoría de los problemas de seguridad en WLAN son debidos al medio de transmisión utilizado, el aire, que es de fácil acceso para los atacantes. Por ello, hay que establecer unos medios para asegurar la privacidad de nuestros datos. - Medios Físicos - Medios Lógicos (SW)

8. Seguridad Lógica o Principalmente son técnicas de cifrado e integridad de la

información y técnicas de Autenticación/ Autorización/ Accounting (AAA). Estos dos tipos de técnicas pueden complementarse.

o Primeros pasos para hacer más segura una WLAN: o No emitir públicamente la SSID de la WLAN, para no permitir su

conexión al AP. Problema: Se puede obtener fácilmente escuchando tráfico

de la WLAN. o Definición de un listado de los dispositivos que pueden acceder o

no, mediante la dirección MAC del dispositivo. Problema : se puede falsear la dirección MAC de un

dispositivo 9. Seguridad - Introducción Cifrado e integridad de la información. Se

encargan de mantener la privacidad de nuestros datos, y de evitar posibles suplantaciones de personalidad en la comunicación. El cifrado se basa en claves compartidas previamente (Pre-Shared Key) o que se asignan de forma dinámica. - WEP (Wired Equivalent Privacy) - WPA (Wi-Fi Protected Access) - WPA2.

ONDA ELECTROMAGNÉTICA

Es la forma de propagación de la radiación electromagnética a través del espacio. Y sus aspectos teóricos están relacionados con la solución en forma de onda que admiten las ecuaciones de Maxwell. A diferencia de las ondas mecánicas, las ondas electromagnéticas no necesitan de un medio material para propagarse; es decir, pueden desplazarse por el vacío.

Las ondas electromagnéticas son transversales; las direcciones de los campos eléctrico y magnético son perpendiculares a la de propagación.

TOPOLOGIA

Topología de redes: La topología de una red, es el patrón de interconexión

entre nodos y servidor, existe tanto la topología lógica (la forma en que es

regulado el flujo de los datos),como la topología física ( la distribución física del

cableado de la red).

Las topologías físicas de red más comunes son:

• Estrella.

• Bus lineal

• Anillo.

Topología de estrella: Red de comunicaciones en que la que todas las

terminales están conectadas a un núcleo central, si una de las computadoras

no funciona, esto no afecta a las demás, siempre y cuando el "servidor" no esté

caído.

Topología Bus lineal: Todas las computadoras están conectadas a un cable

central, llamado el "bus" o "backbone

". Las redes de bus lineal son de

las más fáciles de instalar y son relativamente baratas.

Topología de anillo: Todas las computadoras o nodos están conectados el uno

con el otro, formando una cadena o círculo cerrado.

Topología de árbol: La topología de árbol combina características de la

topología de estrella con la BUS. Consiste en un conjunto de subredes estrella

conectadas a un BUS. Esta topología facilita el crecimiento de la red.

Esta estructura de red se utiliza en aplicaciones de televisión por cable, sobre la cual podrían basarse las futuras estructuras de redes que alcancen los hogares. También se ha utilizado en aplicaciones de redes locales analógicas de banda ancha.

UNIDADES DE FRECUENCIA

BIT

Digito binario. Es el elemento más pequeño de información del ordenador. Un bit es un único dígito en un número binario (0 o 1). Los grupos de bits forman unidades más grandes de datos en los sistemas de ordenador - siendo el byte (ocho bits) el más conocido de éstos.

BYTE

Se describe como la unidad básica de almacenamiento de información, generalmente equivalente a ocho bits, pero el tamaño del byte depende del código de información en el que se defina.

8 bits. En español, a veces se le llama octeto.

Cada byte puede representar, por ejemplo, una letra.

KILOBYTE

Es una unidad de medida utilizada en informática que equivale a 1.024 bytes. Se trata de una unidad de medida común para la capacidad de memoria o almacenamiento de las microcomputadoras.

MEGABYTE

El Megabyte (MB) es una unidad de medida de cantidad de datos informáticos. Es un múltiplo binario del byte, que equivale a 220 (1 048 576) bytes, traducido a efectos prácticos como 106 (1 000 000) bytes.

GIGABYTE

Un Gigabyte Múltiplo del byte, de símbolo GB, es la unidad de medida más utilizada en los discos duros También es una unidad de almacenamiento. Debemos saber que un byte es un caracter cualquiera) Un gigabyte, en sentido amplio, son 1.000.000.000 bytes (mil millones de bytes), ó también, cambiando de unidad, 1.000 megas (MG o megabytes). Pero con exactitud, 1 GB son 1.073.741.824 bytes ó 1.024 MB. El Gigabyte también se conoce como "Giga".

TERABYTE

Es la unidad de medida de la capacidad de memoria y de dispositivos de almacenamiento informático (disquete, disco duro, CD-ROM, etc.). Una unidad de almacenamiento tan desorbitada que resulta imposible imaginársela, ya que coincide con algo más de un trillón de bytes (un uno seguido de dieciocho ceros). El Terabyte es una unidad de medida en informática y su símbolo es el TB. Es equivalente a 240 bytes.

Se destaca que todavía no se han desarrollado memorias de esta capacidad aunque sí dispositivos de almacenamiento.

CONVERSION ENTRE LAS UNIDADES DE INFORMACION.

Se suelen utilizar con nombre propio determinados conjuntos de dígitos en binario:

• Cuatro bits se denominan cuarteto (ejemplo: 1001).• Ocho bits octeto o byte (Ejemplo: 10010110).• Al conjunto de 1 024 bytes se le llama Kilobyte o simplemente K.• 1.048.576 bytes equivalen a un Megabyte.• Mil millones de bytes equivalen a un Gigabyte.• 1024 Kilobytes forman el llamado Megabyte.• 1 024 Megabytes se denominan Gigabyte.

Por tanto podemos establecer las siguientes igualdades relacionadas al dígito binario (bit):

• 1 Cuarteto = 4 bits.• 1 Byte = 8 bits.• 1 Kilobyte = 1 024 * 8 bits = 8192 bits.• 1 Megabyte = 1 024 * 1 024 * 8 = 8388608 bits.• 1 Gigabyte = 1024 * 1024 * 1024 * 8 = 8589934592 bits.

Hertzio (hz).

El Hertzio es la unidad de medida de la frecuencia equivalente a 1/segundo. Utilizado principalmente para los refrescos de pantalla de los monitores, en los que se considera 60 Hz (redibujar 60 veces la pantalla cada segundo) como el mínimo aconsejable.

Hoy en día los avances en comunicaciones e informática han hecho que se utilicen más sus múltiplos: kHz, MHz, GHz.

Megaherzios (Mhz).

Megaherzios, es una medida de frecuencia (número de veces que ocurre algo en un segundo). En el caso de los ordenadores, un equipo a 200 MHz será capaz de dar 200 millones de pasos por segundo. En la velocidad real de trabajo no sólo influyen los MHz, sino también la arquitectura del procesador (y el resto de los componentes); por ejemplo, dentro de la serie X86, un Pentium a 60 MHz era cerca del doble de rápido que un 486 a 66 MHz.

NANOSEGUNDOS

Es una Milmillonésima parte de un segundo. Es decir, en un segundo hay 1.000.000.000 de nanosegundos. Se trata de una escala de tiempo muy pequeña, pero bastante común en los ordenadores, cuya frecuencia de proceso es de unos cientos de Megahercios.

Decir que un procesador es de 500 Mhz, es lo mismo que decir que tiene 500.000.000 ciclos por segundo, o que tiene un ciclo cada 2 ns.

Milisegundos.

Unidad de tiempo, equivalente a una milésima parte de un segundo. (ms).

ESPECTRO ELECTROMAGNÉTICO

Se denomina espectro electromagnético a la distribución energética del conjunto de las ondas electromagnéticas. Referido a un objeto se denomina espectro electromagnético o simplemente espectro a la radiación electromagnética que emite (espectro de emisión) o absorbe (espectro de absorción) una sustancia. Dicha radiación sirve para identificar la sustancia de manera análoga a una huella dactilar. Los espectros se pueden observar mediante espectroscopios que, además de permitir observar el espectro, permiten realizar medidas sobre éste, como la longitud de onda, la frecuencia y la intensidad de la radiación.

Diagrama del espectro electromagnético, mostrando el tipo, longitud de onda con ejemplos, frecuencia y temperatura de emisión de cuerpo negro.

LA RADIACIÓN ELECTROMAGNÉTICA

Puede interaccionar consigo y con la materia, dando lugar a multitud de fenómenos como la reflexión, la refracción, la dispersión, la polarización de la luz...

Reflexión y refracción de la luz en la superficie de unión entre un vidrio con índice de refracción 1.5 y el aire con índice de refracción 1.0

Refracción de la luz a su paso por un prisma de vidrio. Dependiendo de la longitud de onda (color) del haz que incide desde la izquierda, el ángulo de refracción varía, es decir, se dispersa

Polarización de la luz a su paso por un polarizador. Dependiendo del giro del polarizador, se filtra uno de los componentes de la luz no polarizada que incide desde la derecha de la imagen

Pues bien, la difracción (de los rayos X) es el fenómeno físico a través del cual se manifiesta la interacción fundamental de los rayos X con los cristales (materia ordenada). Sin embargo, para poder describir el fenómeno, es recomendable introducir previamente algunos modelos físicos que, como todos los modelos, no explican totalmente la realidad, pues suponen una idealización de la misma, pero nos sirven para comprender el fenómeno.

EFECTO DOPPLER.

Es el aparente cambio de frecuencia de una onda producido por el movimiento relativo de la fuente respecto a su observador. Doppler propuso este efecto en 1842 en su tratado Über das farbige Licht der Doppelsterne und einige andere Gestirne des Himmels (Sobre el color de la luz en estrellas binarias y otros astros).

El científico neerlandés Christoph Hendrik Diederik Buys Ballot investigó esta hipótesis en 1845 para el caso de ondas sonoras y confirmó que el tono de un

sonido emitido por una fuente que se aproxima al observador es más agudo que si la fuente se aleja. Hippolyte Fizeau descubrió independientemente el mismo fenómeno en el caso de ondas electromagnéticas en 1848. En Francia este efecto se conoce como "efecto Doppler-Fizeau" y en los Países Bajos como el "efecto Doppler-Gestirne".

En el caso del espectro visible de la radiación electromagnética, si el objeto se aleja, su luz se desplaza a longitudes de onda más largas, desplazándose hacia el rojo. Si el objeto se acerca, su luz presenta una longitud de onda más corta, desplazándose hacia el azul. Esta desviación hacia el rojo o el azul es muy leve incluso para velocidades elevadas, como las velocidades relativas entre estrellas o entre galaxias, y el ojo humano no puede captarlo, solamente medirlo indirectamente utilizando instrumentos de precisión como espectrómetros. Si el objeto emisor se moviera a fracciones significativas de la velocidad de la luz, cuando el cuerpo sí seria apreciable de forma directa la variación de longitud de onda.

ACOPLES DE IMPEDANCIA.

Acoplar la impedancia de una red a la impedancia de una línea de transmisión tiene dos ventajas principales. Primero la potencia incidente es entregada a la red. Segundo el generador es usualmente diseñado para trabajar con una impedancia de las líneas de transmisión. Si se hace de esta manera podemos conseguir un mejor comportamiento, la impedancia de carga no tiene parte reactiva la cual podría desviar la frecuencia del generador y el WSVR de la línea seria unitario o cercano ala unidad haciendo irrelevante la longitud de la línea (excepto por las perdidas) y las líneas que conecta el generador a la carga no seria resonante.

QUÉ ES DEMODULACIÓN

La demodulación es el proceso de recuperación de la señal moduladora de una señal modulada.En amplitud (MA) o modulada en frecuencia.(MF)El demodulador también es llamado detector. En el campo del análisis de vibración, a veces se encuentra el hecho que algunos componentes de la señal como 1x o la velocidad de rotación modularán otros componentes como las frecuencias de engranaje o tonos de rodamiento. Se puede usar un demodulador para detectar y recuperar esas señales moduladoras. También ver Modulación de Amplitud y Modulación de Frecuencia.

MULTIPLEXACIÓN

La multiplexación es la combinación de dos o más canales de información en Un solo medio de transmisión usando un dispositivo llamado multiplexor.

Modulación de una onda

Modulación onda portadora, típicamente una onda sinusoidal. Estas técnicas permiten un mejor aprovechamiento del canal de comunicación lo que posibilita transmitir más información en forma simultánea además de mejorar la resistencia contra posibles ruidos e interferencias.Básicamente, la modulación consiste en hacer que un parámetro de la onda portadora cambie de valor de acuerdo con las variaciones de la señal moduladora, que es la información que queremos transmitir.

Que es una onda sinusoidal

También llamada Sinusoidal. Se trata de una señal analógica, puesto que existen infinitos valores entre dos puntos cualesquiera del dominio. Así pues, podemos ver en la imagen que la onda describe una curva continua. De hecho, esta onda es la gráfica de la función matemática seno, que posee los siguientes atributos característicos:

En un triángulo rectángulo, el seno de un ángulo agudo a, que se designa por sen a, es igual a la longitud del cateto opuesto al ángulo dividida por la longitud de la hipotenusa.

El seno de un ángulo cualquiera se asigna mediante la circunferencia goniométrica. Es la ordenada del punto en que el segundo lado del ángulo la corta:

La función y = sen x describe la variación del seno de ángulos medidos en radianes. Es continua y periódica de periodo 2π (Recuérdese que en radianes, π representa 180°). Se denomina función sinusoidal.

IEEE 802.11

El estándar 'IEEE 802.11' define el uso de los dos niveles inferiores de la arquitectura OSI (capas física y de enlace de datos), especificando sus normas de funcionamiento en una WLAN. Los protocolos de la rama 802.x definen la tecnología de redes de área local y redes de área metropolitana.

802.11 legacy

La versión original del estándar IEEE (Instituto de Ingenieros Eléctricos y Electrónicos) 802.11 publicada en 1997 especifica dos velocidades de transmisión teóricas de 1 y 2 megabits por segundo (Mbit/s) que se transmiten por señales infrarrojas (IR). IR sigue siendo parte del estándar, si bien no hay implementaciones disponibles.

El estándar original también define el protocolo CSMA/CA (Múltiple acceso por detección de portadora evitando colisiones) como método de acceso. Una parte importante de la velocidad de transmisión teórica se utiliza en las necesidades de esta codificación para mejorar la calidad de la transmisión bajo condiciones ambientales diversas, lo cual se tradujo en dificultades de interoperabilidad entre equipos de diferentes marcas. Estas y otras debilidades fueron corregidas en el estándar 802.11b, que fue el primero de esta familia en alcanzar amplia aceptación entre los consumidores.

802.11a

La revisión 802.11a fue ratificada en 1999. El estándar 802.11a utiliza el mismo juego de protocolos de base que el estándar original, opera en la banda de 5 Ghz y utiliza 52 subportadoras orthogonal frequency-division multiplexing (OFDM) con una velocidad máxima de 54 Mbit/s, lo que lo hace un estándar práctico para redes inalámbricas con velocidades reales de aproximadamente 20 Mbit/s. La velocidad de datos se reduce a 48, 36, 24, 18, 12, 9 o 6 Mbit/s en caso necesario. 802.11a tiene 12 canales sin solapa, 8 para red inalámbrica y 4 para conexiones punto a punto. No puede interoperar con equipos del estándar 802.11b, excepto si se dispone de equipos que implementen ambos estándares.

Dado que la banda de 2,4 Ghz tiene gran uso (pues es la misma banda usada por los teléfonos inalámbricos y los hornos de microondas, entre otros aparatos), el utilizar la banda de 5 GHz representa una ventaja del estándar 802.11a, dado que se presentan menos interferencias. Sin embargo, la utilización de esta banda también tiene sus desventajas, dado que restringe el uso de los equipos 802.11a a únicamente puntos en línea de vista, con lo que se hace necesario la instalación de un mayor número de puntos de acceso; Esto significa también que los equipos que trabajan con este estándar no pueden penetrar tan lejos como los del estándar 802.11b dado que sus ondas son más fácilmente absorbidas.

802.11b

La revisión 802.11b del estándar original fue ratificada en 1999. 802.11b tiene una velocidad máxima de transmisión de 11 Mbps y utiliza el mismo método de acceso definido en el estándar original CSMA/CA. El estándar 802.11b funciona en la banda de 2,4 GHz. Debido al espacio ocupado por la codificación del protocolo CSMA/CA, en la práctica, la velocidad máxima de transmisión con este estándar es de aproximadamente 5,9 Mbits sobre TCP y 7,1 Mbit/s sobre UDP.

802.11c

Es menos usado que los primeros dos, pero por la implementación que este protocolo refleja. El protocolo ‘c’ es utilizado para la comunicación de dos redes distintas o de diferentes tipos, así como puede ser tanto conectar dos edificios distantes el uno con el otro, así como conectar dos redes de diferente tipo a través de una conexión inalámbrica. El protocolo ‘c’ es más utilizado diariamente, debido al costo que implica las largas distancias de instalación con fibra óptica, que aunque más fidedigna, resulta más costosa tanto en instrumentos monetarios como en tiempo de instalación.

"El estándar combinado 802.11c no ofrece ningún interés para el público general. Es solamente una versión modificada del estándar 802.1d que permite combinar el 802.1d con dispositivos compatibles 802.11 (en el nivel de enlace de datos capa 2 del modelo OSI)".

802.11d

Es un complemento del estándar 802.11 que está pensado para permitir el uso internacional de las redes 802.11 locales. Permite que distintos dispositivos intercambien información en rangos de frecuencia según lo que se permite en el país de origen del dispositivo.

802.11e

La especificación IEEE 802.11e ofrece un estándar inalámbrico que permite interoperar entre entornos públicos, de negocios y usuarios residenciales, con la capacidad añadida de resolver las necesidades de cada sector. A diferencia de otras iniciativas de conectividad sin cables, ésta puede considerarse como uno de los primeros estándares inalámbricos que permite trabajar en entornos domésticos y empresariales. La especificación añade, respecto de los estándares 802.11b y 802.11a, características QoS y de soporte multimedia, a la vez que mantiene compatibilidad con ellos. Estas prestaciones resultan fundamentales para las redes domésticas y para que los operadores y proveedores de servicios conformen ofertas avanzadas.

El documento que establece las directrices de QoS, aprobado el pasado mes de noviembre, define los primeros indicios sobre cómo será la especificación que aparecerá a finales de 2001. Incluye, asimismo, corrección de errores (FEC) y cubre las interfaces de adaptación de audio y vídeo con la finalidad de mejorar el control e integración en capas de aquellos mecanismos que se encarguen de gestionar redes de menor rango. El sistema de gestión centralizado integrado en QoS evita la colisión y cuellos de botella, mejorando la capacidad de entrega en tiempo crítico de las cargas. Estas directrices aún no han sido aprobadas. Con el estándar 802.11, la tecnología IEEE 802.11 soporta tráfico en tiempo real en todo tipo de entornos y situaciones. Las aplicaciones en tiempo real son ahora una realidad por las garantías de Calidad de Servicio (QoS) proporcionado por el 802.11e. El objetivo del nuevo estándar 802.11e es introducir nuevos mecanismos a nivel de capa MAC para soportar los servicios que requieren garantías de Calidad de Servicio. Para cumplir con su objetivo IEEE 802.11e introduce un nuevo elemento llamado Hybrid Coordination Function (HCF) con dos tipos de acceso:

• (EDCA) Enhanced Distributed Channel Access, equivalente a DCF.• (HCCA) HCF Controlled Access, equivalente a PCF.

En este nuevo estándar se definen cuatro categorías de acceso al medio (Ordenadas de menos a más prioritarias).

• Background (AC_BK)• Best Effort (AC_BE)• Video (AC_VI)• Voice (AC_VO)

Para conseguir la diferenciación del tráfico se definen diferentes tiempos de acceso al medio y diferentes tamaños de la ventana de contención para cada una de las categorías.

802.11f

Es una recomendación para proveedores de puntos de acceso que permite que los productos sean más compatibles. Utiliza el protocolo IAPP que le permite a un usuario itinerante cambiarse claramente de un punto de acceso a otro mientras está en movimiento sin importar qué marcas de puntos de acceso se usan en la infraestructura de la red. También se conoce a esta propiedad simplemente como itinerancia.

802.11g

En junio de 2003, se ratificó un tercer estándar de modulación: 802.11g. Que es la evolución del estándar 802.11b, Este utiliza la banda de 2,4 Ghz (al igual que el estándar 802.11b) pero opera a una velocidad teórica máxima de 54 Mbit/s, que en promedio es de 22,0 Mbit/s de velocidad real de transferencia, similar a la del estándar 802.11a. Es compatible con el estándar b y utiliza las mismas frecuencias.

Buena parte del proceso de diseño del estándar lo tomó el hacer compatibles los dos estándares. Sin embargo, en redes bajo el estándar g la presencia de nodos bajo el estándar b reduce significativamente la velocidad de transmisión.

Los equipos que trabajan bajo el estándar 802.11g llegaron al mercado muy rápidamente, incluso antes de su ratificación que fue dada aprox. el 20 de junio del 2003. Esto se debió en parte a que para construir equipos bajo este nuevo estándar se podían adaptar los ya diseñados para el estándar b.

Actualmente se venden equipos con esta especificación, con potencias de hasta medio vatio, que permite hacer comunicaciones de hasta 50 km con antenas parabólicas o equipos de radio apropiados.

Interacción de 802.11g y 802.11b.

802.11g tiene la ventaja de poder coexistir con los estándares 802.11a y 802.11b, esto debido a que puede operar con las Tecnologías RF DSSS y OFDM. Sin embargo, si se utiliza para implementar usuarios que trabajen con el estándar 802.11b, el rendimiento de la celda inalámbrica se verá afectado por ellos, permitiendo solo una velocidad de transmisión de 22 Mbps. Esta degradación se debe a que los clientes 802.11b no comprenden OFDM.

Suponiendo que se tiene un punto de acceso que trabaja con 802.11g, y actualmente se encuentran conectados un cliente con 802.11b y otro 802.11g, como el cliente 802.11b no comprende los mecanismos de envío de OFDM, el cual es utilizados por 802.11g, se presentarán colisiones, lo cual hará que la información sea reenviada, degradando aún más nuestro ancho de banda.

Suponiendo que el cliente 802.11b no se encuentra conectado actualmente, el Punto de acceso envía tramas que brindan información acerca del Punto de acceso y la celda inalámbrica. Sin el cliente 802.11b, en las tramas se verían la siguiente información:

NON_ERP present: no

Use Protection: no

ERP (Extended Rate Physical), esto hace referencia a dispositivos que utilizan tasas de transferencia de datos extendidos, en otras palabras, NON_ERP hace referencia a 802.11b. Si fueran ERP, soportarían las altas tasas de transferencia que soportan 802.11g.

Cuando un cliente 802.11b se asocia con el AP (Punto de acceso), éste último alerta al resto de la red acerca de la presencia de un cliente NON_ERP. Cambiando sus tramas de la siguiente forma:

NON_ERP present: yes

Use Protection: yes

Ahora que la celda inalámbrica sabe acerca del cliente 802.11b, la forma en la que se envía la información dentro de la celda cambia. Ahora cuando un cliente 802.11g quiere enviar una trama, debe advertir primero al cliente 802.11b enviándole un mensaje RTS (Request to Send) a una velocidad de 802.11b para que el cliente 802.11b pueda comprenderlo. El mensaje RTS es enviado en forma de unicast. El receptor 802.11b responde con un mensaje CTS (Clear to Send).

Ahora que el canal está libre para enviar, el cliente 802.11g realiza el envío de su información a velocidades según su estándar. El cliente 802.11b percibe la información enviada por el cliente 802.11g como ruido.

La intervención de un cliente 802.11b en una red de tipo 802.11g, no se limita solamente a la celda del Punto de acceso en la que se encuentra conectado, si se encuentra trabajando en un ambiente con múltiples AP en Roaming, los AP en los que no se encuentra conectado el cliente 802.11b se transmitirán entre sí tramas con la siguiente información:

NON_ERP present: no

Use Protection: yes

La trama anterior les dice que hay un cliente NON_ERP conectado en uno de los AP, sin embargo, al tenerse habilitado Roaming, es posible que éste cliente 802.11b se conecte en alguno de ellos en cualquier momento, por lo cual deben utilizar los mecanismo de seguridad en toda la red inalámbrica, degradando de esta forma el rendimiento de toda la celda. Es por esto que los clientes deben conectarse preferentemente utilizando el estándar 802.11g. Wi-Fi (802.11b / g)

802.11h

La especificación 802.11h es una modificación sobre el estándar 802.11 para WLAN desarrollado por el grupo de trabajo 11 del comité de estándares LAN/MAN del IEEE (IEEE 802) y que se hizo público en octubre de 2003. 802.11h intenta resolver problemas derivados de la coexistencia de las redes 802.11 con sistemas de Radar o Satélite.

El desarrollo del 802.11h sigue unas recomendaciones hechas por la ITU que fueron motivadas principalmente a raíz de los requerimientos que la Oficina Europea de Radiocomunicaciones (ERO) estimó convenientes para minimizar el impacto de abrir la banda de 5 GHz, utilizada generalmente por sistemas militares, a aplicaciones ISM (ECC/DEC/(04)08).

Con el fin de respetar estos requerimientos, 802.11h proporciona a las redes 802.11a la capacidad de gestionar dinámicamente tanto la frecuencia, como la potencia de transmisión.

Selección Dinámica de Frecuencias y Control de Potencia del Transmisor

DFS (Dynamic Frequency Selection) es una funcionalidad requerida por las WLAN que operan en la banda de 5GHz con el fin de evitar interferencias co-canal con sistemas de radar y para asegurar una utilización uniforme de los canales disponibles.

TPC (Transmitter Power Control) es una funcionalidad requerida por las WLAN que operan en la banda de 5GHz para asegurar que se respetan las limitaciones de potencia transmitida que puede haber para diferentes canales en una determinada región, de manera que se minimiza la interferencia con sistemas de satélite.

802.11i

Está dirigido a batir la vulnerabilidad actual en la seguridad para protocolos de autenticación y de codificación. El estándar abarca los protocolos 802.1x, TKIP (Protocolo de Claves Integra – Seguras – Temporales), y AES (Estándar de Cifrado Avanzado). Se implementa en WPA2.

802.11j

Es equivalente al 802.11h, en la regulación Japonesa

802.11k

Permite a los conmutadores y puntos de acceso inalámbricos calcular y valorar los recursos de radiofrecuencia de los clientes de una red WLAN, mejorando así su gestión. Está diseñado para ser implementado en software, para soportarlo el equipamiento WLAN sólo requiere ser actualizado. Y, como es lógico, para que el estándar sea efectivo, han de ser compatibles tanto los clientes (adaptadores y tarjetas WLAN) como la infraestructura (puntos de acceso y conmutadores WLAN).

802.11n

En enero de 2004, el IEEE anunció la formación de un grupo de trabajo 802.11 (Tgn) para desarrollar una nueva revisión del estándar 802.11. La velocidad real de transmisión podría llegar a los 600 Mbps (lo que significa que las velocidades teóricas de transmisión serían aún mayores), y debería ser hasta 10 veces más rápida que una red bajo los estándares 802.11a y 802.11g, y unas 40 veces más rápida que una red bajo el estándar 802.11b. También se espera que el alcance de operación de las redes sea mayor con este nuevo estándar gracias a la tecnología MIMO Multiple Input – Multiple Output, que permite utilizar varios canales a la vez para enviar y recibir datos gracias a la incorporación de varias antenas (3). Existen también otras propuestas alternativas que podrán ser consideradas. El estándar ya está redactado, y se viene implantando desde 2008.

A principios de 2007 se aprobó el segundo boceto del estándar. Anteriormente ya había dispositivos adelantados al protocolo y que ofrecían de forma no oficial este estándar (con la promesa de actualizaciones para cumplir el estándar cuando el definitivo estuviera implantado). Ha sufrido una serie de retrasos y el último lo lleva hasta noviembre de 2009. Habiéndose aprobado en enero de 2009 el proyecto 7.0 y que va por buen camino para cumplir las fechas señaladas.1 A diferencia de las otras versiones de Wi-Fi, 802.11n puede trabajar en dos bandas de frecuencias: 2,4 GHz (la que emplean 802.11b y 802.11g) y 5 GHz (la que usa 802.11a). Gracias a ello, 802.11n es compatible con dispositivos basados en todas las ediciones anteriores de Wi-Fi. Además, es útil que trabaje en la banda de 5 GHz, ya que está menos congestionada y en 802.11n permite alcanzar un mayor rendimiento.

El estándar 802.11n fue ratificado por la organización IEEE el 11 de septiembre de 2009 con una velocidad de 600 Mbps en capa física.2 3

En la actualidad la mayoría de productos son de la especificación b o g , sin embargo ya se ha ratificado el estándar 802.11n que sube el límite teórico hasta los 600 Mbps. Actualmente ya existen varios productos que cumplen el estándar N con un máximo de 300 Mbps (80-100 estables).

El estándar 802.11n hace uso simultáneo de ambas bandas, 2,4 Ghz y 5,4 Ghz. Las redes que trabajan bajo los estándares 802.11b y 802.11g, tras la reciente ratificación del estándar, se empiezan a fabricar de forma masiva y es objeto de promociones por parte de los distintos ISP, de forma que la masificación de la citada tecnología parece estar en camino. Todas las versiones de 802.11xx, aportan la ventaja de ser compatibles entre sí, de forma que el usuario no necesitará nada más que su adaptador wifi integrado, para poder conectarse a la red.

Sin duda esta es la principal ventaja que diferencia wifi de otras tecnologías propietarias, como LTE, UMTS y Wimax, las tres tecnologías mencionadas, únicamente están accesibles a los usuarios mediante la suscripción a los servicios de un operador que está autorizado para uso de espectro radioeléctrico, mediante concesión de ámbito nacional.

La mayor parte de los fabricantes ya incorpora a sus líneas de producción equipos wifi 802.11n, por este motivo la oferta ADSL, ya suele venir acompañada de wifi 802.11n, como novedad en el mercado de usuario doméstico.

Se conoce que el futuro estándar sustituto de 802.11n será 802.11ac con tasas de transferencia superiores a 1 Gb/s.4

802.11p

Este estándar opera en el espectro de frecuencias de 5,9 GHz y de 6,2 GHz, especialmente indicado para automóviles. Será la base de las comunicaciones dedicadas de corto alcance (DSRC) en Norteamérica.

802.11r

También se conoce como Fast Basic Service Set Transition, y su principal característica es permitir a la red que establezca los protocolos de seguridad que identifican a un dispositivo en el nuevo punto de acceso antes de que abandone el actual y se pase a él. Esta función, que una vez enunciada parece obvia e indispensable en un sistema de datos inalámbricos, permite que la transición entre nodos demore menos de 50 milisegundos. Un lapso de tiempo de esa magnitud es lo suficientemente corto como para mantener una comunicación vía VoIP sin que haya cortes perceptibles.

802.11s

Define la interoperabilidad de fabricantes en cuanto a protocolos Mesh (son aquellas redes en las que se mezclan las dos topologías de las redes inalámbricas, la topología Ad-hoc y la topología infraestructura.). Bien es sabido que no existe un estándar, y que por eso cada fabricante tiene sus propios mecanismos de generación de mallas.

802.11v

IEEE 802.11v servirá para permitir la configuración remota de los dispositivos cliente. Esto permitirá una gestión de las estaciones de forma centralizada (similar a una red celular) o distribuida, a través de un mecanismo de capa 2. Esto incluye, por ejemplo, la capacidad de la red para supervisar, configurar y actualizar las estaciones cliente. Además de la mejora de la gestión, las nuevas capacidades proporcionadas por el 11v se desglosan en cuatro categorías: mecanismos de ahorro de energía con dispositivos de mano VoIP Wi-Fi en mente; posicionamiento, para proporcionar nuevos servicios dependientes de la ubicación; temporización, para soportar aplicaciones que requieren un calibrado muy preciso; y coexistencia, que reúne mecanismos para reducir la interferencia entre diferentes tecnologías en un mismo dispositivo.

802.11w

Todavía no concluido. TGw está trabajando en mejorar la capa del control de acceso del medio de IEEE 802.11 para aumentar la seguridad de los protocolos de autenticación y codificación. Las LANs inalámbricas envía la información del sistema en tramas desprotegidos, que los hace vulnerables. Este estándar podrá proteger las redes contra la interrupción causada por los sistemas malévolos que crean peticiones desasociadas que parecen ser enviadas por el equipo válido. Se intenta extender la protección que aporta el estándar 802.11i más allá de los datos hasta las tramas de gestión, responsables de las principales operaciones de una red. Estas extensiones tendrán interacciones con IEEE 802.11r e IEEE 802.11u.

802.11y

Este estándar publicado en noviembre de 2008, y permite operar en la banda de 3650 a 3700 MHz (excepto cuando pueda interferir con una estación terrestre de comunicaciones por satélite) en EEUU, aunque otras bandas en diferentes dominios reguladores también se están estudiando. Las normas FCC para la banda de 3650 MHz permiten que las estaciones registradas operen a una potencia mucho mayor que en las tradicionales bandas ISM (hasta 20 W PIRE). Otros tres conceptos se añaden: Contention Base Protocol (CBP), Extended Channel Switch Announcement (ECSA), y Dependent Station Enablement (DSE). CBP incluye mejoras en los mecanismos de detección de portadora. ECSA proporciona un mecanismo para que los puntos de acceso (APs) notifiquen a las estaciones conectadas a él de su intención de cambiar de canal o ancho de banda. Por último, la DSE se utiliza para la gestión de licencias.

PROTOCOLO PROPIETARIO

802.11G Turbo mode es una tecnología propietaria de la empresa Atheros que mejora el rendimiento de las redes IEEE 802.11g , con una banda de 2,4 GHz, alcanza una velocidad de transferencia de 108 Mbit/s.

MANTENIMIENTO Y SOPORTE

ISIS conoce la importancia que para su empresa representa el estar siempre al día con las últimas actualizaciones, mejoras, capacitación y solución de problemas para el óptimo desempeño de su personal y mejor servicio a sus clientes, por ello, nuestro contrato de soporte y mantenimiento le ofrece ventajas que aseguran el correcto funcionamiento de equipo en su Agencia en caso de que fuera necesario.

Es común y usted lo sabe, que las fallas de voltaje, virus, problemas con el equipo de cómputo, mal uso de él, etc., provoquen problemas que a la larga se traducen en mayor costo, pérdida de tiempo, y menor productividad.

Por ello, contratar soporte y mantenimiento de equipo le dará la confianza de saber que cualquier eventualidad que pudiera suscitarse será resuelta óptimamente en el menor tiempo posible y que su sistema estará actualizado continuamente, pues nuestra meta es lograr una mejora constante para servirle mejor.

• El soporte y mantenimiento de Equipo incluye los siguientes servicios:• Apoyo en configuración y soporte técnico de equipo después de su

adquisición. • Aclarar todas las dudas y solucionar todos los problemas que el cliente

plantee en relación a soporte técnico.• Mantener el equipo del cliente al día en cuestión de antivirus virus

(propiedad del cliente), fallas técnicas, Internet, configuraciones, saturación de discos duros, problemas de red y otros errores de hardware.

• Apoyo al usuario en problemas ocasionados por mal uso del mismo. • Asistencia en el área metropolitana. Dicha asistencia se efectuará como

máximo, dentro de las 5 a 24 horas siguientes a que se haya reportado la falla.

• Servicio de soporte remoto para proporcionar un mejor tiempo de respuesta al cliente. Este servicio remoto, se efectúa desde las instalaciones de ISIS entrando a la máquina del cliente para diagnosticar, verificar y corregir la mayoría de los problemas que puedan suscitarse. Para estos efectos, el cliente deberá contar con línea telefónica y acceso a Internet.

• Limpieza y mantenimiento preventivo a todos los equipos por lo menos 3 veces al año.

3. EQUIPOS DE CONECTIVIDAD

PASIVOS Son dispositivos no electrónicos, que se encargan únicamente de conducir la información.

• EQUIPOS DE CONECTIVIDADSon equipos que permiten transformar y conducir la información en el funcionamiento de una red de computadores. Estos se dividen en elementos activos y pasivos.

• Pasivo: podemos definir los componentes electrónicos pasivos como aquellos que no producen amplificación y que sirven para controlarla electricidad colaborando al mejor funcionamiento de los elementos activos (los cuales son llamados genéricamente semiconductores). Los componentes pasivos están formados por elementos de diversas clases que tendremos que considerar independientemente, ya que son diferentes sus objetivos, construcción y resultados, de modo que vamos a dividirlos en tres grandes grupos: 1. Resistencias: clasificación, valor óhmico y utilidad 2. Condensadores y funcionamiento, clasificación y valor capacitivo de un condensador, condensadores variables e información de su valor. 3. Bobinados e inductanciasCLASIFICACION

• Son aquellos dispositivos que se caracterízan principalmente por ser electrónicos, y estos permiten y distribuir y transformar la información en una red de computadores.

ACTIVO• (PeripheralComponentInterconnect: Interconexión de Componentes

Perifércios)Son componentes hardware que se conectan a la placa base del computador, estas tarjetas tienen varias funcionalidades: se usan para video, puertos ethernet, tarjetas de sonido, wifi, puertos USB.TARJETAS PCI

• Es un dispositivo que permite centralizar el cableado de una red y poder ampliarla, también es considerado como un repetidor, además son la base para las redes de topología estrella y se encuentra en la capa 1 del modelo OSI. Existen tres clases de hubs: Activos: Necesitan de energía electrica.Pasivos: No necesitan energía eléctrica.Inteligentes: Hubs activos que incluyen microprocesador.HUBS (CONCENTRADOR)

• El Bridge interconecta dos segmentos de red (o divide una red en segmentos) haciendo el pasaje de datos de una red hacia otra, con base en la dirección física de destino de cada paquete. Entónces, Un bridgeconecta dos segmentos de red como una sola red usando el mismo protocolo de establecimiento de red.

• El bridge nos da la información clara de donde se encuentra el enlace entre dos redes y se alimenta por una tabla que nos dice hacia dónde

dirigir las direcciones. Se encuentra en la capa 2 del modelo OSI.PUENTES (BRIDGES)

• EQUIPOS DE CONECTIVIDAD

SWITCH: es un dispositivo de red situado en la capa 2 del modelo de referencia OSI. Envía la información a un usuario específico sin ser retransmitido al resto de los puertos.Es un dispositivo que sirve para modular y demodular (en amplitud, frecuencia, fase u otro sistema). Los módems aceptan los datos provenientes (digitales) de un PC o terminal digital y los convierte en analógicos, para poder ser enviados a través de la línea telefónica. Por ello el módem se utiliza para adecuar las señales a los canales de transmisión cuando comparten la misma naturaleza. Pertenece a la capa 1 del modelo OSI.

• MÓDEMSUn modem fax supone la existencia de un computador con un modem y el software de comunicaciones para recibir y enviar faxes, según los estándares existentes, así como software para manejar archivos de fax. El proceso para transmitir o recibir un fax es más complejo que apretar un simple botón como en la máquina de fax común. Pertenece a la capa 1 del modelo OSI.Modem Fax

• CONECTORES RJ45: Conecta redes de cableado estructurado, posee 8 pines o conexiones eléctricas que normalmente se usan como extremos de cable de par trenzado. Para que todos los cables funcionen en cualquier red, se sigue un estándar a la hora de hacer las conexiones. Los dos extremos del cable llevan un conector RJ45 en un conector macho y en un conector hembra. Es utilizado comúnmente con estándares como TIA/EIA-568-B que define la disposición de los pines. Se encuentran en la capa 1 del modelo OSI.

ELEMENTOS PASIVOS DEL CABLEADO ESTRUCTURADO

Cableado utilizado principalmente para comunicaciones que se encuentra normalizado de acuerdo a la norma americana TIA/EIA-568-B.Los cables de par trenzado se utilizaron por primera vez en el sistema de telefonía por Bell en 1881 y en 1900 por toda la red americana. La mayoría de los millones de millones de kilómetros de cable de par trenzado están al aire libre y son propiedad de compañías telefónicas utilizadas para el servicio de voz y sólo por profesionales. La mayoría de los datos de las conexiones a internet utilizan estos cables.

Par un uso masivo en interiores el cable UTP es a menudo agrupado en conjuntos de 25 pares de acuerdo al estándar de código de colores de 25 pares, un tipo subconjunto de estos colores es el más usado en los cables UTP, blanco naranja, naranja, blanco verde, azul, blanco azul, verde, blanco marrón, marrón. Pertenece a la capa 1 del modelo OSI.Rollo de cable UTP.

ADAPTADORES

Los adaptadores permiten el acoplamiento de cualquier tipo de comunicador al ordenador. Esto posibilita hacer totalmente versátiles a los conmutadores, pudiendo servir para cualquier tipo de ordenador.

Aquí podemos ver un adaptador para conectar al ordenador por el puerto de comunicaciones. Se suele utilizar con programas que funcionan bajo el antiguo Sistema Operativo MS-DOS y que dispongan de barrido. En este caso de trata de un adaptador para un conmutador doble o para dos conmutadores.

ANTENA

Una antena es un dispositivo diseñado con el objetivo de emitir o recibir ondas electromagnéticas hacia el espacio libre. Una antena transmisora transforma voltajes en ondas electromagnéticas, y una receptora realiza la función inversa.

Existe una gran diversidad de tipos de antenas, dependiendo del uso a que van a ser destinadas. En unos casos deben expandir en lo posible la potencia radiada, es decir, no deben ser directivas (ejemplo:

• una emisora de radio comercial o una estación base de teléfonos móviles), otras veces deben serlo para canalizar la potencia en una

dirección y no interferir a otros servicios (antenas entre estaciones de radio enlaces). También es una antena la que está integrada en la computadora portátil para conectarse a las redes Wi-Fi.

Las características de las antenas dependen de la relación entre sus dimensiones y la longitud de onda de la señal de radiofrecuencia transmitida o recibida. Si las dimensiones de la antena son mucho más pequeñas que la longitud de onda las antenas se denominan elementales, si tienen dimensiones del orden de media longitud de onda se llaman resonantes, y si su tamaño es mucho mayor que la longitud de onda son directivas.

ROUTER

Un Reuter es un dispositivo que envía paquetes de datos a través de redes informáticas

Los Routers realizar los datos de “tráfico de la dirección de” funciones en el Internet .

Algunos router para el hogar de gama media son el Cisco 831 o Soho 91.

Un router está conectado a dos o más líneas de datos de distintas redes.

Cuando los datos se presenta en en una de las líneas, el router lee la información de dirección en el paquete para determinar su destino final.

Luego, utilizando la información en su tabla de enrutamiento, que dirige el paquete a la red siguiente de su viaje o descarta el paquete.

Un paquete de datos es por lo general pasan de un router a través de las redes de Internet hasta que llegue a su equipo de destino a menos que la dirección IP de origen está en una red privada.

El tipo más común de los routers son el hogar y routers para pequeñas oficinas que simplemente pasar los datos, como las páginas Web y correo electrónico,

entre los equipos de casa y el dueño del cable o módem DSL , que se conecta a Internet ( ISP ).

Sin embargo, más sofisticados routers gama de routers de la empresa, que conectan las grandes empresas o redes de ISP a los poderosos routers de núcleo que se envían los datos a alta velocidad a lo largo de la fibra óptica, líneas de la red troncal de Internet.

Todos los tamaños de los routers se pueden encontrar dentro de las empresas.

Los routers más poderosos se encuentran generalmente en los ISPs, instalaciones académicas y de investigación.

Las grandes empresas también pueden necesitar routers más potentes para hacer frente a demandas cada vez mayores de la intranet del tráfico de datos.

Un modelo de tres capas es de uso común, no todos los cuales deben estar presentes en redes más pequeñas

Redes externas deben ser cuidadosamente consideradas como parte de la estrategia global de seguridad.

Separado del router puede ser un firewall o VPN dispositivo de manipulación, o el router puede incluir estas y otras funciones de seguridad.

Muchas empresas de producción orientadas a la seguridad routers, incluyendo PIX de Cisco Systems y la serie ASA5500, Netscreen de Juniper, WatchGuard Firebox, la variedad de Barracuda de correo electrónico orientado a los dispositivos, y muchos otros.

ACCESS POINT

Un punto de acceso o Access Point en redes de computadoras es un dispositivo que interconecta equipos de comunicación para formar una red. Normalmente puede conectarse a una red cableada o en una red inalámbrica, y puede transmitir datos entre los dispositivos conectados a la red cable y los dispositivos inalámbricos.

Muchos Access Points pueden conectarse entre sí para formar una red aún mayor, permitiendo realizar "roaming". Un único punto de acceso puede soportar un pequeño grupo de usuarios y puede funcionar en un rango de al menos treinta metros y hasta varios cientos.

BRIDGES

Es un dispositivo de interconexión de redes de ordenadores que opera en la capa 2 (nivel de enlace de datos) del modelo OSI. Este interconecta dos segmentos de red (o divide una red en segmentos) haciendo el pasaje de datos de una red hacia otra, con base en la dirección física de destino de cada paquete.

Un bridge conecta dos segmentos de red como una sola red usando el mismo protocolo de establecimiento de red.

Funciona a través de una tabla de direcciones MAC detectadas en cada segmento a que está conectado. Cuando detecta que un nodo de uno de los segmentos está intentando transmitir datos a un nodo del otro, el bridge copia la trama para la otra subred. Por utilizar este mecanismo de aprendizaje automático, los Bridges no necesitan configuración manual.

La principal diferencia entre un bridge y un hub es que el segundo pasa cualquier trama con cualquier destino para todos los otros nodos conectados, en cambio el primero sólo pasa las tramas pertenecientes a cada segmento. Esta característica mejora el rendimiento de las redes al disminuir el tráfico inútil.

Para hacer el bridging o interconexión de más de 2 redes, se utilizan los switch.

Se distinguen dos tipos de bridge:

• Locales: sirven para enlazar directamente dos redes físicamente cercanas.

• Remotos o de área extensa: se conectan en parejas, enlazando dos o más redes locales, formando una red de área extensa, a través de líneas telefónicas.

MEDIOS DE TRANSMISIÓN

Por medio de transmisión, la aceptación amplia de la palabra, se entiende el material físico cuyas propiedades de tipo electrónico, mecánico, óptico, o de cualquier otro tipo se emplea para facilitar el transporte de información entre terminales distante geográficamente.

El medio de transmisión consiste en el elemento q conecta físicamente las estaciones de trabajo al servidor y los recursos de la red. Entre los diferentes medios utilizados en las LANs se puede mencionar: el cable de par trenzado, el cable coaxial, la fibra óptica y el espectro electromagnético (en transmisiones inalámbricas).

Su uso depende del tipo de aplicación particular ya que cada medio tiene sus propias características de costo, facilidad de instalación, ancho de banda soportado y velocidades de transmisión máxima permitidas.

Características Básicas de un Medio de Transmisión

Resistencia:

• Todo conductor, aislante o material opone una cierta resistencia al flujo de la corriente eléctrica.

• Un determinado voltaje es necesario para vencer la resistencia y forzar el flujo de corriente. Cuando esto ocurre, el flujo de corriente a través del medio produce calor.

• La cantidad de calor generado se llama potencia y se mide en WATTS. Esta energía se pierde.

• La resistencia de los alambres depende de varios factores.

En conexiones a Internet el ancho de banda es la cantidad de información o de datos que se puede enviar a través de una conexión de red en un período dado. El ancho de banda se indica generalmente en bits por segundo (bps), kilobits por segundo (Kbps), o megabits por segundo (Mbps).1

Para señales analógicas, el ancho de banda es la longitud, medida en Hz, del rango de frecuencias en el que se concentra la mayor parte de la potencia de la señal. Puede ser calculado a partir de una señal temporal mediante el análisis de Fourier. También son llamadas frecuencias efectivas las pertenecientes a este rango.

Así, el ancho de banda de un filtro es la diferencia entre las frecuencias en las que su atenuación al pasar a través de filtro se mantiene igual o inferior a 3 dB comparada con la frecuencia central de pico.

La frecuencia es la magnitud física que mide las veces por unidad de tiempo en que se repite un ciclo de una señal periódica. Una señal periódica de una sola frecuencia tiene un ancho de banda mínimo. En general, si la señal periódica tiene componentes en varias frecuencias, su ancho de banda es mayor, y su variación temporal depende de sus componentes frecuenciales.

Normalmente las señales generadas en los sistemas electrónicos, ya sean datos informáticos, voz, señales de televisión, etc., son señales que varían en el tiempo y no son periódicas, pero se pueden caracterizar como la suma de muchas señales periódicas de diferentes frecuencias.

ONDAS O SEÑALES EN REDE ELÉCTRICAS

Son aquellas ondas que no necesitan un medio material para propagarse. Incluyen, entre otras, la luz visible y las ondas de radio, televisión y telefonía.

Todas se propagan en el vacío a una velocidad constante, muy alta (300 0000 km/s) pero no infinita. Gracias a ello podemos observar la luz emitida por una estrella lejana hace tanto tiempo que quizás esa estrella haya desaparecido ya. O enterarnos de un suceso que ocurre a miles de kilómetros prácticamente en el instante de producirse. Las ondas electromagnéticas se propagan mediante una oscilación de campos eléctricos y magnéticos. Los campos electromagnéticos al "excitar" los electrones de nuestra retina, nos comunican con el exterior y permiten que nuestro cerebro "construya" el escenario del mundo en que estamos. Las O.E.M. son también soporte de las telecomunicaciones y el funcionamiento complejo del mundo actual.

LA ÓPTICA

Es la rama de la física que estudia el comportamiento de la luz, sus características y sus manifestaciones. Abarca el estudio de la reflexión, la refracción, las interferencias, la difracción, la formación de imágenes y la interacción de la luz con la materia. Estudia la luz, es decir como se comporta la luz ante la materia.

TCP/IP

Es un conjunto de protocolos. La sigla TCP/IP significa "Protocolo de control de transmisión/Protocolo de Internet" y se pronuncia "T-C-P-I-P". Proviene de los nombres de dos protocolos importantes del conjunto de protocolos, es decir, del protocolo TCP y del protocolo IP.

En algunos aspectos, TCP/IP representa todas las reglas de comunicación para Internet y se basa en la noción de dirección IP, es decir, en la idea de brindar una dirección IP a cada equipo de la red para poder enrutar paquetes de datos. Debido a que el conjunto de protocolos TCP/IP originalmente se creó con fines militares, está diseñado para cumplir con una cierta cantidad de criterios, entre ellos:

• dividir mensajes en paquetes;• usar un sistema de direcciones;• enrutar datos por la red;• detectar errores en las transmisiones de datos.

El conocimiento del conjunto de protocolos TCP/IP no es esencial para un simple usuario, de la misma manera que un espectador no necesita saber cómo funciona su red audiovisual o de televisión. Sin embargo, para las personas que desean administrar o brindar soporte técnico a una red TCP/IP, su conocimiento es fundamental.

TELECOMUNICACIONES (TELEFONÍA IP, VOIP)

Qué es VoIP? La tecnología VoIP (Voice over Internet Protocol) permite realizar llamados de voz a través de una conexión de banda ancha a Internet en lugar de utilizar una línea telefónica común (analógica). Algunos servicios VoIP permiten realizar llamadas únicamente a otras personas que utilicen el mismo servicio, pero otros posibilitan llamadas a cualquier teléfono, incluyendo números locales, larga distancia, celulares e internacionales.

IP

Ventajas de la telefonía IP: la reducción del costo telefónico Una de las principales ventajas que ofrece la comunicación via VoIP es que las llamadas telefónicas a través de Internet no incurren en un gasto superior al que el usuario realiza por su conexión a Internet. Lo que se logra es un mejor aprovechamiento del ancho de banda disponible, generalmente sub-utilizado. Este tipo de aplicaciones, cuyo desarrollo e implementación definitivos están aún por llegar, supone un gran ahorro para los usuarios en llamadas tanto de corta como de larga distancia, más servicios y una renovación estructural en el negocio de la telefonía, lo que presumiblemente traerá impensadas consecuencias para las operadoras.

¿Que es una VPN?

Es una red privada que se extiende, mediante un proceso de encapsulación y en su caso de encriptación, de los paquetes de datos a distintos puntos remotos mediante el uso de unas infraestructuras públicas de transporte.Los paquetes de datos de la red privada viajan por medio de un "túnel" definido en la red pública.

TECNOLOGIAS

BLUETOOTH

Bluetooth es una especificación industrial para Redes Inalámbricas de Área Personal (WPANs) que posibilita la transmisión de voz y datos entre diferentes dispositivos mediante un enlace por radiofrecuencia en la banda ISM de los 2,4 GHz. Los principales objetivos que se pretenden conseguir con esta norma son:

• Facilitar las comunicaciones entre equipos móviles y fijos.• Eliminar cables y conectores entre éstos.• Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la

sincronización de datos entre equipos personales.

Los dispositivos que con mayor frecuencia utilizan esta tecnología pertenecen a sectores de las telecomunicaciones y la informática personal, como PDA, teléfonos móviles, computadoras portátiles, ordenadores personales, impresoras o cámaras digitales.

3G es la abreviación de tercera generación de transmisión de voz y datos a través de telefonía móvil mediante UMTS (Universal Mobile Telecommunications System o servicio universal de telecomunicaciones móviles).

Los servicios asociados con la tercera generación proporcionan la posibilidad de transferir tanto voz y datos (una llamada telefónica o una videollamada) y datos no-voz (como la descarga de programas, intercambio de email, y mensajería instantánea). Aunque esta tecnología estaba orientada a la telefonía móvil, desde hace unos años las operadoras de telefonía móvil ofrecen servicios exclusivos de conexión a Internet mediante módem usb, sin necesidad de adquirir un teléfono móvil, por lo que cualquier computadora puede disponer de acceso a Internet. Existen otros dispositivos como algunos ultrapórtátiles (netbooks) que incorporan el módem integrado en el propio equipo, pero requieren de una tarjeta SIM (la que llevan los teléfonos móviles) para su uso, por lo que en este caso sí es necesario estar dado de alta con un número de teléfono.

Wi-Fi

En algunos países hispanoparlantes /wɪfɪ/) es un mecanismo de conexión de dispositivos electrónicos de forma inalámbrica. Los dispositivos habilitados con Wi-Fi, tales como: una computadora personal, una consola de videojuegos, un smartphone o un reproductor de audio digital, pueden conectarse a Internet a través de un punto de acceso de red inalámbrica. Dicho punto de acceso (o hotspot) tiene un alcance de unos 20 metros (65 pies) en interiores y al aire libre una distancia mayor pueden cubrir grandes áreas la superposición de múltiples puntos de acceso .

Wi-Fi es una marca de la Wi-Fi Alliance (anteriormente la WECA: Wireless Ethernet Compatibility Alliance), la organización comercial que adopta, prueba y certifica que los equipos cumplen los estándares 802.11 relacionados a redes inalámbricas de área local.

¿Qué es WiMAX?

WiMAX son las siglas de ‘Worldwide Interoperability for Microwave Access’, y es la marca que certifica que un producto está conforme con los estándares de acceso inalámbrico ‘IEEE 802.16′. Estos estándares permitirán conexiones de velocidades similares al ADSL o al cablemódem, sin cables, y hasta una distancia de 50-60 km. Este nuevo estándar será compatible con otros anteriores, como el de Wi-Fi (IEEE 802.11).

La tecnología WiMAX será la base de las Redes Metropolitanas de acceso a Internet, servirá de apoyo para facilitar las conexiones en zonas rurales, y se utilizará en el mundo empresarial para implementar las comunicaciones internas. Además, su popularización supondrá el despegue definitivo de otras tecnologías, como VoIP (llamadas de voz sobre el protocolo IP).

Para promover el uso los estándares WiMAX, es necesario que los fabricantes de dispositivos electrónicos lleguen a acuerdos para desarrollar esta tecnología, dando lugar a certificaciones que aseguren la compatibilidad y la interoperabilidad de antenas, procesadores o receptores. Por ello, existe el ‘WiMAX Forum’, que es una asociación sin ánimo de lucro formada por decenas de empresas comprometidas con el cumplimiento del estándar IEEE 802.16.

El término Ultrawideband (también UWB, ultra-wide-band, ultra-wide band, etc.; banda ultra ancha, en español) se usa para hacer referencia a cualquier tecnología de radio que usa un ancho de banda mayor de 500 MHz o del 25% de la frecuencia central, de acuerdo con la FCC (Federal Communications Commission).

UWB es una tecnología en el rango de las PAN (personal area network). Permite paquetes de información muy grandes (480 Mbits/s) conseguidos en distancias cortas, de unos pocos metros. Los dispositivos USB inalámbricos actuales se implementan con UWB.

Características UWB

UWB difiere sustancialmente de las estrechas frecuencias de banda de radio (RF) y tecnologías “spread spectrum” (SS), como el Bluetooth y el 802.11. UWB usa un gran ancho de banda del espectro de RF para transmitir información. Por lo tanto, UWB es capaz de transmitir más información en menos tiempo que las tecnologías anteriormente citadas.

Mientras que Bluetooth, WiFi, teléfonos inalámbricos y demás dispositivos de radiofrecuencia están limitadas a frecuencias sin licencia en los 900 MHz, 2.4 GHz y 5.1 GHz, UWB hace uso de un espectro de frecuencia recientemente legalizado. UWB puede usar frecuencias que van desde 3.1 GHz hasta 10.6 GHz: una banda de más de 7 GHz de anchura. Cada canal de radio tiene una anchura de más de 500 MHz, dependiendo de su frecuencia central.

El hecho de estar compartiendo bandas de frecuencia con otros dispositivos, ha hecho que aunque esto les permite tener una alta productividad, han de estar relativamente cerca.

Ventajas UWB

Las ventajas que ofrece UWB son su bajo consumo (como emisor de ondas de radio), bajo coste (se puede usar tecnología CMOS para implementar un dispositivo UWB radio) y alta productividad, lo que marca esta tecnología como el futuro de las WPAN.

Además, UWB permite reutilización de espectros. Por ejemplo, podemos tener una serie de dispositivos en nuestro salón de casa, comunicándose con nuestro ordenador a través de un canal, y a la vez, en otra habitación, otra serie de dispositivos en el mismo canal comunicándose igualmente. WPAN basadas en UWB pueden hacer uso del mismo canal sin interferencias, debido a los rangos tan cortos que permite UWB.

Por ejemplo, si se usara una WPAN basada en WiFi, mientras se estuviera usando un dispositivo, éste daría cuenta rápido del ancho de banda del canal, con lo que no podríamos estar usando otro dispositivo de forma eficiente.

Aplicaciones UWB

• En general, diseñado para trabajar en entornos WPAN (Wireless Personal Area Network).

• Reemplazo de IEEE 1394 en dispositivos multimedia (cámaras de fotos o vídeo, reproductores MP3,...) con conectividad inalámbrica.

• Permitir conectividad WUSB (Wireless Universal Serial Bus) de gran velocidad (periféricos de ordenador, como escáners, impresoras e incluso dispositivos de almacenamiento externo).

• Reemplazo de cables en la siguiente generación de dispositivos Bluetooth, como los móviles de 3G.

• Creando conectividad inalámbrica ad-hoc de alto ratio para CE, PC y dispositivos móviles.

• La anchura de la señal (528 MHz o 2736 MHz de ancho de banda) puede usarse para aplicaciones de streaming de vídeo.

MÉTODOS DE ACCESO

FDMA

El Acceso múltiple por división de frecuencia (Frequency Division Multiple Access o FDMA, del inglés) es una técnica de multiplexación usada en múltiples protocolos de comunicaciones, tanto digitales como analógicos, principalmente de radiofrecuencia, y entre ellos en los teléfonos móviles de redes GSM.

En FDMA, el acceso al medio se realiza dividiendo el espectro disponible en canales, que corresponden a distintos rangos de frecuencia, asignando estos canales a los distintos usuarios y comunicaciones a realizar, sin interferirse entre sí. Los usuarios pueden compartir el acceso a estos distintos canales por diferentes métodos como TDMA, CDMA o SDMA, siendo estos protocolos usados indistintamente en los diferentes niveles del modelo OSI.

En algunos sistemas, como GSM, el FDMA se complementa con un mecanismo de cambio de canal según las necesidades de la red lo precisen, conocido en inglés como frequency hopping o "saltos en frecuencia".

Su primera aparición en la telefonía móvil fue en los equipos de telecomunicación de Primera Generación (años 1980), siendo de baja calidad de transmisión y una pésima seguridad.[cita requerida] La velocidad máxima de transferencia de datos fue 240 baudios.

Características

• Tecnología muy experimentada y fácil de implementar.• Gestión de recursos rígida y poco apta para flujos de tránsito variable.• Requiere duplexor de antena para transmisión dúplex.• Se asignan canales individuales a cada usuario.• Los canales son asignados de acuerdo a la demanda.• Normalmente FDMA se combina con multiplexing FDD

TDMA

El Acceso Múltiple por División del Tiempo (por sus siglas en inglés TDMA) es una tecnología inalámbrica de segunda generación (2G) que brinda servicios de alta calidad de voz y datos de circuito conmutado en las bandas más usadas del espectro, lo que incluye las de 850 y 1900 MHz. TDMA es una tecnología digital o "PCS" que también se conoce como ANSI-136 ó IS-136, por las normas que definen sus características. TDMA divide un único canal de radiofrecuencia en seis ranuras de tiempo. A cada persona que hace una llamada se le asigna una ranura de tiempo específica para la transmisión, lo que hace posible que varios usuarios utilicen un mismo canal simultáneamente sin interferir entre sí. Este diseño hace un uso eficiente del espectro y ofrece tres veces más capacidad que la tecnología analógica o "AMPS", que es de primera generación (1G).

CDMA

La multiplexación por división de código, acceso múltiple por división de código o CDMA (del inglés Code Division Multiple Access) es un término genérico para varios métodos de multiplexación o control de acceso al medio basados en la tecnología de espectro expandido.

La traducción del inglés spread spectrum se hace con distintos adjetivos según las fuentes; pueden emplearse indistintamente espectro ensanchado, expandido, difuso o disperso para referirse en todos los casos al mismo concepto.

Habitualmente se emplea en comunicaciones inalámbricas (por radiofrecuencia), aunque también puede usarse en sistemas de fibra óptica o de cable.

REDES INALAMBRICAS.

• Una de las tecnologías más prometedoras y discutidas en esta década es la de poder comunicar computadoras mediante tecnología inalámbrica. La conexión de computadoras mediante Ondas de Radio o Luz Infrarroja, actualmente está siendo ampliamente investigado. Las Redes Inalámbricas facilitan la operación en lugares donde la computadora no puede permanecer en un solo lugar, como en almacenes o en oficinas que se encuentren en varios pisos.

También es útil para hacer posibles sistemas basados en plumas. Pero la realidad es que esta tecnología está todavía en pañales y se deben de resolver varios obstáculos técnicos y de regulación antes de que las redes inalámbricas sean utilizadas de una manera general en los sistemas de cómputo de la actualidad.

TRUNKING

Los Sistemas Radio Trunking son sistemas de radiocomunicaciones móviles para aplicaciones privadas, formando grupos y subgrupos de usuarios, con las siguientes características principales:

• Estructura de red celular (independientes de las redes públicas de telefonía móvil)

• Los usuarios comparten los recursos del sistema de forma automática y organizada.

• Cuando se requiere, por el tipo de servicio, es posible el establecimiento de canales prioritarios de emergencia que predominarían sobre el resto de comunicaciones del grupo.

Son sistemas que han ido estandarizando las diferentes interfaces desde su introducción en el año 1997. En la actualidad se está produciendo un proceso de estandarización con los sistemas digitales.

A su vez, el trunking es un sistema de radio en el que todas las comunicaciones van precedidas de un código de llamada similar a una telefónica; si nuestro equipo la recibe y no es el destinatario la emite de nuevo, actuando como repetidor, y si es el destinatario se establece un circuito para asegurar la comunicación. Por lo tanto sólo oímos las comunicaciones

destinadas a nosotros. Dependiendo del servicio instalado se puede implementar conexión a la red de telefonía pública.

Itinerancia (roaming) en telefonía móvil

El servicio de roaming ha hecho posible que los usuarios de telefonía móvil adquieran una completa libertad de movimiento entre las áreas de cobertura de las diferentes empresas de telecomunicaciones.

Consiste en permitir que un usuario que se encuentre dentro de la zona de cobertura de una red móvil diferente a la que le presta el servicio pueda recibir las llamadas hechas hacia su número de móvil sin necesidad de realizar ningún tipo de procedimiento extra y, en muchos casos, también efectuar llamadas hacia la zona donde se contrató originalmente el servicio, sin necesidad de hacer una marcación especial. Para alcanzar este fin, ambas compañías (la prestadora original del servicio y la propietaria de la red en la que el cliente esté itinerando) deben tener suscrito un acuerdo de itinerancia, en el que definen qué clientes tienen acceso al servicio y cómo se efectuará la conexión entre sus sistemas para encaminar las llamadas.

Aunque el servicio permite una comunicación inmediata y, en muchos casos, sin necesidad de ninguna solicitud adicional, es de notar que habitualmente el costo de transferencia de cada llamada y los costos de interconexión se cargarán al receptor de la llamada, no a la persona que llama (que no tiene por qué saber dónde se encuentra el abonado llamado). Así, el servicio es transparente para el usuario que desea contactar un número que se desplaza a otra zona.

El concepto de itinerancia también se puede aplicar a los terminales móviles liberados, puesto que uno mismo puede reducir los costes de roaming tanto para el usuario emisor como para el receptor, usando una tarjeta Sim de alguno de los operadores móviles disponibles en la zona. Esta itinerancia es útil cuando se viaja al extranjero, lo que constituye una de las ventajas del sistema GSM.

Roaming (Itinerancia) en redes Wi-Fi

Para que sea posible, tiene que haber una pequeña superposición (overlapping) en las coberturas de los puntos de acceso (access points), de tal manera que los usuarios puedan desplazarse por las instalaciones y siempre tengan cobertura. Los puntos de acceso incorporan un algoritmo que decide cuándo una estación debe desconectarse de un punto de acceso y cuándo conectarse a otro.

Esto conecta a otra

Ello permite no sólo la conexión en distintos puntos distantes en los que el cliente tiene servicio, sino también que la llamada (en el caso de GSM) o la conexión (Wi-Fi) permanezca activa y no se interrumpa.

SISTEMAS SATELITAL

Un sistema satelital consiste en un cierto numero de transponder además de una estación terrena maestra para controlar su operación, y una red de estaciones terrenas de usuarios, cada uno de los cuales posee facilidad de transmisión y recepción.

El control se realiza generalmente con dos estaciones terrenas especiales que se encargan de la telemetría, el rastreo y la provisión de los comandos para activar los servicios del satélite.

Un vínculo satelital consta de:

• Un enlace tierra-satelite o enlace ascendente (uplink)• Un enlace satelite-tierra o enlace descendente (downlink)

El satélite permanece en órbita por el equilibrio entre la fuerza centrifuga y la atracción gravitatoria.

Si se ubica el satélite a una altura de 35860 Km sobre el plano del Ecuador, estos giran en torno a la tierra a una velocidad de 11070 Km./hr, con un periodo de 24 hrs. Esto hace que permanezca estacionario frente a un punto terrestre, de allí su nombre de satélite geoestacionario. De este modo las antenas terrestres pueden permanecer orientadas en una posición relativamente estable en un sector orbital.

Debido a su gran potencia los satélites para Tv necesitan de un espaciamiento de por lo menos 8 grados, para así evitar que el haz proveniente de la Tierra ilumine a los satélites vecinos también.

Los sistemas satelitales constan de las siguientes partes:

• Transponders• Estaciones terrenas

El transponder es un dispositivo que realiza la función de recepción y transmisión. Las señales recibidas son amplificadas antes de ser retransmitidas a la tierra. Para evitar interferencias les cambia la frecuencia.

Las estaciones terrenas controlan la recepción con/desde el satélite, regula la interconexión entre terminales, administra los canales de salida, codifica los datos y controla la velocidad de transferencia.

802.11e

La especificación IEEE 802.11e ofrece un estándar inalámbrico que permite interoperar entre entornos públicos, de negocios y usuarios residenciales, con la capacidad añadida de resolver las necesidades de cada sector. A diferencia de otras iniciativas de conectividad sin cables, ésta puede considerarse como uno de los primeros estándares inalámbricos que permite trabajar en entornos domésticos y empresariales. La especificación añade, respecto de los estándares 802.11b y 802.11a, características QoS y de soporte multimedia, a la vez que mantiene compatibilidad con ellos. Estas prestaciones resultan fundamentales para las redes domésticas y para que los operadores y proveedores de servicios conformen ofertas avanzadas. El documento que establece las directrices de QoS, aprobado el pasado mes de noviembre, define los primeros indicios sobre cómo será la especificación que aparecerá a finales de 2001. Incluye, asimismo, corrección de errores (FEC) y cubre las interfaces de adaptación de audio y vídeo con la finalidad de mejorar el control e integración en capas de aquellos mecanismos que se encarguen de gestionar redes de menor rango. El sistema de gestión centralizado integrado en QoS evita la colisión y cuellos de botella, mejorando la capacidad de entrega en tiempo crítico de las cargas. Estas directrices aún no han sido aprobadas. Con el estándar 802.11, la tecnología IEEE 802.11 soporta tráfico en tiempo real en todo tipo de entornos y situaciones. Las aplicaciones en tiempo real son ahora una realidad por las garantías de Calidad de Servicio (QoS) proporcionado por el 802.11e. El objetivo del nuevo estándar 802.11e es introducir nuevos mecanismos a nivel de capa MAC para soportar los servicios que requieren garantías de Calidad de Servicio. Para cumplir con su objetivo IEEE 802.11e introduce un nuevo elemento llamado Hybrid Coordination Function (HCF) con dos tipos de acceso:

• (EDCA) Enhanced Distributed Channel Access, equivalente a DCF.• (HCCA) HCF Controlled Access, equivalente a PCF.

En este nuevo estándar se definen cuatro categorías de acceso al medio (Ordenadas de menos a más prioritarias).

• Background (AC_BK)• Best Effort (AC_BE)• Video (AC_VI)• Voice (AC_VO)

Para conseguir la diferenciación del tráfico se definen diferentes tiempos de acceso al medio y diferentes tamaños de la ventana de contención para cada una de las categorías.

SEGURIDAD DE REDES CABLEADAS E INALÁMBRICAS

Es una red que permite a sus usuarios conectarse a una red local o a Internet sin estar conectado físicamente, sus datos (paquetes de información) se transmiten por el aire.

Al montar una red inalámbrica hay que contar con un PC que sea un “Punto de Acceso” y los demás son “dispositivos de control” , todo esta infraestructura puede variar dependiendo que tipo de red queremos montar en tamaño y en la distancias de alcance de la misma.

Tipos de inseguridades

Este es el talón de Aquiles de este tipo de redes. Si una red inalámbrica esta bien configurada nos podemos ahorrar muchos disgustos y estar mas tranquilos.

Las inseguridades de las redes inalámbricas radica en:

• Configuración del propio “servidor” (puntos de accesos). • La “escucha” (pinchar la comunicación del envió de paquetes). • “Portadoras” o pisarnos nuestro radio de onda (NO MUY COMÚN),

mandan paquetes al aire, pero esta posibilidad es real. • Nuestro sistema de encriptación (WEP, Wirelles Equivalent Privacy , el

mas usado es de 128 Bits, pero depende el uso que le demos a nuestra red.

Piense una cosa, nuestros datos son transmitidos como las ondas que recibimos en nuestra televisión o radio, si alguien tiene un receptor puede ver nuestros datos o si quiere estropearnos nuestro radio de transmisión.

Consejos de seguridad

Para que un intruso se pueda meter un nuestra red inalámbrica tiene que ser nodo o usuario, pero el peligro radica en poder escuchar nuestra transmisión. Vamos a dar unos pequeños consejos para poder estar mas tranquilos con nuestra red inalámbrica.

1. Cambiar las claves por defecto cuando instalemos el software del Punto De Acceso.

2. Control de acceso seguro con autentificación bidireccional. 3. Control y filtrado de direcciones MAC e identificadores de red para

restringir los adaptadores y puntos de acceso que se puedan conectar a la red.

4. Configuración WEP (muy importante) , la seguridad del cifrado de paquetes que se transmiten es fundamental en la redes inalámbricas, la codificación puede ser mas o menos segura dependiendo del tamaño de la clave creada y su nivel , la mas recomendable es de 128 Bits.

5. Crear varias claves WEP, para el punto de acceso y los clientes y que varíen cada día.

6. Utilizar opciones no compatibles, si nuestra red es de una misma marca podemos escoger esta opción para tener un punto mas de seguridad, esto hará que nuestro posible intruso tenga que trabajar con un modelo compatible al nuestro.

7. Radio de transmisión o extensión de cobertura , este punto no es muy común en todo losmodelos ,resulta mas caro, pero si se puede controlar el radio de transmisión al circulo de nuestra red podemos conseguir un nivel de seguridad muy alto y bastante útil.

Todos estos puntos son consejos, las redes inalámbricas están en pleno expansión y se pueden añadir ideas nuevas sobre una mejora de nuestra seguridad.

La Seguridad Tecnológica en una empresa se define como un conjunto de reglas, planes y acciones que permiten asegurar la información contenida en uno o varios sistemas de la empresa.

Pero para garantizar esta seguridad no es suficiente con un conjunto de software avanzado capaz de proteger nuestra red, sino que la labor principal reside en la persona física que administra el sistema, la cual debe ser capaz de analizar situaciones futuras y tomar decisiones, preveyendo de esta forma posibles ataques, porque la mejor forma de combatir al enemigo es anticipándose a sus movimientos.

Por este motivo surge el concepto de Seguridad Preventiva, que nos permite estar preparados para problemas antes de que estos aparezcan.

Linalco pone a su disposición un servicio de Seguridad Tecnológica consistente en la vigilancia contínua de alarmas, problemas y fallos de seguridad, con el fin de proteger y optimizar dicho sistema.

SISTEMAS DE ENCRIPTACIÓN

Actualizaciones de seguridad, comprobación de la integridad del Kernel de Linux, sistema de ficheros y configuraciones, modificaciones no autorizadas de las reglas del firewall o búsqueda de software potencialmente peligroso son tan solo algunos ejemplos de las labores que se llevan a cabo dentro del servicio de Seguridad Tecnológica.

De la misma forma que nos colocamos el cinturón de seguridad cuando subimos a un coche, debemos asegurarnos que los sistemas de nuestra empresa tienen puestos su "cinturón de seguridad" que les permita estar preparados ante posibles problemas.

Beneficios

• Protección de la información de la empresa. • Actualización y optimización del los Sistemas informáticos • Fortalecer los sistemas informáticos ante intrusos • Fortalecer los sistemas ante posibles errores de seguridad • Prevención de riesgos innecesarios • Vigilancia continuada de los sistemas • Ahorro de costes provocados por una caída del Sistema

La seguridad criptografía clásica se basa en el secreto de la clave, por lo que utilizando algoritmos simples puede dar lugar a textos tan seguros como los que ofrece la criptografía actual con un coste operacional mucho menor.

La clave de encriptación es la misma que la de desencriptación, de forma que los llamaremos también sistemas simétricos.

ALGORITMOS DE SUSTITUCIÓN.

Estos algoritmos se basan en sustituir un carácter o cadena de caracteres por otro carácter o cadena de caracteres.

Sustituciones mono alfabéticas.

Son los algoritmos de sustitución más simples y su utilización se remonta ya a Julio César. Por ejemplo, la A se sustituye por la B, la B por la C, etc... Podemos asociar este método a una suma. Si damos a cada carácter un valor (A=1, B=2, C=3, etc...) el cifrado se reduce a sumar 1 a cada carácter del texto.

Si en vez de sumar 1 sumamos 2, 3 o cualquier otro valor, ese valor se convierte en la clave.

RADIUS

Es un protocolo de autenticación y autorización para aplicaciones de acceso a la red o movilidad IP. Utiliza el puerto 1812 UDP para establecer sus conexiones.

Cuando se realiza la conexión con un ISP mediante módem, DSL, cablemódem, Ethernet o Wi-Fi, se envía una información que generalmente es un nombre de usuario y una contraseña. Esta información se transfiere a un dispositivo Network Access Server (NAS) sobre el protocolo PPP, quien redirige la petición a un servidor RADIUS sobre el protocolo RADIUS. El servidor RADIUS comprueba que la información es correcta utilizando esquemas de autenticación como PAP, CHAP o EAP. Si es aceptado, el servidor autorizará el acceso al sistema del ISP y le asigna los recursos de red como una dirección IP, y otros parámetros como L2TP, etc.

Una de las características más importantes del protocolo RADIUS es su capacidad de manejar sesiones, notificando cuando comienza y termina una conexión, así que al usuario se le podrá determinar su consumo y facturar en consecuencia; los datos se pueden utilizar con propósitos estadísticos.

RADIUS fue desarrollado originalmente por Livingston Enterprises para la serie PortMaster de sus Servidores de Acceso a la Red(NAS), más tarde se publicó como RFC 2138 y RFC 2139. Actualmente existen muchos servidores RADIUS, tanto comerciales como de código abierto. Las prestaciones pueden variar, pero la mayoría pueden gestionar los usuarios en archivos de texto, servidores LDAP, bases de datos varias, etc. A menudo se utiliza SNMP para monitorear remotamente el servicio. Los servidores Proxy RADIUS se utilizan para una administración centralizada y pueden reescribir paquetes RADIUS al vuelo (por razones de seguridad, o hacer conversiones entre dialectos de diferentes fabricantes)....

RADIUS es extensible; la mayoría de fabricantes de software y hardware RADIUS implementan sus propios dialectos.

Estándares

El protocolo RADIUS actualmente está definido en los RFC 2865 (autentificación y autorización) y RFC 2866 (accounting). Otros RFC relevantes son el RFC 2548, RFC 2607, RFC 2618, RFC 2619, RFC 2620, RFC 2621, RFC 2809, RFC 2867, RFC 2868, RFC 2869, RFC 2882, RFC 3162 y RFC 3576.1.1.

MÉTODOS DE AUTENTICACIÓN

DETALLES DE WEP Y VULNERABILIDAD

Permite cifrado de nivel dos y está basado en el algoritmo RC4, utilizando claves de 64 bits o 128 bits. Emplea suma de comprobación CRC-32 para la integridad.

Para atacar una red Wi-Fi con WEP se suelen utilizar los llamados Packet sniffers y los WEP Crackers. Para llevar a cabo este ataque se captura una cantidad de paquetes determinada (dependerá del número de bits de cifrado) mediante la utilización de un Packet sniffer y luego mediante un WEP cracker o key cracker se trata de "romper" el cifrado de la red.

WPA

Es la abreviatura de Wifi Protect Access, y consiste en un mecanismo de control de acceso a una red inalámbrica, pensado con la idea de eliminar las debilidades de WEP. También se le conoce con el nombre de TSN (Transition Security Network).

WPA utiliza TKIP TKIP (Temporal Key Integrity Protocol) para la gestión de las claves dinámicas mejorando notablemente el cifrado de datos, incluyendo el vector de inicialización. En general WPA es TKIP con 8021X. Por lo demás WPA funciona de una manera parecida a WEP pero utilizando claves dinámicas, utiliza el algoritmo RC4 para generar un flujo de bits que se utilizan para cifrar con XOR y su vector de inicialización (IV) es de 48 bits.

La modificación dinámica de claves puede hacer imposible utilizar el mismo sistema que con WEP para abrir una red inalámbrica con seguridad WPA.

Además WPA puede admitir diferentes sistemas de control de acceso incluyendo la validación de usuario-contraseña, certificado digital u otro sistema o simplemente utilizar una contraseña compartida para identificarse.

WPA2

Es un sistema para proteger las redes inalámbricas (Wi-Fi); creado para corregir las vulnerabilidades detectadas en WPA

WPA2 está basada en el nuevo estándar 802.11i. WPA, por ser una versión previa, que se podría considerar de "migración", no incluye todas las características del IEEE 802.11i, mientras que WPA2 se puede inferir que es la versión certificada del estándar 802.11i.

El estándar 802.11i fue ratificado en junio de 2004.

La alianza Wi-Fi llama a la versión de clave pre-compartida WPA-Personal y WPA2-Personal y a la versión con autenticación 802.1x/EAP como WPA-Enterprise y WPA2-Enterprise.

Los fabricantes comenzaron a producir la nueva generación de puntos de accesos apoyados en el protocolo WPA2 que utiliza el algoritmo de cifrado AES (Advanced Encryption Standard). Con este algoritmo será posible cumplir con los requerimientos de seguridad del gobierno de USA - FIPS140-2. "WPA2 está idealmente pensado para empresas tanto del sector privado cómo del público. Los productos que son certificados para WPA2 le dan a los gerentes de TI la seguridad que la tecnología cumple con estándares de interoperatividad" declaró Frank Hazlik Managing Director de la Wi-Fi Alliance. Si bien parte de las organizaciones estaban aguardando esta nueva generación de productos basados en AES es importante resaltar que los productos certificados para WPA siguen siendo seguros de acuerdo a lo establecido en el estándar 802.11i.

DOCUMENTACIÓN TÉCNICA

Normas NI

Las normas NI son documentos que proporcionan las soluciones de aplicación repetitiva en el ámbito del Grupo IBERDROLA para productos, elementos y equipos, y sus procesos complementarios. En los aprovisionamientos constituyen la especificación técnica que han de cumplir los suministros objeto de las NI y se incluyen como documentación en la publicación de la licitación.

Anexos

En los anexos se informa qué suministradores y fabricantes están calificados en el ámbito del Grupo IBERDROLA para suministrar, fabricar o realizar los procesos objeto de las NI.

Manuales técnicos

En los manuales técnicos se recogen los sistemas y métodos empleados en la planificación, construcción y explotación de las instalaciones de la Unidad de Negocio de Distribución Eléctrica (REDEL).

Proyecto de coherencia normativa

En colaboración con el Ministerio de Industria, Turismo y Comercio y fondos FEDER, IBERDROLA Distribución Eléctrica, S.A.U., está desarrollando un proyecto con el objetivo de asegurar la coherencia de toda la documentación técnica que es utilizada tanto por IBERDROLA Distribución como por personal contratista.

TECNICA DE COMUNICACIÓN

Es el proceso de la transmisión de información técnica a través de la escritura, el habla y otros medios de comunicación a un público específico. La información es útil si el público a quien va dirigida puede realizar una acción o tomar una decisión basada en ésta. (Johnson-Sheehan 7). Los comunicadores técnicos suelen trabajar en colaboración para crear productos para diversos medios de comunicación, incluyendo el papel, el vídeo y el Internet. Los Productos incluyen ayuda en línea, manuales de usuario, manuales técnicos, informes detallados, especificaciones, procesos y manuales de procedimiento, las tarjetas de referencia, hojas de datos, artículos de revistas, patentes, capacitación, documentos de negocios e informes técnicos. Los ámbitos técnicos pueden ser de cualquier tipo, incluyendo las ciencias experimentales y aplicadas, alta tecnología incluyendo computadoras y programas, electrónica, y los procesos y las prácticas de negocios.

Tipos de escritura técnica

La forma más de uso general de comunicación técnica es escritura técnica. Los ejemplos de la escritura técnica incluyen: ofertas de proyecto, notas persuasivas, manuales técnicos, y las guías de usuarios. Una guía de usuario para un dispositivo electrónico incluye típicamente diagramas junto con explicaciones textuales detalladas. El propósito debe servir como meta que el escritor se esfuerza hacia en la escritura.

La identificación de la audiencia afecta a muchos aspectos de la comunicación, del uso de la selección de palabras y de los gráficos para diseñar y de la organización. Una audiencia no técnica no pudo entender, mientras que una audiencia técnica pudo anhelar el detalle adicional porque es crítico para su trabajo. Las audiencias ocupadas no tienen tiempo para leer un documento entero, así que el contenido se debe organizar para la facilidad de la búsqueda, por ejemplo por la inclusión frecuente de los jefes, el espacio blanco y otras señales que dirigen la atención. Otros requisitos varían en las necesidades de la audiencia particular.

Ejemplos:

• En el gobierno: La comunicación técnica en el gobierno es muy particular y detallada. Dependiendo del segmento particular del gobierno (y sin mencionar el país particular), el componente del gobierno debe seguir especificaciones distintas.

• En el Ejército de los Estados Unidos se utiliza Milipulgada-espec. (Especificación militar). Se pone al día continuamente y las comunicaciones técnicas (bajo la forma de manuales técnicos, manuales técnicos electrónicos interactivos, boletines técnicos, etc.) se deben poner al día también.

Adquiriendo Información

El paso siguiente es recoger la información necesaria para lograr el propósito indicado. La información se puede recoger con la investigación primaria, donde el comunicador técnico conduce la investigación de primera mano, y la investigación secundaria, donde el trabajo publicado por otra persona se utiliza como fuente de información. El comunicador técnico debe reconocer todas las fuentes usadas para producir su trabajo. Para asegurarse de que esto esté hecho, el comunicador técnico debe distinguir citas, las paráfrasis, y los resúmenes al tomar notas.

Organizando y resumiendo la información

Antes de escribir el proyecto inicial, todas las ideas se organizan de una manera que haga que los documentos fluyan bien. Una buena manera de hacer esto es escribir todos los pensamientos al azar en un papel, y entonces circular todas las secciones principales, conectar las secciones principales con las ideas favorables con las líneas, y suprimir todo el material inútil.

Una vez que se organiza cada idea, el escritor puede entonces organizar el documento en conjunto. Esto se puede lograr de diversas maneras:

• Cronológico: Esto se utiliza para los documentos que implican un proceso linear, tal como una guía gradual que describe cómo lograr algo.

• Partes de un objeto: Utilizado para los documentos que describen las partes de un objeto, tales como un gráfico que muestra las piezas de un ordenador (teclado, monitor, ratón, etc.)

• De lo simple a lo complejo (o viceversa): Comienza con las ideas de fácil comprensión, y gradualmente va profundizando en ideas más complejas.

• De lo específico a lo general: Se comienza con muchas ideas, y entonces se organizan las ideas en subcategorías.

• De lo general a lo específico: Comienza con muchas ideas, y entonces profundiza más.

Una vez que se organiza el documento entero, es una buena idea crear un esquema final, que mostrará todas las ideas en un documento de fácil comprensión. Crear un esquema hace el proceso entero de la escritura mucho más fácil y ahorrará el tiempo del autor.

Corregir el estilo

El buen estilo hace la escritura más interesante, apelante, o legible. Algunos cambios son realizados opcionalmente, no para la corrección, y pueden incluir:

• Párrafos acortados• Cambio de párrafos• Oraciones cambiantes de voz pasiva a una voz activa• Frases acortadas• Definición de la terminología• Adición de títulos, listas, gráficos

Corregir el contexto

La determinación de la cantidad necesaria de contexto es importante. Se necesita tener un equilibrio entre la exuberancia, que puede llevar a la audiencia a tomar el significado adicional involuntario del texto, y la brevedad, que puede dejar a la audiencia incapaz de interpretar el significado debido a la falta de contexto.

La escritura del primer borrador

Después de que el esquema es completado, el siguiente paso es escribir el primer borrador. El objetivo es anotar las ideas del borrador lo más breve posible. El escritor debe iniciar con la parte que sea mas fácil para el, y escribir el resumen solo después de que se elabore la parte principal.

El formato ABC (Parte Principal, Resumen y Conclusión) se puede utilizar cuando se escribe el primer borrador. El resumen describe el tema que va ser escrito, de manera que el lector conozca lo que el autor va a tratar en el documento. La parte principal o cuerpo es la mayor parte del documento donde los artículos se tratan a profundidad; por último, la sección de conclusiones repite los temas principales del documento.

El formato ABC también se puede aplicar a párrafos individuales, empezando con una oración que indique claramente el tema tratado en el párrafo. Esto es seguido por el tema, y finalmente, el párrafo termina con oración concluyente.

Revisión y Corrección

Una vez que sea diseñado el borrador inicial, la corrección y la revisión puede hacerse para afinar los detalles del documento en una copia final, sugerida por Pfeiffer and Boogard.

MICROSOFT VISIO

Es un software de dibujo vectorial para Microsoft Windows. Visio comenzó a formar parte de los productos de Microsoft cuando fue adquirida la compañía Visio en el año 2000.

Las herramientas que lo componen permiten realizar diagramas de oficinas, diagramas de bases de datos, diagramas de flujo de programas, UML, y más, que permiten iniciar al usuario en los lenguajes de programación.

El navegador Internet Explorer incluye un visor de diagramas Visio, cuya extensión es vsd, llamado Visio Viewer.

Aunque originalmente apuntaba a ser una aplicación para dibujo técnico para el campo de Ingeniería y Arquitectura; con añadidos para desarrollar diagramas de negocios, su adquisición por Microsoft implicó drásticos cambios de directrices de tal forma que a partir de la versión de Visio para Microsoft Office 2003 el desarrollo de diagramas para negocios pasó de añadido a ser el núcleo central de negocio, minimizando las funciones para desarrollo de planos de Ingeniería y Arquitectura que se habían mantenido como principales hasta antes de la compra. Una prueba de ello es la desaparición de la función "property line" tan útil para trabajos de agrimensura y localización de puntos por radiación, así como el suprimir la característica de ghost shape que facilitaba la ubicación de los objetos en dibujos técnicos. Al parecer Microsoft decidió que el futuro del programa residía en el mundo corporativo de los negocios y no en las mesas de dibujo de Arquitectos e Ingenieros compitiendo con productos como AutoCad, DesignCad, Microstation, etc.

AUTODESK AUTOCAD

Es un programa de diseño asistido por computadora para dibujo en dos y tres dimensiones. Actualmente es desarrollado y comercializado por la empresa Autodesk.El término AutoCAD surge como creación de la compañía Autodesk, teniendo su primera aparición en 1982. AutoCAD es un software reconocido a nivel internacional por sus amplias capacidades de edición, que hacen posible el dibujo digital de planos de edificios o la recreación de imágenes en 3D.

AutoCAD es uno de los programas más usados, elegido por arquitectos, Ingenieros y diseñadores industriales. Desglosando su nombre, se encuentra que Auto hace referencia a la empresa creadora del software, Autodesk y CAD a Diseño Asistido por Computadora (por sus siglas en inglés).

Flash es un software (lea sobre el software orientado a vectores aquí) originalmente diseñado para crear animaciones que se pueden usar en páginas web. Usa vectores gráficos que son ideales para la web, porque son ligeros y no consumen muchos recursos.

En las nuevas versiones de Flash, Macromedia ha hecho Flash más y más controlable; esto es usando nuevas herramientas de programación, lo que lo tiene posicionado ya como un competidor para el HTML, en la creación de web sites iteractivos y aplicaciones como e-commerce store. Macromedia argumenta que Flash es el camino en lugar de HTML por las siguientes razones:

• Las películas Flash cargan más rápido lo que ahorra tiempo de descarga; y esto es porque Flash es basado en vectores a diferencia de HTML.

• Flash inteligentemente almacena en caches sus películas, para que no necesiten ser cargadas de nuevo.

• Flash da a los usuarios (Persona viendo/usando la película Flash) una ‘rich-client’ experiencia.

ALGUNAS NORMAS BASICAS DE SEGURIDAD

Las normas básicas de seguridad son un conjunto de medidas destinadas a proteger la salud de todos, prevenir accidentes y promover el cuidado del material de los laboratorios. Son un conjunto de prácticas de sentido común: el elemento clave es la actitud responsable y la concientización de todos: personal y alumnado.

Enfoque sistémico

En los últimos años, los ingenieros han tratado de desarrollar un enfoque sistémico (la denominada ingeniería de seguridad) para la prevención de accidentes laborales. Como los accidentes surgen por la interacción de los trabajadores con el entorno de trabajo, hay que examinar cuidadosamente ambos elementos para reducir el riesgo de lesiones. Éstas pueden deberse a las malas condiciones de trabajo, al uso de equipos y herramientas inadecuadamente diseñadas, al cansancio, la distracción, la inexperiencia o las acciones arriesgadas. El enfoque sistémico estudia las siguientes áreas: los lugares de trabajo (para eliminar o controlar los riesgos), los métodos y prácticas de actuación y la formación de empleados y supervisores. Además, el enfoque sistémico exige un examen en profundidad de todos los accidentes que se han producido o han estado a punto de producirse. Se registran los datos esenciales sobre estas contingencias, junto con el historial del trabajador implicado, con el fin de encontrar y eliminar combinaciones de elementos que puedan provocar nuevos riesgos.

El enfoque sistémico también dedica una atención especial a las capacidades y limitaciones de los trabajadores, y reconoce la existencia de grandes diferencias individuales entre las capacidades físicas y fisiológicas de las personas. Por eso, siempre que sea posible, las tareas deben asignarse a los trabajadores más adecuados para ellas.

PRIMEROS AUXILIOS

Se entiende como primeros auxilios a las técnicas y procedimientos de carácter inmediato, limitado, temporal, profesional o de personas capacitadas o con conocimiento técnico que es brindado a quien lo necesite, víctima de un accidente o enfermedad repentina.

Su carácter inmediato radica en su potencialidad de ser la primera asistencia que esta víctima recibirá en una situación de emergencia. Limitado porque de todas las técnicas, procedimientos y concepciones que existen en la Medicina de emergencias y desastres, solo utiliza una pequeña parte de ídem, por esto el socorrista nunca debe pretender reemplazar al personal médico, pueden ser de primera instancia o de segunda instancia.

Secuencia de atención

Como toda clasificación, es logico la secuencia de atención tiene imperfecciones, y sólo se utiliza como medio didáctico. En caso de ser necesario se deben establecer prioridades en el orden de actuaciones a realizar. Por ejemplo, cuando uno observa la escena y la víctima, desde el mismo momento de advertir el hecho está valorando con sus sentidos una serie de aspectos. Visualmente podemos tener indicios si el área es segura y si la víctima esta consciente, así los primeros auxilios varían según las necesidades de la victima y según los conocimientos del socorrista .saber lo que no se puede hacer es tan importante como saber que hacer , por que una medida terapéutica mal aplicada puede producir complicaciones graves y hasta la muerte.

Los principales pasos seguidos en un primer auxilio son los siguientes:

1. Evaluación del área

• Seguridad.• Escena.• Situación.• ¿Es segura?• ¿Cuántos lesionados hay?• Solicitar ayuda.• ¿Cuento con el equipo de protección necesario?

Por ejemplo, al encontrar a una persona inconsciente y con sospecha de haber recibido una descarga eléctrica o electrocución. La persona que va a atender debe estar segura que no será otra víctima. Si es seguro, brindará la atención. De otro modo, debe llamar al personal especializado en ayuda, sin exponerse.

2. Evaluación inicial del paciente

1. Valoración de la consciencia: Se preguntará a la víctima cómo está, como se encuentra. Si contesta es símbolo inequívoco de que respira y tiene pulso. En caso que no conteste pellizcar levemente en los hombros, si reacciona, seguir la conducta anterior; en caso negativo, llamar a los servicios de emergencias cuanto antes.

Una manera rápida de valorar la conciencia es determinar si responde o no

• Alerta. Está despierto, habla.• Verbal. Responde al llamado, cuando alzamos la voz y lo

llamamos ¡¿Cómo esta?!• Dolor. Responde al dolor, le pellizcamos y reacciona con gestos o

gruñidos.• Inconsciente. No responde.

ERGONOMÍA

• La ergonomía es una ciencia de amplio alcance que abarca las distintas condiciones laborales que pueden influir en la comodidad y la salud del trabajador, comprendidos factores como la iluminación, el ruido, la temperatura, las vibraciones, el diseño del lugar en que se trabaja, el de

las herramientas, el de las máquinas, el de los asientos y el del puesto de trabajo.

PROGRAMA DE PREVENCIÓN DE ACCIDENTES Y LESIONES

Misión

Conocer la repercusión epidemiológica de los accidentes para poder prevenirlos y a la vez normar y gestionar la atención adecuada de los lesionados en estos incidentes.

Visión

Reducir la mortalidad, disminuir las lesiones por accidentes y crear un órgano colegiado que investigue, proponga, determine y evalúe las políticas nacionales para la prevención y control de accidentes.

Los accidentes son responsables de un gran número de muertes, desde hace 5 años ocupa invariablemente el sexto lugar dentro de las diez principales causas de muerte en el Estado de Yucatán. Son uno de los principales problemas de salud pública por su contribución a la carga de la mortalidad como en discapacidad por lo que es necesario establecer políticas, estrategias, programas y acciones para la prevención de lesiones, fundamentadas en un sistema de vigilancia epidemiológica que permita observar y actuar en cada municipio para reducir la morbi-mortalidad atribuible a los accidentes.

1. Impulsar y fortalecer las acciones de prevención con un enfoque intersectorial e involucrar a organismos gubernamentales, legislativos, asociaciones profesionales, medios de comunicación, organismos no gubernamentales, instituciones académicas, organismos del sector privado y de la sociedad en general.

2. Adecuar los sistemas de registro, proceso, almacenado y análisis de la información

3. Difundir la Norma Oficial Mexicana NOM-020-SSA2-1994, para la Atención medica en unidades móviles tipo ambulancia.

4. Promover la atención integral de los lesionados en accidentes, implementando el centro regulador de urgencias médicas.

5. Evaluar los resultados de las acciones y estrategias6. Promover en las comunidades y municipios el desarrollo de la cultura de

la prevención.7. Capacitar al personal de salud sobre la vigilancia epidemiológica de los

accidentes8. Analizar periódicamente los datos obtenidos en la vigilancia para

implementar las estrategias de prevención necesarias.9. Coordinar el Consejo Estatal para la Prevención de Accidentes

(COEPRA) :

• Impulsar un programa de comunicación social que ayude a desarrollar la

cultura de la prevención en la población.

• Trabajar conjuntamente para generar y procesar infamación que permita conocer con precisión las áreas de riesgo y las intervenciones efectivas que deban de implementarse en primer término.

USO DE EXTINTORES DE INCENDIOS

Ante un accidente debe:

Avisar a otras personas para que estén alertas (si se puede>.

- Tomar el extintor adecuado.

- Sujetar firmemente del asa del acarreo y boquilla.

- Desprender la espoleta de seguridad.

- Pruebe el extintor accionando brevemente a través de la palanca de operación.

- Si está operable diríjase al sitio donde se está sucediendo el conato de incendio.

- Tome en cuenta la dirección del viento y ubíquese a favor de él.

- Sitúese a más o menos 1,50 metros del foco del fuego.

- Dirija la boquilla de la manguera hacia la base del fuego.

- Accione la palanca de operación y proceda a hacer el combate del fuego haciendo un movimiento de izquierda a derecha con la boquilla de la manguera y el cuerpo si es necesario.

- Ya extinguido el fuego o terminado el contenido del extintor, retírese del sitio sin dar la espalda.

- Reporte la descarga del extintor y colóquelo en un sitio donde nadie lo use equivocadamente.