12
Ángel Ceballos INVESTIGACION TRABAJO DE INVESTIGACION

Investigacion 5

  • Upload
    angel

  • View
    222

  • Download
    4

Embed Size (px)

DESCRIPTION

temas de investigación

Citation preview

Page 1: Investigacion 5

Ángel Ceballos

INVESTIGACION TRABAJO DE INVESTIGACION

Page 2: Investigacion 5

INTRODUCCION

A continuación se presenta una investigación acerca de

los temas siguientes:

Red

Tropología

Firewall

Dirección ip

Tcp/ip

Switch

Tipos de red

Page 3: Investigacion 5

RED El primer indicio de redes de comunicación fue de tecnología telefónica y telegráfica.

En 1940 se transmitieron datos desde la Universidad de Darmouth, en Nuevo Hampshire,

a Nueva York. A finales de la década de 1960 y en los posteriores 70 fueron creadas

las minicomputadoras. En 1976, Apple introduce el Apple I, uno de los primeros ordenadores

personales. En 1981, IBM introduce su primer PC. A mitad de la década de 1980 los PC

comienzan a usar los módems para compartir archivos con otros ordenadores, en un rango de

velocidades que comenzó en 1200 bps y llegó a los 56 kbps (comunicación punto a

punto o dial-up), cuando empezaron a ser sustituidos por sistema de mayor velocidad,

especialmente ADSL.

Descripción básica

La comunicación por medio de una red se lleva a cabo en dos diferentes categorías: la capa

física y la capa lógica.

La capa física incluye todos los elementos de los que hace uso un equipo para comunicarse

con otros equipos dentro de la red, como, por ejemplo, las tarjetas de red, los cables, las

antenas, etc.

La comunicación a través de la capa física se rige por normas muy rudimentarias que por sí

mismas resultan de escasa utilidad. Sin embargo, haciendo uso de dichas normas es posible

construir los denominados protocolos, que son normas de comunicación más complejas

(mejor conocidas como de alto nivel), capaces de proporcionar servicios que resultan útiles.

Los protocolos son un concepto muy similar al de los idiomas de las personas. Si dos

personas hablan el mismo idioma, es posible comunicarse y transmitir ideas.

La razón más importante (quizá la única) sobre por qué existe diferenciación entre la capa

física y la lógica es sencilla: cuando existe una división entre ambas, es posible utilizar un

número casi infinito de protocolos distintos, lo que facilita la actualización y migración entre

distintas tecnologías.

Componentes básicos de las redes

Para poder formar una red se requieren elementos: hardware, software y protocolos. Los

elementos físicos se clasifican en dos grandes grupos: dispositivos de usuario final (hosts) y

dispositivos de red. Los dispositivos de usuario final incluyen los computadores, impresoras,

escáneres, y demás elementos que brindan servicios directamente al usuario y los segundos

son todos aquellos que conectan entre sí a los dispositivos de usuario final, posibilitando su

intercomunicación.

El fin de una red es la de interconectar los componentes hardware de una red , y por tanto,

principalmente, las computadoras individuales, también denominados hosts, a los equipos que

Page 4: Investigacion 5

ponen los servicios en la red, los servidores, utilizando el cableado o tecnología inalámbrica

soportada por la electrónica de red y unidos por cableado o radiofrecuencia. En todos los

casos la tarjeta de red se puede considerar el elemento primordial, sea ésta parte de un

ordenador, de un conmutador, de una impresora, etc. y sea de la tecnología que sea

(Ethernet, Wi-Fi, Bluetooth, etc.)

Software

Sistema operativo de red: permite la interconexión de ordenadores para poder acceder a los

servicios y recursos. Al igual que un equipo no puede trabajar sin un sistema operativo, una

red de equipos no puede funcionar sin un sistema operativo de red. En muchos casos el

sistema operativo de red es parte del sistema operativo de los servidores y de los clientes.

Software de aplicación: en última instancia, todos los elementos se utilizan para que el

usuario de cada estación, pueda utilizar sus programas y archivos específicos. Este software

puede ser tan amplio como se necesite ya que puede incluir procesadores de texto, paquetes

integrados, sistemas administrativos de contabilidad y áreas afines, sistemas especializados,

correos electrónico, etc. El software adecuado en el sistema operativo de red elegido y con los

protocolos necesarios permiten crear servidores para aquellos servicios que se necesiten.

Hardware

Para lograr el enlace entre las computadoras y los medios de transmisión (cables de red o

medios físicos para redes alámbricas e infrarrojos o radiofrecuencias para redes inalámbricas),

es necesaria la intervención de una tarjeta de red, o NIC (Network Card Interface), con la cual

se puedan enviar y recibir paquetes de datos desde y hacia otras computadoras, empleando

un protocolo para su comunicación y convirtiendo a esos datos a un formato que pueda ser

transmitido por el medio (bits, ceros y unos). Cabe señalar que a cada tarjeta de red le es

asignado un identificador único por su fabricante, conocido como dirección MAC (Media

Access Control), que consta de 48 bits (6 bytes). Dicho identificador permite direccionar el

tráfico de datos de la red del emisor al receptor adecuado.

El trabajo del adaptador de red es el de convertir las señales eléctricas que viajan por el cable

(ej.: red Ethernet) o las ondas de radio (ej.: red Wi-Fi) en una señal que pueda interpretar el

ordenador.

Estos adaptadores son unas tarjetas PCI que se conectan en las ranuras de expansión del

ordenador. En el caso de ordenadores portátiles, estas tarjetas vienen en formato PCMCIA o

similares. En los ordenadores del siglo XXI, tanto de sobremesa como portátiles, estas tarjetas

ya vienen integradas en la placa base.

Page 5: Investigacion 5

TROPOLOGÍA

Es el tercero de los cuatro sentidos bíblicos medievales y el segundo de los sentidos espirituales (/ alegoría).

Propiamente un «tropo» es un modo, una figura o un giro de palabras con el que una expresión designa un objeto distinto del que tiene su sentido natural.

Este hecho explica por qué originalmente la tropología se tomó como sinónimo de alegoría y también de anagogía. Así usarán este término Orígenes, Eusebio, Jerónimo, Dídimo. Será Diodoro de Tarso el que, reaccionando contra los abusos del alegorismo alejandrino, cargará de contenidos negativos y aislará el término de alegoría, distinguiéndolo así de la tropología. El malestar en el uso del término alegoría se advertirá igualmente en algunos autores occidentales alegorizantes, como Hilario, Rufino, Ambrosio, Jerónimo, Agustín, y esto servirá para mantener clara su distinción de la tropología.

Basándose en Rufino y en Jerónimo, Juan Casiano amplía la tripartición de los sentidos de la Escritura, añadiendo un cuarto sentido: distinguirá para ello la interpretación histórica o literal de un texto, de la inteligencia espiritual que puede ser tropológica, alegórica y anagógica. En adelante, y durante toda la Edad Media, la tropología indicará el sentido moral o, más exactamente, los fundamentos de la antropología cristiana que hay que buscar en la Escritura. En ella, considerada por los medievales como un libro polisémico de infinitos significados, era posible encontrarlo todo. Este explica por qué en la Edad Media no surgieron tratados de las diversas disciplinas teológicas. No era necesario. Bastaba con hacer exégesis, iluminados por uno de estos cuatro sentidos: literal, alegórico, tropológico o anagógico.

Page 6: Investigacion 5

Firewall

History[edit]

The term firewall originally referred to a wall intended to confine a fire or potential fire within a

building. Later uses refer to similar structures, such as the metal sheet separating the engine

compartment of a vehicle or aircraft from the passenger compartment.

Firewall technology emerged in the late 1980s when the Internet was a fairly new technology in

terms of its global use and connectivity. The predecessors to firewalls for network security

were the routers used in the late 1980s:[3]

Clifford Stoll's discovery of German spies tampering with his system[3]

Bill Cheswick's "Evening with Berferd" 1992 in which he set up a simple electronic "jail" to

observe an attacker[3]

In 1988, an employee at the NASA Ames Research Center in California sent a memo

by email to his colleagues[4] that read, "We are currently under attack from an Internet

VIRUS! It has hit Berkeley, UC San Diego, Lawrence Livermore, Stanford, and NASA

Ames."

The Morris Worm spread itself through multiple vulnerabilities in the machines of the time.

Although it was not malicious in intent, the Morris Worm was the first large scale attack on

Internet security; the online community was neither expecting an attack nor prepared to

deal with one.[5]

First generation: packet filters[edit]

The first paper published on firewall technology was in 1988, when engineers from Digital

Equipment Corporation (DEC) developed filter systems known as packet filter firewalls. This

fairly basic system was the first generation of what is now a highly involved and technical

internet security feature. At AT&T Bell Labs, Bill Cheswick and Steve Bellovin were continuing

their research in packet filtering and developed a working model for their own company based

on their original first generation architecture.[6]

Packet filters act by inspecting the "packets" which are transferred between computers on the

Internet. If a packet matches the packet filter's set of filtering rules, the packet filter will drop

(silently discard) the packet or reject it (discard it, and send "error responses" to the source).

This type of packet filtering pays no attention to whether a packet is part of an existing stream

of traffic (i.e. it stores no information on connection "state"). Instead, it filters each packet

based only on information contained in the packet itself (most commonly using a combination

of the packet's source and destination address, its protocol, and, for TCP and UDP traffic,

the port number).

Page 7: Investigacion 5

TCP and UDP protocols constitute most communication over the Internet, and because TCP

and UDP traffic by convention uses well known ports for particular types of traffic, a "stateless"

packet filter can distinguish between, and thus control, those types of traffic (such as web

browsing, remote printing, email transmission, file transfer), unless the machines on each side

of the packet filter are both using the same non-standard ports.[7]

Packet filtering firewalls work mainly on the first three layers of the OSI reference model, which

means most of the work is done between the network and physical layers, with a little bit of

peeking into the transport layer to figure out source and destination port numbers.[8] When a

packet originates from the sender and filters through a firewall, the device checks for matches

to any of the packet filtering rules that are configured in the firewall and drops or rejects the

packet accordingly. When the packet passes through the firewall, it filters the packet on a

protocol/port number basis (GSS). For example, if a rule in the firewall exists to block telnet

access, then the firewall will block the TCP protocol for port number 23.[9]

Second generation: "stateful" filters[edit]

Main article: Stateful firewall

From 1989–1990 three colleagues from AT&T Bell Laboratories, Dave Presetto, Janardan

Sharma, and Kshitij Nigam, developed the second generation of firewalls, calling them Circuit-

level gateways.[10]

Second-generation firewalls perform the work of their first-generation predecessors but operate

up to layer 4 (transport layer) of the OSI model. This is achieved by retaining packets until

enough information is available to make a judgement about its state.[11] Known as stateful

packet inspection, it records all connections passing through it and determines whether a

packet is the start of a new connection, a part of an existing connection, or not part of any

connection. Though static rules are still used, these rules can now contain connection state as

one of their test criteria.

Certain denial-of-service attacks bombard the firewall with thousands of fake connection

packets in an attempt to overwhelm it by filling its connection state memory.[12]

Third generation: application layer[edit]

Main article: Application level firewall

Marcus Ranum, Wei Xu, and Peter Churchyard developed an Application Firewall known as

Firewall Toolkit (FWTK). In June 1994, Wei Xu extended the FWTK with the Kernel

enhancement of IP filter and socket transparent. This was known as the first transparent

Application firewall, released as a commercial product of Gauntlet firewall at Trusted

Information Systems. Gauntlet firewall was rated one of the number 1 firewalls during 1995–

1998.

Page 8: Investigacion 5

Direcciones IP

Artículo principal: IPv4

Las direcciones IPv4 se expresan por un número binario de 32 bits, permitiendo un espacio de

direcciones de hasta 4.294.967.296 (232) direcciones posibles. Lasdireccionesuj IP se pueden

expresar como números de notación decimal: se dividen los 32 bits de la dirección en

cuatro octetos. El valor decimal de cada octeto está comprendido en el intervalo de 0 a 255 [el

número binario de 8 bits más alto es 11111111 y esos bits, de derecha a izquierda, tienen

valores decimales de 1, 2, 4, 8, 16, 32, 64 y 128, lo que suma 255].

En la expresión de direcciones IPv4 en decimal se separa cada octeto por un carácter único

".". Cada uno de estos octetos puede estar comprendido entre 0 y 255.

Ejemplo de representación de dirección IPv4: 10.128.1.253

En las primeras etapas del desarrollo del Protocolo de Internet,1 los administradores de

Internet interpretaban las direcciones IP en dos partes, los primeros 8 bits para designar la

dirección de red y el resto para individualizar la computadora dentro de la red.

Este método pronto probó ser inadecuado, cuando se comenzaron a agregar nuevas redes a

las ya asignadas. En 1981 el direccionamiento internet fue revisado y se introdujo la

arquitectura de clases. (classful network architecture).2

En esta arquitectura hay tres clases de direcciones IP que una organización puede recibir de

parte de la Internet Corporation for Assigned Names and Numbers (ICANN): clase A, clase B y

clase C.3

En una red de clase A, se asigna el primer octeto para identificar la red, reservando los

tres últimos octetos (24 bits) para que sean asignados a los hosts, de modo que la

cantidad máxima de hosts es 224 - 2 (se excluyen la dirección reservada

para broadcast (últimos octetos en 255) y de red (últimos octetos en 0)), es decir,

16 777 214 hosts.

En una red de clase B, se asignan los dos primeros octetos para identificar la red,

reservando los dos octetos finales (16 bits) para que sean asignados a loshosts, de modo

que la cantidad máxima de hosts por cada red es 216 - 2, o 65 534 hosts.

En una red de clase C, se asignan los tres primeros octetos para identificar la red,

reservando el octeto final (8 bits) para que sea asignado a los hosts, de modo que la

cantidad máxima de hosts por cada red es 28 - 2, o 254 hosts.

Page 9: Investigacion 5

TCP/IP es un conjunto de protocolos. La sigla TCP/IP significa "Protocolo de control de

transmisión/Protocolo de Internet" y se pronuncia "T-C-P-I-P". Proviene de los nombres de dos

protocolos importantes del conjunto de protocolos, es decir, del protocolo TCP y del protocolo IP.

En algunos aspectos, TCP/IP representa todas las reglas de comunicación para Internet y se basa

en la noción de dirección IP, es decir, en la idea de brindar una dirección IP a cada equipo de la red

para poder enrutar paquetes de datos. Debido a que el conjunto de protocolos TCP/IP originalmente

se creó con fines militares, está diseñado para cumplir con una cierta cantidad de criterios, entre

ellos:

dividir mensajes en paquetes;

usar un sistema de direcciones;

enrutar datos por la red;

detectar errores en las transmisiones de datos.

El conocimiento del conjunto de protocolos TCP/IP no es esencial para un simple usuario, de la

misma manera que un espectador no necesita saber cómo funciona su red audiovisual o de

televisión. Sin embargo, para las personas que desean administrar o brindar soporte técnico a una

red TCP/IP, su conocimiento es fundamental.

La diferencia entre estándar e implementación

En general, TCP/IP relaciona dos nociones:

la noción de estándar: TCP/IP representa la manera en la que se realizan las comunicaciones

en una red;

la noción de implementación: la designación TCP/IP generalmente se extiende a software

basado en el protocolo TCP/IP. En realidad, TCP/IP es un modelo cuya aplicación de red

utilizan los desarrolladores. Las aplicaciones son, por lo tanto, implementaciones del protocolo

TCP/IP.

TCP/IP es un modelo de capas

Para poder aplicar el modelo TCP/IP en cualquier equipo, es decir, independientemente del sistema

operativo, el sistema de protocolos TCP/IP se ha dividido en diversos módulos. Cada uno de éstos

realiza una tarea específica. Además, estos módulos realizan sus tareas uno después del otro en un

orden específico, es decir que existe un sistema estratificado. Ésta es la razón por la cual se habla

de modelo de capas.

El término capa se utiliza para reflejar el hecho de que los datos que viajan por la red atraviesan

distintos niveles de protocolos. Por lo tanto, cada capa procesa sucesivamente los datos (paquetes

de información) que circulan por la red, les agrega un elemento de información (llamado encabezado)

y los envía a la capa siguiente.

Page 10: Investigacion 5

El modelo TCP/IP es muy similar al modelo OSI (modelo de 7 capas) que fue desarrollado por la

Organización Internacional para la Estandarización (ISO) para estandarizar las comunicaciones

entre equipos.

Presentación del modelo OSI

OSI significa Interconexión de sistemas abiertos. Este modelo fue establecido por ISO para

implementar un estándar de comunicación entre equipos de una red, esto es, las reglas que

administran la comunicación entre equipos. De hecho, cuando surgieron las redes,cada fabricante

contaba con su propio sistema (hablamos de un sistema patentado), con lo cual coexistían diversas

redes incompatibles. Por esta razón, fue necesario establecer un estándar.

La función del modelo OSI es estandarizar la comunicación entre equipos para que diferentes

fabricantes puedan desarrollar productos (software o hardware) compatibles (siempre y cuando

sigan estrictamente el modelo OSI).

La importancia de un sistema de capas

El objetivo de un sistema en capas es dividir el problema en diferentes partes (las capas), de acuerdo

con su nivel de abstracción.

Cada capa del modelo se comunica con un nivel adyacente (superior o inferior). Por lo tanto, cada

capa utiliza los servicios de las capas inferiores y se los proporciona a la capa superior.

El modelo OSI

El modelo OSI es un modelo que comprende 7 capas, mientras que el modelo TCP/IP tiene sólo 4.

En realidad, el modelo TCP/IP se desarrolló casi a la par que el modelo OSI. Es por ello que está

influenciado por éste, pero no sigue todas las especificaciones del modelo OSI. Las capas del modelo

OSI son las siguientes:

La capa física define la manera en la que los datos se convierten físicamente en señales

digitales en los medios de comunicación (pulsos eléctricos, modulación de luz, etc.).

La capa de enlace de datos define la interfaz con la tarjeta de interfaz de red y cómo se

comparte el medio de transmisión.

La capa de red permite administrar las direcciones y el enrutamiento de datos, es decir, su ruta

a través de la red.

La capa de transporte se encarga del transporte de datos, su división en paquetes y la

administración de potenciales errores de transmisión.

La capa de sesión define el inicio y la finalización de las sesiones de comunicación entre los

equipos de la red.

La capa de presentación define el formato de los datos que maneja la capa de aplicación (su

representación y, potencialmente, su compresión y cifrado) independientemente del sistema.

La capa de aplicación le brinda aplicaciones a la interfaz. Por lo tanto, es el nivel más cercano

a los usuarios, administrado directamente por el software.

Page 11: Investigacion 5

Afortunadamente, todas estas especificaciones son invisibles al ojo del usuario, ya que en realidad

es el sistema operativo el que realiza estas tareas, mientras los drivers de hardware permiten la

SWITCH

Top 10 Best Business Books of the Year – The Globe and Mail

Top 10 Best Books for Business Owners – Inc. magazine

Top 10 Best Books for Federal Leaders – Washington Post

On the Vice-President’s reading list

Switch asks the following question: Why is it so hard to make lasting changes in our companies, in our

communities, and in our own lives? The primary obstacle, say the Heaths, is a conflict that’s built into

our brains. Psychologists have discovered that our minds are ruled by two different systems—the

rational mind and the emotional mind—that compete for control. The rational mind wants a great beach

body; the emotional mind wants that Oreo cookie. The rational mind wants to change something at

work; the emotional mind loves the comfort of the existing routine. This tension can doom a change

effort—but if it is overcome, change can come quickly.

In Switch, the Heaths show how everyday people—employees and managers, parents and nurses—have

united both minds and, as a result, achieved dramatic results:

The lowly medical interns who managed to defeat an entrenched, decades-old medical practice that

was endangering patients.

The home-organizing guru who developed a simple technique for overcoming the dread of

housekeeping.

The manager who transformed a lackadaisical customer-support team into service zealots by

removing a standard tool of customer service.

In a compelling, story-driven narrative, the Heaths bring together decades of counterintuitive research in

psychology, sociology, and other fields to shed new light on how we can effect transformative

change. Switch shows that successful changes follow a pattern, a pattern you can use to make the

changes that matter to you, whether your interest is in changing the world or changing your waistline

An entertaining and educational must-read for executives and for ordinary citizens looking to get out

of a rut."

- PUBLISHER'S WEEKLY

"Witty and instructive."

- THE WALL STREET JOURNAL

Page 12: Investigacion 5

"A must-read."

- FORBES

TIPO DE RED Existen varios tipos de redes, los cuales se clasifican de acuerdo a su tamaño y distribución lógica.

Clasificación segun su tamaño

Las redes PAN (red de administración personal) son redes pequeñas, las cuales están conformadas

por no más de 8 equipos, por ejemplo: café Internet.

CAN: Campus Area Network, Red de Area Campus. Una CAN es una colección de LANs dispersadas

geográficamente dentro de un campus (universitario, oficinas de gobierno, maquilas o industrias)

pertenecientes a una misma entidad en una área delimitada en kilometros. Una CAN utiliza comúnmente

tecnologías tales como FDDI y Gigabit Ethernet para conectividad a través de medios de comunicacióntales

como fibra óptica y espectro disperso.

Las redes LAN (Local Area Network, redes de área local) son las redes que todos conocemos, es decir,

aquellas que se utilizan en nuestra empresa. Son redes pequeñas, entendiendo como pequeñas las redes de

una oficina, de un edificio. Debido a sus limitadas dimensiones, son redes muy rápidas en las cuales cada

estación se puede comunicar con el resto. Están restringidas en tamaño, lo cual significa que el tiempo de

transmisión, en el peor de los casos, se conoce. Además, simplifica la administración de la red.

Suelen emplear tecnología de difusión mediante un cable sencillo (coaxial o UTP) al que están conectadas

todas las máquinas. Operan a velocidades entre 10 y 100 Mbps.

Características preponderantes:

Los canales son propios de los usuarios o empresas.

Los enlaces son líneas de alta velocidad.

Las estaciones están cercas entre sí.

Incrementan la eficiencia y productividad de los trabajos de oficinas al poder compartir información.

Las tasas de error son menores que en las redes WAN.

La arquitectura permite compartir recursos.

LANs mucha veces usa una tecnología de transmisión, dada por un simple cable, donde todas

las computadoras están conectadas. Existen varias topologías posibles en la comunicación sobre LANs, las

cuales se verán más adelante.

Las redes WAN (Wide Area Network, redes de área extensa) son redes punto a punto que interconectan

países y continentes. Al tener que recorrer una gran distancia sus velocidades son menores que en

las LAN aunque son capaces de transportar una mayor cantidad de datos. El alcance es una gran área

geográfica, como por ejemplo: una ciudad o un continente. Está formada por una vasta cantidad de

computadoras interconectadas (llamadas hosts), por medio de subredes de comunicación o subredes

pequeñas, con el fin de ejecutar aplicaciones, programas, etc.

Una red de área extensa WAN es un sistema de interconexión de equipos informáticos geográficamente

dispersos, incluso en continentes distintos. Las líneas utilizadas para realizar esta interconexión suelen ser

parte de las redes públicas de transmisión de datos.

Las redes LAN comúnmente, se conectan a redes WAN, con el objetivo de tener acceso a mejores servicios,

como por ejemplo a Internet. Las redes WAN son mucho más complejas, porque deben enrutar correctamente

toda la información proveniente de las redes conectadas a ésta.

Una subred está formada por dos componentes:

Líneas de transmisión: quienes son las encargadas de llevar los bits entre los hosts