21
Los centros de datos pueden ir desde las inmensas instalaciones que dan soporte a Facebook, Google y Amazon hasta instalaciones de co- ubicación que albergan aplicaciones de negocios utilizadas por empresas de todo el mundo. En términos de espacio, pueden variar desde más de 90000 metros cuadrados Tendencia de los Data Center ¿Qué nos espera mañana? Rodriguez Trigoso, kenyn COD: 2011233278 Torrez Rafael, Jesús COD: 2008048992

Redes de Transmición de Datos

Embed Size (px)

DESCRIPTION

fgsdgsdgds

Citation preview

Page 1: Redes de Transmición de Datos

Tendencia de los Data Center

¿Qué nos espera mañana?

Trigoso, kenyn COD: 2011233278Torrez Rafael, Jesús COD: 2008048992

Page 2: Redes de Transmición de Datos

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL

1.- INTRODUCCIÓN. 2

2.- OPINIONES. 3

2.1.- Tendencias del 2015 3

2.2.- Tendencias del 2016 6

3.- CERITICACIONES. 7

3.1.- TIER 1 7

3.2.- TIER 2 7

3.3.- TIER 3 8

3.4.- TIER 4 8

4.- SEGURIDAD. 10

1

Page 3: Redes de Transmición de Datos

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL

1. INTRODUCCIÓN

El estudio de este tema se desarrolla como consecuencia de la relevancia que ha tomado en la actualidad el Data Center en la Organizaciones de diferente naturaleza ya sea de carácter público o privado o en los diferentes sectores de la industria, como el Financiero, Salud, Administración de Justicia, Defensa, Telecomunicaciones, etc.

La importancia radica en que, con el desarrollo de las Tecnologías de la Información y las Comunicaciones y la reducción de sus costos, las diferentes organizaciones tienden a automatizar sus procesos con el fin de lograr mayor efectividad y eficiencia.

La dependencia cada vez mayor de estas tecnologías hace que su operatividad deba estar garantizada por altos niveles de confiabilidad y disponibilidad. Lograr esto es una tarea que definitivamente implica niveles de inversión por parte de las organizaciones, de tal forma que sus procesos coadyuven a un uso más eficiente de las nuevas tecnologías garantizando niveles de servicio aceptables que permitan un desarrollo en el ámbito donde se desenvuelve la organización, un desarrollo que tiene que ser sostenible tomando en cuenta problemáticas de índole global como es el de la conservación del medio ambiente.

Es en este punto donde recurrimos a los estándares internacionales, organizaciones consultivas y de prestigio internacional para que con su aporte, entendiendo la problemática mencionada podamos enfocar soluciones que contribuyan a conseguir que la gestión del Data Center se encuentre alineada a los objetivos estratégicos del negocio.

2

Page 4: Redes de Transmición de Datos

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL

2. Opiniones de Expertos.

El mercado de centros de datos está entrando en un período de transición sin precedentes y el ritmo de este cambio parece acelerarse en 2015. Los centros de datos pequeños propiedad de las empresas están reduciendo su tamaño y, por otro lado, el crecimiento de las megas instalaciones continúa sin cesar.

En este estudio queremos analizar 5 tendencias de los centro de datos para el 2015, y una probabilidad de lo que podría pasar en el siguiente año.

2.1. Tendencia 2015.2.1.1. Lo grande se hace más grande; lo pequeño, más pequeño.

Kevin Leahy, director general para Centros de Datos del Grupo de Dimension Data, explica: 'Hace 1 o 2 años estábamos debatiendo si el centro de datos y la nube estaban listos para ofrecerse juntos. Los clientes estaban preocupados sobre si la nube estaba diseñada para apoyar las cargas de trabajo de producción y los requisitos de cumplimiento. Pero hoy en día, cada CIO con el que hablo no pregunta si se debe mover a la nube. Ahora es una cuestión de cuánto de sus entornos se puede mover a la nube y qué tan rápido pueden hacer la transición'.

Esto tiene consecuencias dramáticas para el propio centro de datos. Las organizaciones necesitan volver a evaluar la cantidad de espacio del centro de datos que se requiere y dónde ubicar los centros de datos restantes.

Por otro lado, los centros de datos de gran tamaño, por lo general propiedad de los proveedores de nube líderes de la industria, no ven otra cosa más que crecimiento en el horizonte. Estas instalaciones gigantes se están expandiendo, ya sea debido al hecho de que están absorbiendo la capacidad transferida por parte de los clientes que buscan explotar el modelo de nube, o simplemente como un resultado de la naturaleza y complejidad de las empresas a las que sirven.

2.1.2. Extraer el valor de la tecnología es más importante que la tecnología en sí misma.

La próxima tendencia en centros de datos que hay que observar es la tecnología, o más bien, la capacidad de liberar su verdadero valor. Leahy explica: 'Cada vez menos, los directores de TI están pidiendo nuestra ayuda con cuestiones de tecnología, ahora están buscando ayuda para actualizar sus procesos operativos para que puedan extraer el máximo valor de sus inversiones en tecnología'.

Frank Casey, director de Servicios Administrados de la firma concuerda: 'Todo es cuestión de madurez interna. Cada cliente con el que hablo está en un nivel

3

Page 5: Redes de Transmición de Datos

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL

diferente de madurez y la mayoría siente que tiene una gran cantidad de trabajo por hacer. El objetivo es mover la organización hacia adelante, de manera estructurada'.

Casey ve la automatización como clave para extraer el máximo valor de la tecnología. 'La mayoría de los equipos de TI están enfocados en asegurar que la infraestructura esté instalada y en funcionamiento, así que debido a la carga de trabajo y la presión del tiempo, no están pensando en cómo pueden generar mayores niveles de automatización'.

Tomar decisiones informadas con respecto a nuevas inversiones en tecnología es fundamental para garantizar la extracción del máximo valor de éstas. El mercado está pasando de componentes basados en hardware y software a uno en el que se ofrecen tecnologías en paquetes con altos niveles de automatización. Sin embargo, no siempre es fácil determinar cómo sacar el máximo provecho de estas tecnologías, y cómo van a interoperar con las infraestructuras ya existentes y las cargas de trabajo que se estén ejecutando en una nube pública.

2.1.3. Agilidad: explorar el arte de lo posible.Treb Ryan, director de estrategia de la Unidad de Servicio ITaaS de Dimension

Data cree que las organizaciones de TI deben utilizar los avances tecnológicos como la nube y el ágil desarrollo de metodologías para explorar el arte de lo posible, probar nuevas ideas y enfoques y... divertirse.

'Muchas organizaciones de TI siguen operando sus centros de datos como lo hicieron hace 20 años, utilizando procesos en cascada y sistemas en modo de reposo. Están perdiendo grandes oportunidades para aprovechar las nuevas arquitecturas y sistemas que les permiten ser más eficaces y más rentables'.

Invertir en tecnología ágil de desarrollo de software es un primer paso para capitalizar estas oportunidades. Los líderes de TI deben inculcar una cultura de la gente, procesos y software trabajando de manera conjunta y que responden a los cambios, en lugar de seguir un plan rígido.

El concepto de facturar la capacidad de TI basada en el consumo es un factor clave de esta transformación. Pero las ventajas se extienden mucho más allá del ahorro de costos por sí solos; este modelo permite a los equipos de TI probar nuevas ideas de forma rápida y desencadenar

4

Page 6: Redes de Transmición de Datos

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL

la innovación, sin arriesgar al negocio. Los desarrolladores pueden probar las cosas sin tener que poner en marcha estructuras formales. Y si algo funciona, perfecto; si no lo hace, entonces pueden volver y probar otra cosa.

2.1.4. ‘Impulsado por software’ se transforma en valor del negocio.El desafío que enfrentan muchas organizaciones es cómo asegurar que sus

iniciativas de implementación de metodologías basadas en la agilidad resulten en un valor del negocio tangible.

Colin McNamara, arquitecto jefe de nube en Nexus comparte algunas de sus ideas y experiencias: 'Una de las herramientas que nuestro equipo de desarrollo ágil de software utiliza en sus operaciones de desarrollo y con los clientes, es el mapeo de flujo de valor. Es un proceso de lápiz y papel que permite visualizar el impacto de sus actividades en el negocio y dar prioridad a sus actividades'.

McNamara cree que las tecnologías de código abierto como OpenStack y OpenDaylight también pueden agregar un valor significativo

2.1.5. Es el momento de ser audaces sobre cómo extraer el valor de la información.

Si bien hay un gran despliegue publicitario en el mercado alrededor de big data y la analítica, la mayoría de las organizaciones están en las primeras etapas de la búsqueda de maneras para obtener más valor de sus datos y encontrar formas de traducirlo en una ventaja competitiva.

Leahy explica: 'La mayoría de los CIOs con los que he hablado han implementado la virtualización y están empezando a explorar y adoptar la nube, pero pocos han hecho frente al desafío de la información, principalmente debido a que requiere la participación de las unidades de negocio. Los equipos de TI y el resto del negocio no están acostumbrados a trabajar tan de cerca'.

Leahy cree que es hora de que los profesionales de centros de datos vayan más allá de la gestión de la infraestructura y traten de encontrar maneras de reducir los costos de almacenamiento y empiecen a explorar el nuevo valor potencial inherente a la información.

Ryan advierte que las decisiones con respecto a los datos y el almacenamiento no se pueden hacer de manera aislada, especialmente en la era de la analítica y el big data. 'El tipo de almacenamiento que se necesita dependerá de lo que quiere lograr con sus datos y cómo quieres lograrlo. No es tan simple como decir: yo quiero entrar en el big data, así que voy a empezar a acceder a las herramientas'.

5

Page 7: Redes de Transmición de Datos

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL

Hadoop y MapReduce se basan en la premisa de que se tiene un acceso rápido de lectura secuencial de discos baratos. Sin embargo, los servidores en nube tradicionales no ofrecen ésta capacidad. Están diseñados para aplicaciones altamente transaccionales. Así que es importante tener en cuenta lo que se quiere hacer con los datos. ¿Quiere realizar transacciones? ¿O quiere archivarlos y posteriormente extraerlos y agregarlos a modelos de big data? También es necesario pensar en cómo se optimizan las aplicaciones para asegurar que los datos se pueden sacar del entorno de almacenamiento cuando sea necesario.

2.2. Tendencia 2016.

En el 2016 parece que más de lo mismo. El uso de la computación en la nube seguirá aumentando, y cada vez tendremos más dispositivos conectados al internet de las cosas. De hecho, a medida que se aclaran las ventajas del “hardware” definido por software y de un diseño más modular, es probable que la adopción de estas tendencias continúe en 2016 y aún más en el futuro.

La seguridad será otra de las grandes tendencias en 2016. Las revelaciones de Edward Snowden, que comenzaron en 2013, provocaron que muchas empresas volvieran a evaluar su situación en cuanto a la seguridad informática. Los proveedores de centros de datos hicieron algo parecido, y a medida que se acerca 2016 es probable que la seguridad en los centros de datos siga evolucionando para asegurar la protección de los datos de los clientes. Podría ser incluso tan simple como asegurar que todo el tráfico que atraviesa los centros de datos esté encriptado, como ya hacen Google y Yahoo.

La mayoría de estos desarrollos en la industria tecnológica acabarán desembocando en la creación de aún más datos, datos a los que habrá que acceder, que habrá que almacenar y también analizar. Esto crea una importante presión sobre los centros de datos a la hora de hacer frente a la demanda, cada vez mayor, de capacidad de computación, almacenamiento y potencia. En cuanto a este último aspecto, la previsión es que los centros de datos examinen exhaustivamente sus necesidades y la posibilidad de que puedan afrontar o no estos requisitos en el futuro.

La cuestión de la capacidad de afrontar necesidades cada vez mayores sin que repercuta en mayores costes o impacte negativamente en el entorno tendrá como consecuencia la puesta en marcha de técnicas de refrigeración más naturales, como el aire frío o el agua marina, por ejemplo.

El centro de datos del futuro será algo en lo que la mayoría de elementos estén virtualizados: servidores, redes, almacenamiento, incluso aplicaciones, y reunidos en una plataforma única a través de la automatización. Serán centros con un potencial de computación y almacenamiento enorme, pero una huella de

6

Page 8: Redes de Transmición de Datos

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL

carbono minúscula. Puede que en 2016 aún no alcancemos este punto, pero las tendencias se dirigen inequívocamente hacia él.

3. CERTIFICACIONES TIER.

TIER es una certificación o “clasificación” de un Data Center en cuanto a su diseño, estructura, desempeño, fiabilidad, inversión y retorno de inversión.

Esta certificación es otorgada por el Uptime Institute, una división independiente de la empresa The 451 Group con sede central en Nueva York. El Uptime Institute está conformado por destacados miembros de la industria de infraestructura de sistemas, consultores especializados y usuarios del servicio a nivel internacional.

Actualmente los certificados TIER han emitido más de 635 certificaciones en centros de datos de al menos 69 países. En otras palabras podríamos decir que esta certificación podría tener la equivalencia a certificaciones como ISO, CMMI o ITIL, pero orientada única y exclusivamente a la evaluación Data Centers.

Los Data Center pueden optar a cuatro tipos de certificaciones TIER, nivel 1, nivel 2, nivel 3 y nivel 4, a continuación detallaremos en qué consiste cada uno de ellos:

3.1. Tier 1:

Es una instalación que no tiene redundadas sus componentes vitales (climatización, suministro eléctrico) y que por tanto perderá su capacidad de operación ante el fallo de cualquiera de ellas.

Puede o no puede tener suelos elevados, generadores auxiliares o UPS. Del mismo modo, las operaciones de mantenimiento derivarán en tiempo

de no disponibilidad de la infraestructura. Disponibilidad del 99.671%.

3.2. Tier 2: Los Datacenters de esta categoría tienen redundados sistemas vitales,

como la refrigeración, pero cuentan con un único camino de suministro eléctrico. Componentes redundantes (N+1)

Tiene suelos elevados, generadores auxiliares o UPS.

Conectados a una única línea de distribución eléctrica y de refrigeración.

Se trata por tanto de instalaciones con cierto grado de tolerancia a fallos y que permiten algunas operaciones de mantenimiento “on line”.

7

Page 9: Redes de Transmición de Datos

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL

Disponibilidad del 99.741%.3.3. Tier 3:

Un Datacenter TIER III además de cumplir los requisitos de TIER II, tiene niveles importantes de tolerancia a fallos al contar con todos los equipamientos básicos redundados incluido el suministro eléctrico, permitiéndose una configuración Activo / Pasivo.

Todos los servidores deben contar con doble fuente (idealmente) y en principio el Datacenter no requiere paradas para operaciones de mantenimiento básicas.

Componentes redundantes (N+1)

Conectados múltiples líneas de distribución eléctrica y de refrigeración, pero únicamente con una activa.

Es requisito también que pueda realizar el upgrade a TIER IV sin interrupción de servicio.

Disponibilidad del 99.982%.

3.4. Tier 4: Esta es la clasificación más exigente e implica cumplir con los requisitos de

TIER III además de soportar fallos en cualquier de sus componentes que inhabilite una línea (suministro, refrigeración).

Conectados múltiples líneas de distribución eléctrica y de refrigeración con múltiples componentes redundantes 2 (N+1), ¿Qué significa esto?, que contaremos con 2 líneas de suministro eléctrico, cada una de ellos con redundancia N+1

8

Page 10: Redes de Transmición de Datos

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL

Según nuestra fuente de Uptime Institute, tenemos estas características principales en función de la clasificación TIER.

4. SEGURIDAD.

9

Page 11: Redes de Transmición de Datos

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL

Si bien las tendencias cambian, la tecnología mejora y las organizaciones deciden nuevas líneas de actuación, la seguridad es un proceso que ha de desarrollarse de forma constante y paralela conforme a las tendencias. Existen tendencias para todo lo que representa la parte “hardware/software” de los Data Centers, pero, ¿y qué ocurre con las partes física y humana de un Data Center? ¿Hay tendencias? ¿Y la seguridad? ¿Sigue aplicándose o hay que tener en cuenta algo que se nos haya escapado a priori? Hagamos un rápido repaso.

Siguiendo un modelo de seguridad de “Defensa en Profundidad” (en inglés, Defense in Depth) rápidamente se puede apreciar que la seguridad física es el vector de amenaza más vulnerable y fácil de explotar.

La penetración física ofrece al potencial atacante acceso a información sensible sin tener que salvar grandes medidas de seguridad tecnológicas, y por lo tanto no es necesario poseer un gran background técnico, ni ser un gran “hacker”. Por la naturaleza de cómo se desarrolla un ataque físico, podríamos decir que es uno de los más difíciles de prevenir, detectar y cuantificar, y uno de los más tentadores en lo que al atacante se refiere, dado el potencial volumen de información al que se puede acceder en un tiempo relativamente corto.

Cuando se trata el tema de los CPD y su seguridad, generalmente se tiende a eliminar de la escena al ser humano. ¡Craso error! Las personas también son un vector de amenaza a tener en cuenta. La ingeniería social, el acceso a equipos de forma incontrolada, por personal no imprescindible, entre otros, representan factores de riesgo que se han de evaluar y medir para poder mitigar.

Pero, ¿qué medidas de seguridad deberían de tenerse en cuenta en el planeamiento, ubicación, construcción, y operación/explotación de un CPD? ¿Qué medidas de seguridad son la línea base de partida? Las siguientes son las más importantes:

4.1. Ubicación y Construcción. Ubicación física del lugar de emplazamiento: evaluación ante posibles

desastres naturales, desastres producidos por el hombre, infraestructuras necesarias para su servicio (principalmente acometidas eléctricas), utilización de las zonas aledañas…

10

Page 12: Redes de Transmición de Datos

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL

Perímetro del lugar de emplazamiento: seguridad del perímetro en la zona de ubicación del Data Center, vigilancia, razones de diseño constructivo del edificio, puntos de acceso y evacuación…

Centros de cálculo: infraestructuras de control y vigilancia en el acceso a salas, seguridad ambiental (temperatura, humedad, prevención de incendios), zonas comunes y zonas compartidas, dársenas de carga y descarga de materiales…

Equipamiento del edificio y mantenimiento: sistemas de frío y calor, acometidas eléctricas, sistemas de destrucción de información en soporte físico (papel, CDs, etc.), sistemas de monitorización para vigilancia en el NOC (Network Operation Center, en español, Centro de Operaciones de Red).

4.2. Personas. Personal externo: controles aplicados al servicio de vigilancia, servicio de

limpiezas, ingenieros y visitantes.

Personal interno: concienciación en materia de seguridad, involucración del personal en la seguridad del edificio y en sus planes de seguridad y de recuperación ante desastres (que cada profesional sepa lo que tiene que hacer en caso de urgencia o emergencia) y diseminación de las políticas corporativas de seguridad, hasta su arraigo corporativo.

4.3. Plan de Prevención, Continuidad y Recuperación ante Desastres.

RA, Risk Assessment, o Evaluación de Riesgos BCP, Business Continuity Plan, o Plan de Continuidad de Negocio (porque

las cosas pueden suceder…) DR, Disaster Recovery, o Plan de Recuperación ante desastres (… y hay que

tener planeado como salir de la situación).

Importante: RA+BCP+DR… ¡¡¡Ha de ser un proceso continuo!!!

11

Page 13: Redes de Transmición de Datos

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL

5. EL MERCADO DE DATA CENTERS DE AMERICA LATINA

Los mercados de data centers de América Latina continúan su expansión a pesar del contexto macroeconómico, caracterizado por el comienzo de un período de crecimiento más lento a partir de finales de 2014.

Ciertamente hay matices entre los 20 países de la región, y Brasil se destaca por ser el mayor y más maduro de los mercados por adoptar las principales tendencias globales de TI. Analytics, Internet de las Cosas (IoT) y el crecimiento de los juegos se encuentran entre los principales impulsores de tecnología en Brasil.

La privacidad y seguridad de datos es también una gran preocupación para los líderes de TI en Brasil, y debido a esto las empresas tienden a mantener la información y los procesos “in house” en lugar de externalizar estas áreas.

Por su parte, en el resto de la región también se destaca la influencia de muchas de las mismas tendencias de TI que impulsan la demanda a nivel mundial: más servicios de TI y tecnologías con mayores capacidades de procesamiento, almacenamiento y flexibilidad, capaces de responder más rápido a la demanda.

Las grandes tendencias regionales de outsourcing incluyen la adopción de cloud computing y outsourcing de TI, que en la actualidad son una parte importante de la mayoría de las estrategias de crecimiento de los proveedores de servicios de data centers.

Acreditaciones

A su vez, el entorno competitivo entre los proveedores es fuerte, lo que ha llevado a estos a hacer más esfuerzos para obtener acreditaciones de diseño de infraestructuras y construcción, tales como el Tier II, III y IV, concedidos por el Uptime Institute, además de otras acreditaciones muy instauradas como ISO 9001, concedida por el TÜV Rheinland en Brasil, e ICREA y el Organismo Argentino de Acreditación (OAA).

Las nuevas construcciones también han impulsado la creación de empresas locales especializadas en el diseño y construcción de data centers, mientras que hay una gran demanda de los estándares de certificación de calidad para el diseño, construcción, administración, operación, mantenimiento y adquisición de los entornos de infraestructura de TI.

Esta tendencia regional por acreditaciones internacionales es un boom, aunque no una sorpresa, en Brasil, Costa Rica, México y Chile. Asimismo le consiguió a Colombia sus primeras dos acreditaciones de Uptime, por los data centers de BT Latam (Tier IV) y Level3 (Tier III), mientras que las acreditaciones se extendieron a data centers de mercados pequeños como un Tier III acreditado a CNT en Ecuador, un Tier III para Antel en Uruguay, y un Tier III para Telefonica Celular del Paraguay, por el data center de Tigo en Asunción.

5.1. Parques tecnológicos

12

Page 14: Redes de Transmición de Datos

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL

Además, el sector de las TIC está impulsando la creación de polos tecnológicos y parques empresariales en las ciudades capitales, como Santiago, Lima, Quito y Montevideo, y también en ciudades más pequeñas. En el caso de Colombia, se identificaron siete ciudades para convertirse en potenciales "ciudades inteligentes". En estos polos tecnológicos y parques empresariales es donde se encuentran los nuevos data centers (pequeños, grandes y megas), las universidades, los edificios municipales, los hospitales y las distintas agencias estatales.

5.2. Cloud y SDN

Por otra parte, la inversión en tecnología de arquitectura cloud continúa figurando regularmente entre los proveedores especializados de data centers. Sin embargo, dado el papel destacado que desempeñan las compañías telefónicas en el mercado regional de data centers, tienen la oportunidad de fortalecer aún más su posición en comparación a los proveedores especializados y a empresas de tecnología global.

Aunque el paso a SDN (software-defined networking) parece incipiente, el gigante Cisco ha sugerido que la industria está a dos años de cosechar los beneficios de esta tecnología. Cisco también insiste en que América Latina va a la par del mundo desarrollado y está preparada para adoptar la tecnología a la misma velocidad. Se espera que las empresas de telecomunicaciones líderes de la región, Telefonica y América Móvil / Telmex, ambas con la cobertura más completa de América Latina, jueguen un papel importante en el logro de la transición a SDN a escala regional.

SDN y NFV (Network Functions Virtualization) son requeridos para facilitar un mejor rendimiento de la red, alentando aún mayor rendimiento del tráfico, lo que significa que habrá una creciente necesidad de redes de distribución de contenidos (CDN), añadiendo a la carga de trabajo del data center / nube.

5.3. Instalaciones

Respecto a las instalaciones, en toda la región en su conjunto la calidad de las instalaciones de los proveedores de data centers ha mejorado, y tanto los mismos proveedores como los clientes se han vuelto más exigentes en cuanto a los estándares de servicio y a obtener las acreditaciones internacionales de calidad, haciendo a los mercados más competitivos.

Ya ha habido ciclos de optimización de instalaciones y como resultado, la industria se ha ido alejando de los primeros data centers que fueron adaptaciones (hoy conocidos como “legacy”) y no concebidos en su origen como tales. La tendencia actual es construir data center especialmente diseñados. Esta evolución hoy es casi completa y se observa con mayor claridad en Brasil, México, Chile, Costa Rica y Colombia, que avanzan en una fase de madurez con relación a la aplicación de normas internacionales.

5.4. Centroamérica y Caribe

13

Page 15: Redes de Transmición de Datos

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL

A su vez, los mercados de Centroamérica y el Caribe se encuentran en diferentes niveles de desarrollo y madurez. En Centroamérica, Costa Rica y Panamá cuentan con la infraestructura y los servicios de data centers más desarrollados, mientras que Guatemala, Nicaragua, Honduras y El Salvador son los recién llegados al mercado TIC. También salen a la palestra de contextos sociales muy humildes. En la cuenca del Caribe, las islas más grandes de la República Dominicana y Jamaica han experimentado el crecimiento más rápido, atrayendo algunos nuevos entrantes.

Esto también ha ocurrido en las islas más industrializadas como Trinidad y Tobago, una nación rica en petróleo y gas, y en Curazao, una pequeña isla frente a la costa venezolana con un data center Tier IV. En general, las instalaciones son pequeñas en comparación con los de otros mercados, pero la tendencia es de construir y ampliar de acuerdo a la demanda del cliente.

14