169
Página 1 de 169

Virtualización con VMware - Arquitectura, proyecto, seguridad y feedbacks

Embed Size (px)

Citation preview

Página 1 de 169

Información________________________________________________________________________8Virtualización con VMware Arquitectura, proyecto, seguridad y feedbacks____________8Prologo____________________________________________________________________________8Introducción_______________________________________________________________________8Agradecimientos____________________________________________________________________9Virtualización de Sistemas de Información__________________________________________9Las diferentes áreas de aplicación de la virtualización____________________________91. La virtualización de servidores________________________________________________92. La virtualización del almacenamiento__________________________________________113. La virtualización de las aplicaciones_________________________________________134. La virtualización de los puestos de trabajo___________________________________15

¿Por qué pasar a la virtualización?_______________________________________________151. Reducción de costes CAPEX/OPEX________________________________________________15a. La compra de materiales tipo servidor_______________________________________15b. Compra de hardware de red___________________________________________________15c. Consumo eléctrico___________________________________________________________16d. Necesidades en climatización________________________________________________16e. Consumo de espacio__________________________________________________________16f. Error fatal_________________________________________________________________16g. La copia de seguridad_______________________________________________________17h. El aspecto seguridad________________________________________________________18

2. La facilidad de despliegue y administración___________________________________183. El material obsoleto y la gestión de cambio___________________________________19

El mercado de la virtualización___________________________________________________201. VMware (nuestra elección para este libro)_____________________________________212. Citrix - XEN__________________________________________________________________223. Microsoft_____________________________________________________________________224. Los aspirantes________________________________________________________________23

El Proyecto de Virtualización_____________________________________________________23Preámbulo de un proyecto de virtualización________________________________________231. Definición de la necesidad____________________________________________________232. La noción de perímetro________________________________________________________243. La auditoría preliminar_______________________________________________________24

La definición del perímetro_______________________________________________________241. El enfoque por negocio________________________________________________________25

Página 2 de 169

2. El enfoque por entidad lógica_________________________________________________253. El enfoque por estructura física______________________________________________254. Conclusión____________________________________________________________________26

La auditoría preliminar y la influencia del histórico_____________________________261. Auditoría técnica_____________________________________________________________262. Auditoría organizativa________________________________________________________28

Los requisitos previos y las competencias requeridas______________________________291. Un ROI/TCO aprobado al más alto nivel jerárquico______________________________292. Una sensibilización sobre la gestión de cambios_______________________________303. La elección tecnológica material______________________________________________31a. Fabricante de servidores____________________________________________________31b. Fabricante del material de almacenamiento___________________________________33

Construcción de una Infraestructura_______________________________________________35Introducción______________________________________________________________________35La capa de virtualización (Hipervisor)____________________________________________351. VMware ESX____________________________________________________________________352. Virtual SMP___________________________________________________________________363. Virtualcenter_________________________________________________________________374. VMOTION_______________________________________________________________________385. VMware DRS____________________________________________________________________396. VMware HA_____________________________________________________________________407. VCB___________________________________________________________________________40

La arquitectura de VMware ESX 3___________________________________________________411. La Service Console____________________________________________________________412. El VMkernel___________________________________________________________________413. VMM___________________________________________________________________________424. Matriz de flujo_______________________________________________________________435. Las máquinas virtuales________________________________________________________43a. Definición__________________________________________________________________43b. OS invitado_________________________________________________________________43c. Los archivos de configuración_______________________________________________43d. Hardware virtual Maximal por VM_____________________________________________44e. Las "vmware tools"__________________________________________________________44f. El almacenamiento y las máquinas virtuales__________________________________44g. Los snapshots_______________________________________________________________45

Página 3 de 169

Las grandes orientaciones de arquitectura_________________________________________461. Arquitecturas orientadas a costes_____________________________________________462. Arquitecturas orientadas a rendimiento________________________________________483. Arquitecturas orientadas a disponibilidad_____________________________________48

Recursos y Virtualizacion_________________________________________________________49La potencia de cálculo____________________________________________________________491. Los procesadores______________________________________________________________492. La elección de la asignación y la gestión vCPU________________________________503. Caso práctico_________________________________________________________________514. El principio de los "Shares"__________________________________________________515. Intel VS AMD__________________________________________________________________51

La capacidad de memoria___________________________________________________________521. La capacidad total____________________________________________________________522. La sobreasignación____________________________________________________________523. La gestión transparente de páginas de memoria compartidas_____________________524. El Ballooning_________________________________________________________________535. El Swapping___________________________________________________________________54

El almacenamiento_________________________________________________________________541. Los cuatro tipos de almacenamiento____________________________________________54a. SCSI LOCAL__________________________________________________________________54b. Fibra óptica________________________________________________________________55c. iSCSI_______________________________________________________________________55d. NFS_________________________________________________________________________56

2. El sistema de archivos VMFS___________________________________________________563. Raw Device Mapping____________________________________________________________57

La red____________________________________________________________________________571. La conectividad a nivel físico________________________________________________582. La conectividad virtual_______________________________________________________58

Seguridad y Virtualización________________________________________________________63Repaso de los grandes principios de seguridad_____________________________________63Reto nº 1: asegurar la disponibilidad de las infraestructuras virtuales___________651. La alta disponibilidad de los servidores______________________________________652. La alta disponibilidad del almacenamiento_____________________________________663. La alta disponibilidad de las máquinas virtuales y de las aplicaciones________674. La alta disponibilidad de la red______________________________________________69

Página 4 de 169

5. La supervisión de la infraestructura virtual__________________________________70a. La supervisión de los servidores hosts______________________________________71b. La supervisión del almacenamiento___________________________________________72c. La supervisión de la red____________________________________________________73d. La supervisión de los sistemas invitados, aplicaciones y servicios críticos_74

Reto nº 2: garantizar la integridad y la confidencialidad de los servidores VMware ESX_______________________________________________________________________________751. El problema del aislamiento___________________________________________________75a. Riesgo a nivel de la capa de virtualización_________________________________76b. Riesgo a nivel de la capa de red____________________________________________78c. Riesgo a nivel de la Service Console________________________________________79d. Riesgo a nivel de las máquinas virtuales____________________________________82e. Riesgo a nivel de almacenamiento____________________________________________84f. Riesgo a nivel de Virtualcenter_____________________________________________85

2. Autenticación y autorización__________________________________________________883. Las actualizaciones y las futuras protecciones________________________________90

Reto n°3: luchar contra las consecuencias inherentes de la virtualización_________911. La pérdida de la defensa perimétrica__________________________________________91a. Bypass de las protecciones de red___________________________________________91b. Detección de intrusiones obsoleta___________________________________________92

2. Pérdida de visión de la información___________________________________________923. La criticidad real de los hosts_______________________________________________93

Virtualización y Entornos Críticos________________________________________________93Introducción______________________________________________________________________94¿Qué dificultades tiene la virtualización de entornos críticos?___________________941. Primera dificultad: determinar las dependencias funcionales y técnicas________952. Segunda dificultad: la comprensión de interacciones___________________________953. Tercera dificultad: encontrar métricas fiables________________________________96

¿Cómo determinar la elección de un entorno para la virtualización?________________981. Determinar las características del entorno____________________________________992. Posicionar las posibles optimizaciones para responder a la necesidad_________1003. Buscar un feedback/recurrir a empresas especializadas________________________103

Dos testimonios sobre estudios y pruebas realizadas______________________________1041. Una aplicación para interacciones complejas__________________________________1042. Una aplicación que combina política, presupuesto y problemas técnicos________105

Virtualización y PRD_____________________________________________________________105Página 5 de 169

El plan de recuperación ante desastres___________________________________________1051. ¿Qué entendemos por PRD?_____________________________________________________105a. Definición_________________________________________________________________105b. Los diferentes tipos de desastres__________________________________________106c. RPO y RTO__________________________________________________________________107

2. El PRD: guía de proyecto_____________________________________________________108a. Fase 1: lanzamiento del proyecto de PRD____________________________________109b. Fase 2: estudio funcional (BIA)____________________________________________109c. Fase 3: auditoría de vulnerabilidades (BIA)________________________________110d. Fase 4: análisis de riesgos (BIA)__________________________________________110e. Fase 5: presentación de soluciones_________________________________________111

La sinergia "Virtualización & PRD/PCA"___________________________________________1111. El PRD con presupuesto reducido______________________________________________1112. Superar el aspecto hardware__________________________________________________1123. La virtualización y el RPO/RTO_______________________________________________1134. Limitar la pérdida de datos__________________________________________________115

Casos de empresa_________________________________________________________________1161. Ejemplo con VMware SRM_______________________________________________________1162. Caso clientes________________________________________________________________119

Copia de Seguridad y Restauración________________________________________________119La copia multinivel______________________________________________________________1191. La copia del Hipervisor______________________________________________________119a. La copia de la Service Console_____________________________________________120b. La copia de VMware ESX_____________________________________________________120c. La copia de la configuración de las máquinas virtuales_____________________120

2. La copia de Virtualcenter____________________________________________________1203. La copia de las VM___________________________________________________________120

Los diferentes tipos de copia de seguridad_______________________________________1201. La copia por agente__________________________________________________________1212. La copia a nivel de imagen a través de agente________________________________1223. La copia a nivel de imagen a través de VMware________________________________123

La optimización de la copia de seguridad_________________________________________1241. La copia incremental_________________________________________________________1242. La copia diferencial_________________________________________________________1263. La deduplicación_____________________________________________________________127

Página 6 de 169

Las soluciones de copia optimizadas para las VM__________________________________1291. VCB__________________________________________________________________________129a. VCB a nivel de archivos____________________________________________________129b. VCB a nivel de imagen______________________________________________________129

2. Vizioncore vRanger___________________________________________________________1303. Veeam Backup_________________________________________________________________130

Futuros Retos y Evoluciones de la Virtualización_________________________________131El Provisioning__________________________________________________________________1311. Definición___________________________________________________________________1312. Las Templates________________________________________________________________1323. El Thin Provisioning_________________________________________________________132

La noción de soporte_____________________________________________________________1321. ¿Por qué es un reto?_________________________________________________________1332. ¿Cómo se orienta el mercado?_________________________________________________133

La Capacity Planning_____________________________________________________________1331. Las métricas fiables_________________________________________________________1342. Anticipar a la evolución_____________________________________________________134

Hacia una concentración de arquitecturas_________________________________________1351. Las iniciativas de los fabricantes___________________________________________1352. Nuevos actores… ¿la revolución ha empezado?__________________________________136

¿Qué queda por mejorar?__________________________________________________________1371. Hacia un Hipervisor integrado________________________________________________1372. La estandarización___________________________________________________________1383. El añadido de funcionalidades y el soporte de material_______________________1384. Virtualización y multimedia__________________________________________________139

La virtualización al alcance de las PYME_________________________________________1401. SYSTANCIA____________________________________________________________________1402. Neocoretech__________________________________________________________________140

El Cloud Computing_______________________________________________________________1411. Definición___________________________________________________________________1412. ¿Virtualización y Cloud Computing?___________________________________________1413. Modo de facturación__________________________________________________________1414. Ventajas/inconvenientes______________________________________________________1425. Los actores de mercado del Cloud Computing___________________________________143

GreenIT__________________________________________________________________________143

Página 7 de 169

1. Definición___________________________________________________________________1432. Algunas cifras_______________________________________________________________1433. Virtualización y GreenIT_____________________________________________________1444. Experiencia de GreenIT_______________________________________________________1455. ¿Qué futuro para el GreenIT?_________________________________________________145

Primicia_________________________________________________________________________1461. VMware vShield_______________________________________________________________1462. Cisco Nexus 1000v____________________________________________________________146

InformaciónVirtualización con VMware Arquitectura, proyecto, seguridad y feedbacksEste libro sobre la virtualización con VMware se dirige tanto a directores de sistemas de informacióncomo a arquitectos que deseen comprender el mundo de la virtualización.Proporciona las claves para comprender mejor la gestión de este tipo de proyectos: retorno de lainversión, dificultades de puesta en marcha,elecciones técnicas, visualización de objetivos que sequieran alcanzar,integración en el entorno existente, consecuencias desde un punto de vista deseguridad, validez para arquitecturas y aplicaciones críticas, aporte en el marco de planes de retomade actividad (PRA).El lector descubrirá igualmente la mirada crítica del autor sobre los diferentes actores del mercado,tanto desde un punto de vista técnico como estratégico, lo que le aportará los elementos para hacerselas preguntas necesarias y forjarse su propia opinión. Los feedbacks y las recomendaciones, demúltiples proyectos y despliegues piloto por el autor en PYMES o grandes cuentas y realizadossobre VMware, completan e ilustran eficazmente todos los temas.El libro comienza con una presentación del mercado de la virtualización y de lagestión de proyectos devirtualización (los conceptos, retos, objetivos, etapas...). En los capítulos siguientes, el autordetalla el principio de funcionamiento de una arquitectura virtual con VMware y los diferentescomponentes que participan. El autor insiste en los aspectos de seguridad que muy a menudo se dejan delado y responde a numerosas preguntas que se plantean las RSSI o cualquier otra persona encargada dela conservación de los activos de la empresa. En uno de los capítulos, el autor demuestralacomplementariedad de la virtualización con los planes de reanudación de actividad. Para finalizar,el autor da su visión de futuro de la virtualización, gracias a sus muchas pruebas en primicia y a sufuerte interacción con VMware y ecosistema de asociados.Los elementos complementarios se pueden descargar desde esta página.Página 8 de 169

Philippe GILLETDespués de ser Consultor Senior en seguridad de sistemas de información, en los sectores bancarios,industriales y de las telecomunicaciones, Philippe Gilletes hoy Director General de VIRTUALI, empresalíder en virtualización y seguridad de sistemas de información. Por este motivo, intervieneregularmente en misiones de auditoría y consultoría en estas áreas y considera positivo compartir todaesta experiencia con los lectores de este libro. Muchas empresas han solicitado sus servicios paraarrancar grandes proyectos de virtualización, a menudo con el objetivo de reducir costes. Además,dispone de prestigiosas certificaciones que acreditan su dominio en el área de la seguridad, lagestión de proyectos, la auditoría y sobre todo de la virtualización: CISSP - Certified InformationSystems Security Professionnel, CISA - Certified Information Systems Auditor, CISM - CertifiedInformation Security Manager et VMware Certified Professional.

PrologoIntroducciónVirtualización seguramente es una de las palabras más utilizadas actualmente en las empresas. Estose debe a muchas razones, siendo la principal los beneficios económicos que se pueden conseguir.

La virtualización parece ser la única solución viable a día de hoy para reducir realmente los costesrelacionados con los sistemas de información.

La virtualización tiene impacto sobre multitud de áreas: Sistemas - Aplicaciones - Almacenamiento -Redes y Seguridad. Es por tanto muy importante, antes de abordar un proyecto de virtualización,conocer perfectamente los actores del mercado e identificar el ecosistema asociado.

Dentro de unos años no nos preguntaremos si debemos virtualizar o no. Los expertos están de acuerdosobre el tema: la virtualización es un paso obligatorio para todas las empresas a corto o largoplazo.

Este libro se basa en VMware, líder indiscutible en el mercado de la virtualización. Su objetivo esorientarle lo mejor posible en cada una de las etapas de su proyecto de virtualización y hacer quesus objetivos se cumplan a la perfección. Mas allá de los aspectos puramente técnicos de losproductos de VMware, este libro estudia el impacto organizativo de la virtualización y lasventajas/inconvenientes descubiertos durante numerosos despliegues y consultorías realizadas por elautor.

Como podrá ver, este libro contiene numerosos "feedbacks", con situaciones, necesidades y entornossin ningún punto en común, para ofrecer un panorama real de todas las problemáticas existentes.

El tema Seguridad será especialmente abordado enfocado a la virtualización, ya que durante muchotiempo ha existido una falta de información al respecto.

En último lugar, este libro ofrece una descripción general de lo que sucederá de corto a largoplazo: nuevos actores de mercado, cloud Computing, greenIT, evoluciones funcionales, etc.

Por tanto, este libro está especialmente adaptado para arquitectos o para responsables de sistemasde información.

AgradecimientosMe gustaría dar las gracias a muchas personas en este libro. A mi novia, Raphaelle, que me haapoyado durante toda la escritura. A mis padres y hermanas que me animaron en los malos momentos. Yfinalmente a mis amigos y colaboradores, que me ayudaron a finalizar este proyecto. Quiero agradecerparticularmente a Franck, Virginie, Vanessa, Edouard, Jacques, Yasser, Daniel, Fabrice, Philippe ymuchos otros. Gracias igualmente a Sylvain Sioux de VMware por sus amables correcciones.

También agradecer por adelantado a todos los lectores que me dejarán sus comentarios. Por favor,enviadme vuestros emails a [email protected]

Página 9 de 169

Virtualización de Sistemas de InformaciónLas diferentes áreas de aplicación de la virtualización

1. La virtualización de servidoresLa virtualización es a día de hoy una de las palabras mas utilizadas en nuestras empresas. Sinembargo, pocas personas saben que esta tecnología no es nueva en absoluto. Ésta data de los añosochenta, gracias a unos primeros trabajos de IBM en la materia.

La virtualización no comenzó a interesar a todos los actores del mercado hasta después del año 2000,dos años después del lanzamiento de la sociedad VMware y un año después de la salida de su primerproducto: VMware Workstation 1.0. ¡El punto fuerte de VMware ha sido poner finalmente lavirtualización al alcance de todos!

Por tanto, a VMware se le asocia con virtualización como a Microsoft se le asocia con OS (OperatingSystem). Para comprender la virtualización de servidores, debemos entender todas las sutilezas y lavisión de VMware en este campo.

La virtualización es, según Wikipedia: «La unión de técnicas materiales y/o programas que permitenhacer funcionar sobre una sola máquina varios sistemas operativos y/o varias aplicaciones, separadasunas de otras, como si funcionaran sobre máquinas físicas independientes». Esta unión de técnicas esbastante amplia actualmente, lo que provoca mucha confusión.

Los servidores son los primeros interesados en esta tecnología por muchas razones:

Hasta ahora, la mayoría solamente eran utilizados de un 10 a un 15% en promedio. Los residuosson considerables, sin duda, pero necesarios para garantizar la seguridad y el buenfuncionamiento de las aplicaciones (principio clásico de: «1 aplicación por 1 servidor»).

Son monosistema. No se puede hacer funcionar dos sistemas operativos en paralelo. Un sistemadebe gestionar todos los recursos fisicos disponibles (que está lejos de ser el caso).

Su proliferación es demasiado rápida. Hoy en día, el consumo de espacio y electricidad para losDatacenter es más que crítico.

Los servidores son cada vez más potentes (múltiples núcleos, capacidad de RAM, etc.).

El principio de virtualización de servidores es simple. Consideramos el servidor como un conjunto derecursos (CPU - RAM - DISCOS - RED). Estos recursos son asignados de manera estática o dinámica alos servidores virtuales. Estos servidores virtuales no ven los recursos que le son asignados yestán aislados unos de otros. Un usuario, desde el punto de vista de la red, no verá ningunadiferencia entre un servidor físico y uno virtual. De esta manera pueden coexistir múltiplessistemas operativos en el interior del mismo servidor.

Página 10 de 169

Virtualizar servidores no es tan simple desde un punto de vista técnico. Hay que tener en cuenta quelos sistemas operativos no están concebidos originalmente para ser virtualizados (cosa que parecelógica, ya que la virtualización es un fenómeno reciente). Los sistemas operativos están habituadosa comunicarse al más bajo nivel con el hardware (lo que garantiza mejor un rendimiento).

La virtualización ha existido desde hace tiempo de una forma algo diferente mediante el uso demainframes (VM/CMS por ejemplo).

En el enfoque de la virtualización de servidores X86, es la capa de virtualización la que debecomunicarse con el hardware (es decir, a más bajo nivel). Esto plantea un problema evidente: ¿comopuede el sistema operativo virtualizado comunicarse al más bajo nivel ahora que ya no tiene acceso?

Varios planteamientos son posibles:

Hacer creer al sistema operativo virtualizado que se encuentra en el nivel más bajo (seránecesario interceptar todas las comunicaciones y modificarlas sobre la marcha).

Modificar el sistema operativo virtualizado para que no necesite comunicarse al más bajo nivel(funciona correctamente, pero ¿qué pasa con el soporte?).

Dejar que el sistema operativo virtualizado se comunique a veces directamente, a vecesindirectamente mientras le permite al hardware comunicarse con la capa de virtualización (estoimplica un conocimiento del sistema de virtualización y un uso de funcionalidades devirtualización nativas a nivel de hardware).

Todos estos planteamientos tienen ventajas e inconvenientes. La última parece lógicamente la queasumirían los proveedores de hardware que también quieran invertir en el mercado de lavirtualización. Recientemente, Intel ha lanzado unos procesadores con una opción llamada VT(Virtualization Technology). AMD tambien está en desarrollo de AMD-V (AMD Virtualization).

La virtualización de servidores tiene muchas ventajas:

El mantenimiento de hardware, el consumo eléctrico y las necesidades de espacio y climatizaciónse dividen de forma considerable.

La compra de material ya no es un imperativo para cada implementación.

El hardware obsoleto se queda en un recuerdo.

La seguridad no está dispersa de manera aleatoria.

La compra de componentes de red se reduce (las comunicaciones pueden hacerse dentro de lamáquina virtual).

Los errores no son fatales (posibilidad de marcha atrás).Página 11 de 169

Las copias de seguridad son menos complejas (las máquinas virtuales no son más que simplesarchivos).

Se eliminan prácticamente todas las problemáticas de la implementación.

Es posible crear arquitecturas de alta disponibilidad.

Se facilita la gestión de cambios.

La supervisión en tiempo real se lleva a cabo de una forma mucho más simple.

Este libro está principalmente enfocado a la virtualización de servidores ya que es la etapa másimportante de cualquier proyecto de virtualización de infraestructura y es la que actualmente estámás desarrollada.

2. La virtualización del almacenamientoLa virtualización del almacenamiento es un área de la virtualización que sigue siendo controvertida.Los actores del mercado tienen planteamientos muy diferentes. Cada uno hace el suyo, lo que provocaque todo sea incomprensible para el resto de los mortales.

He aquí la definición que parece más adecuada en este momento:

La virtualización del almacenamiento consiste en abastecerse de almacenamiento físico ydescomponerlo en almacenamiento de carácter lógico. La virtualización del almacenamiento permiteactuar de manera independiente a la localización física de los datos creando un espacio lógico dealmacenamiento.

Aunque pueda parecer impresionante, es una operación que se lleva a cabo en cualquier sistemaoperativo. Windows posee su LDM (Logical Disk Manager) y Linux/UNIX su LVM (Logical Volume Manager). Lavirtualización aquí consiste simplemente en utilizar una capa de software que permita interceptarlas E/S que hará creer al sistema operativo casi cualquier cosa.

La virtualización del almacenamiento también afecta a algunos elementos del almacenamiento dedicado,como las NAS o las SAN. Los actores del almacenamiento han comprendido también los retos de la

Página 12 de 169

virtualización. Así, cada uno ha desarrollado su propia tecnología para poder crear espacios lógicosde datos.

La combinación de muchos elementos de almacenamiento puede dar lugar a un espacio lógico de datos (oLUN: Logical Unit Number) con capacidades escalables (el añadido de elementos de almacenamiento serealiza de forma transparente en el espacio lógico y aumenta la capacidad total). Los fabricantesincluyen cada vez más esta capa de virtualización. Esto permite mejorar día a día el espacio dealmacenamiento y el reparto de E/S. Además, permite resolver problemáticas relacionadas con laevolución. La capacidad de almacenamiento no dependerá de la capacidad física de un elemento, sinoúnicamente de la restricción presupuestaria.

Además, no dependiendo de la noción física, es posible imaginar espacios lógicos de almacenamientoen arquitecturas alrededor de diferentes fabricantes. Así, será cada vez mas común ver programasdedicados a la gestión de espacios de almacenamiento lógicos durante su ciclo de vida.

Página 13 de 169

Las ventajas de la virtualización de almacenamiento son muy numerosas:

Las limitaciones materiales ya no existen. No hay que preocuparse por el fabricante y suinteroperatibilidad.

La evolución se realiza de manera transparente para los sistemas y usuarios.

Se hace más fácil llevar a cabo las operaciones de replicación o de sincronización.

La granularidad está mucho más avanzada (posibilidad de optimizar de una manera más fina).

Las restricciones presupuestarias se pueden adaptar de acuerdo al rendimiento deseado(almacenamiento puro, archivaje, Bases de Datos, etc.).

3. La virtualización de las aplicacionesLa virtualización de las aplicaciones existe actualmente gracias a un pionero del mercado: CITRIX(ahora llamado XEN). Sin embargo, la virtualización de aplicaciones se encuentra todavía en lainfancia. Es por eso que coexisten muchas soluciones que funcionan de manera diferente.

La virtualización de aplicaciones puede consistir en publicar una aplicación instalada en unservidor hacia un equipo cliente. En este último caso, la aplicación no es más que un accesodirecto a la aplicación instalada en el servidor. Todo se ejecuta en el lado servidor en lugarde en el lado cliente. La pantalla de resultados o la interfaz se mostrarán del lado delusuario. Las ventajas son evidentes:

Los clientes no realizan los cálculos pesados.

Se evitan problemas de compatibilidad.

Las instalaciones defectuosas son imposibles (nada se instala localmente).

Las actualizaciones están centralizadas y no es necesario realizar ninguna modificaciónen el lado de los clientes.

Página 14 de 169

La carga de red se reduce.

La virtualización de aplicaciones puede también consistir en la ejecución de software en uncontexto particular. Por ejemplo, podemos imaginar ejecutar una aplicación gráfica sobreWindows XP como si se ejecutara sobre Windows NT4. VMware destaca este aspecto con su productoThinApp. Las ventajas son las siguientes:

No existen conflictos entre sistema, dll, etc. Los paquetes creados son más o menosautónomos dependiendo de la necesidad y del propio contexto.

Las aplicaciones antiguas pueden ser ejecutadas en máquinas recientes y beneficiarse delrendimiento de la máquina que las ejecuta.

Las aplicaciones se benefician de una mayor seguridad ya que se ejecutan en un contextorestringido (principio de sandbox).

Provoca poco impacto en la red.

Las actualizaciones también se centralizan.

Página 15 de 169

XenAPP también ofrece este modo desde hace poco (aunque las diferencias son substanciales).

4. La virtualización de los puestos de trabajoLa virtualización de los puestos de trabajo es la evolución lógica de la virtualización de losservidores. Ya que los servidores son potentes, capaces de ejecutar entornos aislados (MáquinasVirtuales) y fáciles de crear rápidamente, ¿por qué no implementar los puestos de trabajo sobreservidores y visualizar lo que suceda en una máquina virtual a través de simples clientes ligeros?

Las ventajas son evidentes:

Nada se hace en local. La carga está repartida en los servidores (potencia asegurada).

Los puestos de trabajo no dependen del hardware (se acabaron las reparaciones, los cambios dePC, las actualizaciones de hardware, etc.).

El riesgo de fugas de información está más controlado (ningún dato se almacena en local).

Es posible evitar el vandalismo o el robo (el terminal solamente se conecta). Por si solo, nosirve para nada y no es caro.

El consumo eléctrico se reduce.

No es necesario comprar o actualizar el hardware.

¿Por qué pasar a la virtualización?

1. Reducción de costes CAPEX/OPEXLa reducción de costes es un lema extremadamente importante, sobre todo en periodos de recesión...La virtualización es una tecnología que permite realizar ahorros substanciales, pero es convenienteconocer si estos empiezan a verse a corto o largo plazo.

Las empresas distinguen entre 2 tipos de costes:Página 16 de 169

CAPEX (Capital Expenditure): corresponde a los gastos relacionados con inversiones y capital (porejemplo: hardware, software, etc.).

OPEX (Operational Expenditure): corresponde a los gastos relacionados con el funcionamiento de laempresa (por ejemplo: expertos, servicios, consultoría, gestión de proyectos, etc).

He aquí algunos feedbacks sobre proyectos de virtualización llevados a cabo en diferentes entornos yque han ayudado a reducir gastos (los nombres de los clientes no se citan):

a. La compra de materiales tipo servidor

Durante los proyectos de virtualización, el principal ahorro visible de inmediato es lo que tieneque ver con la compra de servidores. Este ahorro está expresado en factor (por ejemplo: factor 6significa que una máquina alojará 6 máquinas virtuales). En ese caso, los ahorros se puedencalcular. Los costes de material se dividen por 6.

Esta división está muy simplificada y no considera los costes de gestión de la virtualización día adía. Hay que tener en cuenta otros aspectos causados por la virtualización. Anteriormente, unservidor físico podía tener varios roles (lo que desde el punto de vista de la seguridad siempreestaba mal visto). Con la virtualización, cada máquina virtual tiene un rol único (en todo caso, hayque esperar que eso será así…). El factor 6 está distorsionado en nuestro ejemplo y es mejortrabajar con un factor inferior.

Por otro lado, hace falta considerar la noción de las licencias de software. La multiplicación delas máquinas virtuales multiplica igualmente la cantidad de licencias, que aumenta considerablementeel precio total. Esto también reduce el factor 6 de nuestro ejemplo.

En resumen, la compra de material se reduce en gran medida (algunos proyectos nos han llevado atrabajar con factores 20), pero evidentemente se deben integrar también todas las nocionessubyacentes.

b. Compra de hardware de red

La compra de componentes de red se reduce en gran medida gracias a la virtualización. Teniendo encuenta que las máquinas virtuales son capaces de comunicarse a través de un mismo host físico, no senecesita ningún componente de red (switch o router). Además, las máquinas virtuales normalmenteestán conectadas desde la misma tarjeta de red o agrupadas sobre la misma interfaz, lo que permiteeconomizar en la compra de componentes de red suplementarios.

c. Consumo eléctrico

En un momento en que la ecología se ha convertido en una prioridad, el ahorro energético es unamanera de desmarcarse de los competidores (sobre todo en el sector del automóvil). La ola verdetambién afectó al sector de los sistemas de información. Los fabricantes anuncian reducciones delconsumo y servidores sin metales pesados (normas RoHS), etc.

La virtualización es una tecnología que permite reducir el consumo eléctrico considerablemente. Enel ejemplo anterior, el consumo eléctrico se reduce por 6. Del mismo modo, este cálculo es demasiadosimplista. Los servidores integran actualmente tecnologías integradas, en los procesadores porejemplo, que permiten regular el consumo eléctrico en función de la carga. En nuestro caso, lavirtualización aumenta en gran medida la carga de los servidores, lo que deja estas tecnologíasobsoletas.

El factor 6 del ejemplo tiene que tomarse entonces con precaución.

d. Necesidades en climatización

Las necesidades en climatización tienen que ver al consumo energético. Si el consumo baja gracias ala virtualización, pasará lo mismo con las necesidades de climatización. Sin embargo, un problema sehace evidente rápidamente. Un Datacenter que aloje infraestructuras virtuales tendrá una cargadinámica y móvil. Dinámica, porque la concentración de más máquinas virtuales sobre un host físicoaumenta el riesgo de la carga. Móvil, porque la carga puede moverse de una plataforma a otra(gracias al reparto de cargas).

Página 17 de 169

La necesidad de climatización debe entonces adaptarse a estas restricciones, cosa que no es fácil.Se necesitará una climatización adaptable a la carga, e igualmente capaz de refrigerar localmente,dependiendo del consumo energético.

e. Consumo de espacio

El consumo de espacio es una desventaja mayor en un Datacenter ya que el espacio no se extiendehasta el infinito, y es extremadamente caro de mantener. Éste es el caso en las PYMES, donde elespacio está reservado en primer lugar a los empleados, y la informática se suele encontrar malubicada.

Las necesidades de espacio se ven ampliamente reducidas gracias a la virtualización, ya que lanecesidad de hardware es muy inferior a la que había anteriormente.

Sin embargo tenga cuidado, ya que muchas empresas, después de haber entendido que se podía integrartodo en un espacio reducido, han decidido concentrarlo todo, con riesgo de perder todo el entorno encaso de un problema mayor (de hecho, la virtualización aumenta la criticidad de los servidores).Esta noción se verá ampliamente en el capítulo dedicado a la seguridad.

f. Error fatal

Aunque los errores están permitidos, es conveniente evitarlos en la medida de lo posible, sobre todoen los entornos críticos. Es por ello que desde que apareció la informática existen las copias deseguridad.

Desafortunadamente, las copias de seguridad son molestas por su pesadez. Algunas veces hacen faltahasta 48 h para restaurar un simple archivo o una semana para restaurar un sistema (siempre que seaposible...). ¿Quién no ha tenido miedo de ejecutar un comando con efecto aleatorio como «root»?¿Quién no tiembla ante la migración de un Active Directory? Los productos son, según los vendedores,todos más milagrosos que los demás. Cierto... pero hay que ser realista. Los usuarios estánconstantemente bajo presión y ¡no pueden conocer todos los pros y contras de un comando o unasolicitud!

Los usuarios normalmente sueñan con: poder volver atrás en todo momento, ¡y con seguridad! Lavirtualización puede al fin cumplir sus deseos.

En efecto, gracias a la virtualización, es posible volver atrás a un instante T (siendo T el momentopresente) -X (siendo X un punto preciso en el tiempo). Esta manipulación es simple y rápida. Sólohace falta pensar en el célebre [Ctrl] Z de Windows que permite deshacer los cambios.

Página 18 de 169

Aunque esta tecnología es fantástica, también tiene consecuencias. Una persona puede querer deshacerun cambio en las modificaciones del sistema, pero no forzosamente en los datos almacenados. Sinembargo, cuando se restaura un sistema a un instante T - X, los datos almacenados en el sistema sonrestaurados a ese preciso instante. Para una base de datos, eso puede tener consecuenciascatastróficas.

Por lo tanto, es una tecnología extremadamente práctica que convendrá dominar perfectamente antes decreer que el milagro podrá producirse sin problemas...

g. La copia de seguridad

En ocasiones, la copia de seguridad está considerada por los expertos como un proyecto complejo quedepende del entorno y de la herramienta de copia seleccionada. Es verdad que en cierta maneradepende bastante de los sistemas operativos presentes y de las aplicaciones instaladas. Las empresashan entendido rápidamente que es posible vender licencias suplementarias adaptadas a nuestrasaplicaciones. Una vez se haya seleccionado la herramienta de copia de seguridad, será difícil darmarcha atrás. Así, el cliente está obligado a pedir licencias de uso para poder utilizar, porejemplo, los agentes Exchange, MSSQL, Oracle, Sharepoint, etc.

Esto ha contribuido a hacer los proyectos de copia de seguridad impopulares; algo lógico porquetienen tanto gasto desde un punto de vista financiero, que es difícil justificar todos los costespara la mayoría de la gente (responsables y financieros por ejemplo).

La virtualización simplifica los procesos de copia de seguridad por la siguiente razón: los sistemasson vistos como simples archivos. Así, la copia de seguridad de un sistema operativo tipo Microsoft,por ejemplo, se hará como una copia de un archivo clásico. No habrá licencias suplementarias,restricciones de sistemas o actualizaciones de los agentes (salvo por la capa de virtualización...aunque ésta no cambia muy a menudo). La operación es tan simple como un copiar-pegar.

La solución parece perfecta, sin embargo, después de muchos feedbacks de los clientes, la realidad noera tan buena como inicialmente se anunció, por varias razones:

Página 19 de 169

Las máquinas virtuales se ven como simples archivos, y es imposible distinguir los datos desistema de una máquina virtual (salvo que las hayamos creado de forma inteligente...).

Las aplicaciones de tipo transaccional o que generan mucha entrada/salida necesitan además unagente en la máquina virtual para no perder ningún dato (ésa es también la recomendación delos desarrolladores en el área de la virtualización).

La copia de seguridad puede generar un mayor impacto en los servidores. Estos están mucho máscargados, y pueden llegar a su límite durante el tiempo dedicado a la copia de seguridad.

La copia de seguridad de máquinas virtuales ofrece poca granularidad. Es difícil restaurar unsimple archivo en una máquina virtual. La tendencia es, entonces, dejar un agente en lasmáquinas virtuales únicamente para la copia de seguridad de los datos.

En conclusión:

Gracias a la virtualización, la copia de seguridad es más segura, ya que los sistemas se copianfácilmente. Sin embargo, esto complica los proyectos de copia de seguridad. Los fabricantes trabajanen este área para poder simplificar la copia de seguridad de los entornos virtuales y es esta razónpor la que han aparecido pequeñas empresas desmarcándose de los fabricantes tradicionales:VizionCore, Veeam, etc.

No cabe duda de que estas empresas recibirán rápidamente sus propuestas de compra... Mientras tanto,¡es aconsejable ir comprobando sus soluciones!

h. El aspecto seguridad

La seguridad es mucho más que un simple proyecto. De hecho, es primordial para la vida de laempresa.

Gracias a la virtualización, es posible reforzar la seguridad (o destruirla... es un arma de doblefilo).

Un capítulo completo está dedicado a la seguridad en la virtualización.

2. La facilidad de despliegue y administraciónEl despliegue de servidores nuevos o de nuevas aplicaciones suele ser problemático en lasestructuras medianas y grandes. Los diferentes actores contribuyen (sin querer) a ralentizar elproceso de integración.

Veamos un pequeño esquema que resume de forma (un poco) exagerada un proceso de integración clásico:

Página 20 de 169

La virtualización permite facilitar en gran medida este proceso. Por un lado, el hardware no debecomprarse ya que es suficiente con crear una nueva máquina virtual. Por otro lado, esto puedehacerse rápidamente de manera automatizada. Antes, la integración podía tardar varios meses. Ahoraunas bastan cuantas horas...

Sin embargo, no hay que pensar que el coste de despliegue es nulo, ya que también necesita licenciasy recursos. ¡La dirección financiera es entonces un actor importante antes de cualquier despliegue!Sin embargo, de la misma manera que es fácil cuantificar los gastos del material físico, serádifícil cuantificar los de los recursos virtuales...

Trabajar de acuerdo con las direcciones financieras es una prioridad para que puedan construir susmétricas válidas en un contexto técnicamente avanzado.

La administración de los entornos virtuales también es una ventaja. Con ella es posible supervisartodas las máquinas virtuales para saber cuánto consumen y comprender sus modos de funcionamiento(ver el capítulo Virtualización y entornos críticos).

Página 21 de 169

3. El material obsoleto y la gestión de cambioSegún Wikipedia , la obsolescencia es el hecho de que un producto llegue a su vencimiento, y portanto pierda todo su valor, desde el punto de vista de la evolución tecnológica o de la moda, aunqueel producto esté en perfecto estado de funcionamiento.

Esta noción aparece muy a menudo en el sector de los sistemas de información. Toda empresa tiene unciclo de vida de material y de aplicaciones. Tomemos un ejemplo concreto. Muchas empresas aún tienenaplicaciones funcionando sobre Windows NT4 o Windows 2000. Si sus servidores dejaran de funcionar,ningún hardware actual sería capaz de soportar hoy en día esos sistemas. Por poco que esasaplicaciones sean críticas, las personas a cargo prácticamente rezan cada día para que losservidores no tengan un colapso. La migración de estas aplicaciones hacia un entorno virtual puederesolver esta problemática. El hardware que soporta los antiguos sistemas virtualizados es reciente.Aunque los fabricantes ya no den soporte a estos sistemas, permanecen estables en el materialsoportado. Esto no resuelve los problemas de actualización, de soporte de fabricantes, etc., perocontribuye a dar un respiro a las empresas para no tener que precipitarse en un nuevo desarrollototal de sus aplicaciones, que costaría una fortuna.

La obsolescencia de material es mucho más reducida ya que las máquinas virtuales son independientesdel aspecto material. Así, la migración de un servidor «obsolescente» a un servidor más reciente nosupondrá ningún problema y se realizará de una forma totalmente transparente.

Página 22 de 169

Sin embargo, hay que imaginar la evolución de las infraestructuras virtuales en el futuro. Lasmáquinas virtuales no tienen porqué ser forzosamente interoperativas entre los diferentes editores yno está garantizado (aunque esto sea una contradicción desde un punto de vista comercial) que lasmáquinas virtuales de un mismo editor (VMware, XEN, Microsoft, etc.) sean compatibles de una versióna otra.

Además de la gestión de cambios, la virtualización aporta muchas mejoras.

La gestión de cambios es uno de los seis procesos de la parte "Servicios de apoyo" de buenasprácticas ITIL.

Un cambio consiste en modificar, crear o suprimir uno de los componentes de la infraestructura de unsistema de información (programa, aplicación, equipamiento, material, configuración, documentación,procedimiento, etc.).

La virtualización permite gestionar los cambios más fácilmente. El ciclo de vida de una máquinavirtual está controlado de una manera mucho más fácil. Además, se puede eliminar material de formatransparente, lo que contribuye a mejorar la gestión del ciclo de vida del material.

Un ejemplo sobre la gestión de cambios en un entorno virtualizado:

La empresa en cuestión forma parte del sector industrial, y ha instalado una infraestructura virtualutilizando los miles de servidores físicos sobre ESX. La empresa cuenta con alrededor de 2.000personas dedicadas a la gestión de SI (Sistemás de Información). Los administradores disfrutan,después de muchos años, de las ventajas de la virtualización. En poco tiempo, el entorno cuenta conunas 10.000 máquinas virtuales. Alrededor de una tercera parte de ellas son las que realmente seutilizan. Eso les conduce a decidir si realizar o no una gestión de cambios real. Este proyecto fuemuy instructivo.

A partir de cierto nivel, realizar un auténtico proceso de industrialización de la virtualización seconvierte en una necesidad. El proyecto consistió en realizar una gestión del ciclo de vida de lasmáquinas virtuales.

Por ejemplo, una máquina virtual debe, obligatoriamente:

Tener un coste fijo calculado según diversos criterios.

Página 23 de 169

Pasar por un proceso de validación (a nivel financiero y técnico).

Estar creada por un usuario formado.

Estar aprobada por los equipos a cargo de la validación técnica: seguridad, sistemas, redes,aplicaciones, etc.

Estar desplegada con un EOL (End Of Life) específico.

Ser archivada o destruida según demanda de su EOL.

El mercado de la virtualización

1. VMware (nuestra elección para este libro)VMware, sociedad comprada por EMC en 2004, es a día de hoy la sociedad líder en la virtualización.Ellos fueron los primeros en imaginar la virtualización sobre máquinas clásicas tipo X86, y a ellosles debemos las primeras versiones de VMware Workstation que transformaron nuestra forma de probarlas aplicaciones y los sistemas operativos.

Algunas cifras de la sociedad VMware:

Creación: 1998, comprada por EMC en 2004, entró en bolsa en agosto de 2007 (NYSE:VMW)

Volumen de negocio: 1330 millones de dólares

Clientes: 120.000, de los cuales el 100% son de la lista de empresas de Fortune 100

Empleados: más de 6.300

Central: Palo Alto, California, Estados Unidos

Oficinas: 36 oficinas en todo el mundo

Partners: 19.000

VMware es una sociedad en busca constante de la innovación. Ellos lanzaron la noción de altadisponibilidad de máquinas virtuales o la de reparto dinámico de cargas, etc. VMware es una sociedadque busca llegar cada día más lejos. Han sido además hábiles al crear una auténtica comunidad deapasionados. Gracias a esto, VMware ha sido un éxito. Los usuarios suelen ser miembros activos quebuscan compartir la experiencia de la virtualización.

Han lanzado numerosas iniciativas:

VMTN: un foro que consiste en una base de datos gigantesca para todos los que busquen:

arreglar problemas técnicos,

experiencias de uso,

sugerir mejoras de los productos de VMware.

VMMARK: un sitio dedicado a los resultados de tests obtenidos de la virtualización. El principioconsiste en tomar las arquitecturas representativas y efectuar tests de carga(http://www.vmmark.com).

VROOM: uno de sus numerosos blogs de VMware dedicado a las pruebas de rendimiento(http://blogs.vmware.com/performance/)

VMware Security Blog: blog dedicado a la seguridad de los entornos virtuales(http://blogs.vmware.com/security/)

http://www.vmware.com/events: los eventos organizados por VMware.

Los libros blancos: http://www.vmware.com/technical-resources

Página 24 de 169

Los documentos técnicos: http://www.vmware.com/resources/techresources/

Hemos elegido VMware en este libro por muchas razones:

Es el único sistema de virtualización completo que actualmente posee experiencia suficiente declientes.

Es el sistema de virtualización más avanzado, tecnológicamente hablando, y que posee unhistorial considerable.

VMware posee soporte de usuario y una comunidad inigualable. El entusiasmo suscitado a partirdel año 2000 nunca se ha perdido y la comunidad se extiende cada día.

Los productos dedicados a producción (actualmente ESX 3.5 y ESXi) son los únicos del mercadocapaces de superar las pruebas de cualificación y validación más exigentes (pruebas de carga,validación de hardware, etc.).

La empresa es más que rentable y es improbable que desaparezca a corto plazo (aunque elcontexto económico global actual no sea favorable...).

VMware posee un número de aliados y partners inmenso, prueba de su saber hacer en marketing ycomercial.

Desde el punto de vista de la seguridad, VMware es la única sociedad que realmente se pronunciasobre el tema. Existen documentos muy precisos desde un punto de vista técnico identificandolas buenas prácticas de seguridad para los entornos virtualizados y las plataformas dealojamiento (veremos próximamente llegar la API VMSAFE y VSHIELD).

VMware posee una visión estratégica a largo plazo. El grupo se ha pronunciado poco al respecto,pero todo apunta a creer que actualmente desarrolla un ecosistema de software dedicado a lagestión de futuros Datacenter (como Cisco...). Igualmente piensan impulsar el fenómeno delCloud Computing.

2. Citrix - XENXEN es un hipervisor de máquinas virtuales, desarrollado por la comunidad Open Source, que permitehacer funcionar varios sistemas operativos sobre la misma máquina host. La sociedad XenSource es laque en gran medida ha contribuido en XEN, que fue comprado por Citrix en 2007.

XenServer es un tipo de producto llamado paravirtualización.

La paravirtualización significa que las máquinas virtuales son conscientes de que no se ejecutansobre una arquitectura de hardware clásico. Por tanto, es necesario adaptar las máquinas virtualespara que se puedan ejecutar correctamente.

Contrariamente a VMware, XEN no emula una arquitectura hardware completa por cada máquina virtual.Sólo el acceso a los recursos está virtualizado, cosa que teóricamente permite aumentar elrendimiento. Hay que tener en cuenta que XEN no permite utilizar máquinas virtuales Windows sin elsoporte de la virtualización hardware Intel-VT y AMD-V. Este detalle no es necesariamente unproblema, ya que todos los servidores recientes incorporan procesadores con estas capacidades.

Citrix es, desde hace mucho tiempo, líder en el mundo de la virtualización de aplicaciones. Tienenun modelo económico muy diferente: Citrix se ha convertido en la competencia sobre el sector de lavirtualización de servidores X86 (con los productos XEN) a la vez que ellos mismos son los dueños dela virtualización de aplicaciones (en todo caso desde cierto enfoque, que parece cada vez másconsistente para muchos expertos).

Citrix tendrá que trabajar su oferta de virtualización de servidores además de rediseñar la devirtualización de aplicaciones. El reto es enorme pero no imposible. Los desarrolladores de CITRIXtrabajan duro en la virtualización de aplicaciones y en su nueva y rebautizada plataforma XenApp(prueba que la compra de XEN también inducirá cambios en sus productos de virtualización deaplicaciones, que antes se llamaban CITRIX Presentation Server).

Página 25 de 169

La oferta de virtualización de servidores: XenServer, también ha tenido un fuerte impulso. Se hanestablecido muchas asociaciones, y Xen se va a beneficiar de los comerciales y equipos de marketingde Citrix. Además, Xen ha sido durante mucho tiempo un producto Open Source, con lo que se han unidoa su alrededor muchos usuarios y desarrolladores apasionados; no ha llegado a tener la popularidadde VMware, pero la base parece muy sólida.

3. MicrosoftWindows Server 2008 Hyper-V es el motor de virtualización (hipervisor) previsto en Windows Server2008. Lamentablemente, Microsoft se perdió la tecnología de la virtualización. Las primerasversiones de su software de virtualización Virtual Server 2005, no convencieron en absoluto alpúblico. Estas son las razones que expresan los expertos:

Falta de comunicación sobre el tema. Microsoft no orientó su estrategia sobre la virtualizaciónsino que produjo un producto tipo «wait for better days», es decir, un producto que buscademostrar que Microsoft trabaja en la virtualización pero que habrá que esperar a futurasversiones antes de poder poner alguna en producción. Desgraciadamente, en este momento, VMwareya posee versiones dedicadas al mundo de la producción...

Contiene un gran número de «bugs» y menor rendimiento.

La imposibilidad de utilizar otros sistemas salvo los de Microsoft (en el caso de que seasoportado).

La gestión de máquinas virtuales (nada práctica y controvertida).

Por tanto, Microsoft quiere volver a la delantera del escenario y cuenta con llegar hasta allíademás de haber ganado la de Internet (con el intento fallido de compra de Yahoo, etc.). Lamaquinaria de guerra de marketing de Microsoft está bien engrasada y tiene un impacto mucho mayorque sus competidores en las empresas. Además, Microsoft tiene argumentos de peso:

La coherencia de entornos Microsoft no puede estar asegurada… salvo por Microsoft (noción dehomogeneidad buscada por las DSI).

El precio de las licencias y la integración nativa en Microsoft Windows Server 2008.

El soporte de máquinas virtuales Microsoft será mejor, por fuerza, si la herramienta queproporciona la virtualización está proporcionada... por Microsoft (problemática de soporte enentorno virtualizado).

Los partners, integrantes y constructores soportarán mucho mejor las iniciativas de Microsoft,por razones político-tecno-financieras.

Sin embargo, Microsoft tiene muchos retos por delante:

La pesadez de su hipervisor (un Hyper-V compacto tipo VMware ESXi es improbable por elmomento).

La seguridad del hipervisor (que será por fuerza sensible a las vulnerabilidades de Microsoft).

Retomar la confianza de los clientes potenciales poco a poco. Sabemos que los productos nosuelen tener una segunda oportunidad en el mundo de los sistemas de información…

La gestión de su hipervisor y de su evolución sobre una gama de productos Microsoft (políticade patching, reinicio necesario, Service Pack, agregado de funcionalidades, etc.).

4. Los aspirantesEntre los aspirantes, algunas empresas han conseguido destacar:

Página 26 de 169

Virtuozzo (de Parallels). Dedicado principalmente al hosting, Parallels atrae cada vez a másempresas, gracias a precios atractivos y a una gestión administrativa comprobada.

KVM, verdadero producto Open Source, integrado de manera nativa en los sistemas Red Hat.Históricamente hablando, Red Hat integraba XEN (antes de que este último fuera comprado por Citrix).Esta decisión comercial ha costó caro a Red Hat. Los clientes que adoptaron Xen en su momento seencontraron en una posición incómoda.

OracleVM: después de la compra de SUN, habrá que seguir muy de cerca a Oracle para comprender suestrategia en materia de virtualización.

El Proyecto de VirtualizaciónPreámbulo de un proyecto de virtualización

1. Definición de la necesidadCuando se estudia un proyecto de virtualización, la primera pregunta que el responsable deinformática se hace es la siguiente: ¿cuál es la inversión inicial necesaria y cuánto tiempo hay queesperar para alcanzar el retorno de inversión? Esta es una cuestión formidable ya que, desde hacealgunos años, la informática está considerada como un centro de coste que necesita constantementemás recursos.

Por otro lado, durante varios años, se han puesto en marcha numerosos proyectos de reducción decostes, gracias a la convergencia (ToIP, VoIP) y a la externalización. Sin embargo, hay queconstatar que muchas empresas no han obtenido los resultados esperados debido a sobrecostes ocultoso problemas técnicos importantes.

«Gato escaldado, del agua fría huye»: ésta es la fórmula que podría resumir la situación actual. Losque deciden quieren soluciones probadas con feedbacks concretos antes de lanzarse o decidirse por unasolución milagrosa. Los desarrolladores de software o de soluciones lo saben bien, ya que cada vezse organizan más ferias, con el objetivo principal de encontrar el máximo número de clientes.

Del lado de la virtualización, este fenómeno se conoce bien, ya que los primeros años fueroncaóticos. Es difícil encontrar información sobre el tema actualmente, pero está claro que durante laprimera fase de la implementación en las empresas piloto, no dio los resultados esperados. Es poreso que fue necesario reorientar la estrategia de comunicación y hacer comprender a los responsablesque un proyecto de virtualización, como todo proyecto, necesita un marco estricto y una definiciónde necesidades perfectamente clara.

Es esencial comprender que un proyecto de virtualización a menudo tiene un perímetro complejo ydenso que es necesario enmarcar bien antes de empezar. El retorno de la inversión es difícil decalcular debido a que contiene numerosas variables. Por tanto, es muy recomendable reducir elperímetro de los proyectos de virtualización a un mínimo durante el primer periodo. Así se reduce lacomplejidad y se puede calcular un ROI (Return On Investment) con mayor fiabilidad. Es muy tentador,para un integrador, por ejemplo, virtualizar al máximo la infraestructura de una empresa. Estemétodo es peligroso y no debería utilizarse salvo en caso de que se domine perfectamente lainfraestructura global.

Una vez el perímetro está establecido, es obligatorio proceder a lo que se llama comúnmente unaauditoría preliminar. Esta auditoría permite determinar la viabilidad del proyecto sobre elperímetro marcado (a esta auditoría también se le llama estudio de viabilidad).

Una vez la auditoría está terminada, hay que reunir a todos los actores del proyecto y decidir unplanning común.

A veces, y más en las grandes cuentas, el perímetro no puede escogerse sin haber realizado unestudio inicial. Este estudio permite seleccionar un cierto número de perímetros a escoger.

Hay que tener en cuenta que una empresa a menudo no es capaz de determinar sus propias necesidades.Hará falta guiarla hacia el objetivo y no buscar agrandar el perímetro a toda costa, a riesgo de noconseguir suficientes compromisos en términos de ROI.

Página 27 de 169

2. La noción de perímetroEl perímetro de un proyecto de virtualización es el elemento más importante para las operacionessiguientes. Su elección es absolutamente crucial, sobretodo cuando una empresa nunca se haenfrentado a entornos virtuales.

De hecho, si el perímetro se elige de forma óptima, tendremos todas las oportunidades de nuestrolado para garantizar el TCO/ROI prometido inicialmente.

Por el contrario, si la fase piloto no funciona, la empresa tendrá la impresión, y con razón, de quela tecnología aún tiene camino para mejorar o hacerse fiable. La primera impresión a menudo es lacorrecta, y la conclusión será que la fase piloto habrá sido un fracaso y aplazará la cuestión de lavirtualización… por unos cuantos años.

A continuación, estudiaremos en detalle los diferentes perímetros posibles y las ventajas einconvenientes de cada uno.

3. La auditoría preliminarComo veíamos antes, la auditoría preliminar es una fase muy importante. Ésta es a la vez técnica yorganizativa.

A menudo, nos encontramos con consultorías que proponen paquetes de software que permiten determinarsi el perímetro es compatible con la virtualización. A esta aproximación le falta singularmentepragmatismo. Tomemos un ejemplo concreto de una experiencia previa:

Una empresa desea virtualizar sus bases de datos ORACLE que contienen sus aplicaciones críticas.Repasando brevemente la herramienta de compatibilidad, llegará a la conclusión evidente de que laplataforma es virtualizable y que habrá que prever N recursos.

Sin embargo, a nivel organizativo, los obstáculos que se encuentran a menudo son los siguientes:

La aplicación está gestionada por una entidad que exige una muy alta disponibilidad y tienencontratados SLA.

Los DBA de Oracle exigen un alto nivel de rendimiento (están sujetos a los compromisosadquiridos…).

El equipo que se ocupa del almacenamiento no sabe cómo gestionar los cambios que hay querealizar para poder acoger la plataforma virtual. Estos necesitan tiempo para determinar lasinversiones necesarias.

La supervisión de los procesos críticos debe igualmente estar integrada en la nuevaarquitectura. Los equipos de supervisión anuncian generalmente un plazo de 6 meses mínimo pararealizar la petición.

Debe hacerse un estudio para determinar los parámetros de configuración de las máquinasvirtuales. Esta configuración debe ofrecer los máximos niveles de rendimiento.

La directiva de seguridad está inquieta. Nunca han tenido que enfrentarse a la problemática dela seguridad de los entornos virtuales y pide un estudio interno para poder así determinar losriesgos (análisis de riesgos).

La directiva de compras se hace preguntas acerca del modelo de licencias Oracle en el entornovirtual. ¿Cómo hacerlo para poder reducir los costes a ese nivel?

La política de Oracle de dar soporte sobre entornos virtualizados es muy difusa.

Esta lista está lejos de ser exhaustiva, pero permite comprender más o menos que la tarea no es nadafácil.

Página 28 de 169

Algunos pueden argumentar que esto pasa con todo gran proyecto de infraestructura y que no es sóloresultado de la virtualización. Eso es cierto, pero la virtualización no se vende como talactualmente, de ahí la advertencia.

El aspecto organizativo obliga a anticiparse a todas las problemáticas. No integrar los aspectosorganizativos desde el inicio y reducir la virtualización a una simple expresión técnica conduciráinevitablemente al desastre. En el mejor de los casos, el proyecto quedará en los cajones.

La auditoría preliminar nos permitirá sintetizar todo, para así poder presentar a los responsablesuna visión global del trabajo que vamos a realizar. Es por eso que es muy recomendable trabajar conempresas especializadas en este campo. Los consultores enviados no deben ser técnicos puros ni jefesde proyecto, pero sí ser capaces de controlar el proyecto de punta a punta y poseer un talentoparticular para la conciliación y la diplomacia (sobre todo los que tengan que enfrentarse connumerosos actores repartidos en muchos departamentos).

La definición del perímetroPara clarificar la situación, vamos a ver las ventajas e inconvenientes de cada enfoque. Asípermitiremos orientarle mejor en función de la situación a la que se tenga que enfrentar.

1. El enfoque por negocioEste enfoque consiste en virtualizar de acuerdo a la estructura jerárquica de la empresa. Tomemospor ejemplo una empresa clásica con el organigrama siguiente: contabilidad, gestión de recursoshumanos, dirección de operaciones, y comunicación.

Un enfoque sería, por ejemplo, tomar como perímetro inicial la estructura de la que se ocupa lacomunicación.

Las ventajas son las siguientes:

Es fácil reagrupar a los actores ya que son los únicos presentes en la estructura que nosconcierne.

Es posible escoger para la prueba piloto la estructura menos dependiente de la plataformainformática.

Sólo un consejo, evite los departamentos que se ocupan de las nóminas…

Un enfoque inteligente podría ser virtualizar aplicación por aplicación y obtener asíinmediatamente un ejemplo de uso (ralentización eventual, bug, cambios constantes, etc.).

Ahora mostraremos los inconvenientes:

La primera reacción del departamento afectado será: "¿Por qué nosotros? ¿Por qué no otrodepartamento? No podemos asumir nuevos problemas..."

Debe obtener obligatoriamente la colaboración de la mayoría de las personas del departamentoafectado. Si existen personas antipáticas o reacias, desgraciadamente habrá que tratar conellas…

Si el departamento está repartido de una forma totalmente dispar (por ejemplo entre variospaíses), será difícil planificar el conjunto del proyecto.

2. El enfoque por entidad lógicaPara simplificar, éste puede considerarse el enfoque más flexible, ya que usted puede tomar aquelloque necesite, mientras el perímetro formado esté bien definido. Por ejemplo, es posible crear una

Página 29 de 169

entidad lógica de 10 servidores, o crear una entidad lógica que comprenda una o varias salasinformáticas.

Las ventajas son las siguientes:

Es muy fácil reducir el perímetro al mínimo, de forma que se pueda controlar perfectamente.

Es posible adaptar cualquier tipo de estructura.

Es interesante poder introducir una lógica en la creación del perímetro, en las estructurasformadas de manera ilógica.

Y ahora los inconvenientes:

Es común encontrarse bajo una entidad lógica de cualquier forma y tipo. Mantener esta mismaestructura lógica a largo plazo es a menudo imposible.

En algunos casos, el reagrupamiento puede densificar la complejidad; por ejemplo, en el caso deque muchas entidades formen parte de la misma agrupación lógica.

Es difícil crear una lógica en un entorno donde no hay necesidad…

Lo que hay que recordar de este enfoque es que a menudo se utiliza para montar entornos de pruebas ode desarrollo para validar la tecnología en sí. El uso para la producción requiere un estudio muchomás profundo.

3. El enfoque por estructura físicaEste enfoque se considera como el menos complicado, ya que reposa sobre una estructura perfectamenteestablecida: la que existe a nivel físico.

Las ventajas son las siguientes:

El perímetro es muy fácil de determinar.

El perímetro está delimitado de forma fuerte. El desbordamiento es imposible.

Es un enfoque apreciado por los responsables ya que es el que se entiende de forma másconcreta.

Y los inconvenientes:

El enfoque físico es evidentemente vinculante ya que no se puede adaptar fácilmente a lasnecesidades de cada uno.

El perímetro puede ser muy complejo en función del tamaño y la heterogeneidad de la estructurafísica.

Está contraindicado partir de una estructura física cuando el principal objetivo de lavirtualización es abstraerse de dicha noción física.

4. ConclusiónEs muy recomendable para las grandes estructuras componer el perímetro utilizando en paralelo los 3enfoques. Por ejemplo:

Usted decide elegir un Datacenter de un país (perímetro físico).

Página 30 de 169

En el Datacenter, usted puede escoger una entidad lógica como, por ejemplo, todos los servidores NECy HP que hayan sido integrados desde hace más de 4 años.

De esos servidores, solamente elegirá aquellos destinados al desarrollo de las aplicaciones internas(enfoque de negocio).

La auditoría preliminar y la influencia del histórico

1. Auditoría técnicaLa auditoría técnica preliminar sirve para determinar con buen criterio el perímetro. Esto es, dehecho, algo técnico, ya que el auditor debe verificar todos los detalles a lo largo de susinvestigaciones.

De forma no exhaustiva, se deberán efectuar:

Profiling: cambio - funcionamiento nominal - recursos afectados, etc.

Inventario de los elementos presentes.

Heterogeneidad del perímetro.

Recuperación de información sobre los procesos, guías y procedimientos utilizados en laempresa, de cara a gestionar los elementos.

Listado de los elementos potencialmente perturbadores: base de datos, aplicaciones críticas,aplicaciones sensibles, aplicaciones sobrecargadas, etc.

Hay mil y una formas de realizar el inventario de un perímetro determinado. La primera etapaconsiste, generalmente, en acercarse a los equipos que éste controla. Igualmente es necesario haceruna comprobación sobre sí mismo (nunca se es demasiado prudente). Las herramientas de red seutilizan a menudo para desmantelar el perímetro. Después, será necesario trabajar con herramientasmucho más orientadas a sistemas para entrar en el corazón del perímetro.

Página 31 de 169

Hay que tener en cuenta que cuanto más heterogéneo es el perímetro, más difícil es virtualizarlo.Así, una fase de la auditoría consiste en determinar los diferentes tipos de elementos presentes enel perímetro. Generalmente, se encontrará con las siguientes categorías:

Sistemas operativos: tipo: (Windows, Linux, Unix, Solaris, etc.), versión (SP2, update 5, etc.) yconfiguración.

Servidores físicos: fabricante (HP, IBM, DELL, SUN, Nec, etc.), modelo y características técnicas(procesadores, memoria, discos, tarjetas de red, tarjetas RAID, etc.).

La red: fabricante (Cisco, Juniper, Alcatel, 3Com, etc.), categoría (Router, Switch, Hub, Firewall,etc.), modelo y configuración.

El almacenamiento: fabricante (EMC, NetAPP, HDS, HP, IBM, etc.), categoría (Middle End, High-End,etc.), modelo y configuración.

Una vez se ha efectuado el trabajo, el auditor debe recuperar el máximo de información sobre eltrato operacional de cada uno de los elementos. Para eso, puede trabajar con los procesos existentesen la entidad que gestionan los elementos diariamente.

¿Por qué es esto necesario? Simplemente porque la virtualización no puede contradecir el ordenestablecido. La virtualización sirve también para mejorar la gestión de las infraestructuras.Aunque, para adaptarse, se hayan hecho determinadas concesiones por los operarios de todos losproyectos de virtualización, es conveniente evitarlo. A menudo esto crea sobrecostes ocultos:procedimientos que hay que reescribir totalmente, formación suplementaria, compra de utilidades,etc.

Un ejemplo simple: la virtualización impacta a menudo sobre la carga del departamento que se ocupade las copias de seguridad (hay un capítulo dedicado a ello). Si la virtualización impone, porejemplo, cambiar la aplicación de copia de seguridad, todo lo que se haya capitalizado por laempresa hasta el momento para esta herramienta se perderá. Tratándose de la copia de seguridad, esun tema que se vuelve costoso rápidamente.

Aquí tenemos una lista no exhaustiva de procesos utilizados comúnmente:

Copia de seguridad

Recuperación

Supervisión

Arranque y parada

Al final, el auditor deberá interesarse por los elementos perturbadores. Este último paso es el másdifícil ya que depende únicamente de la experiencia del auditor. Por tanto es un punto siempresujeto a discusión.

Se dice que un elemento es potencialmente perturbador, si se reconoce como difícilmentevirtualizable.

Atención, esto no significa en ningún caso que no pueda ser virtualizable, sino que indica que habráque poner especial atención a ese elemento en su configuración o en la configuración de la futuramáquina virtual asociada.

Para aportar alguna experiencia al tema, aquí veremos unos ejemplos:

Las bases de datos: son muy codiciosas en recursos y requieren rendimientos excelentes entérminos de entrada/salida (E/S).

Las aplicaciones críticas: deben estar absolutamente disponibles y a menudo instaladas enmáquinas llamadas tolerantes a fallos.

Página 32 de 169

Las aplicaciones sensibles: deben estar absolutamente aisladas del resto de máquinas, ya que suconfidencialidad es extrema.

Las aplicaciones con sobrecarga: soportan muchas solicitudes en términos de recursos, y amenudo se reparten geográficamente para poder homogeneizar la carga.

Las aplicaciones especiales: son las aplicaciones que no entran en el resto de áreas. Porejemplo, una aplicación que necesita un hardware particular para funcionar correctamente(puerto Firewire, Token propietario, etc.)

Los sistemas hiper propietarios: son los sistemas que no pueden virtualizarse porque estánformados para un material específico: HP-UX, AS400, estación alpha, Superdome, etc.

A menudo, las utilidades de mercado de determinación de compatibilidad serán útiles al auditor encaso de duda o para obtener una confirmación.

2. Auditoría organizativaLa auditoría organizativa es sin duda la parte que menos se domina actualmente y la que demanda unacomprensión de aspectos mas allá de lo que es puramente la virtualización. Esto no es un juicio devalores, sino más bien una constatación por la actitud de los editores en este ámbito al comunicarsobre los aspectos de instalación y despliegue de la virtualización.

Página 33 de 169

Para más información, visite http://tinyurl.com/6kfqx4

Si bien es cierto que hoy en día es posible el despliegue rápido y fácil de una infraestructura,sigue siendo difícil evaluar las consecuencias de un proyecto de virtualización de un SI existente(sobre todo si es complejo).

Además, está claro que la posición actual de las sociedades vendedoras de virtualización está másorientada a soluciones técnicas con una lista de tecnologías de virtualización. Es lógico: esdifícil encontrar personas o equipos que dominen tanto el aspecto técnico de la virtualización comola auditoría organizativa de los SI. Los auditores (incluyendo la organización) están buscados y seconservan, por lo que se encuentran pocas veces en proyectos de virtualización.

Así, para paliar el problema, las empresas prefieren pronunciarse sólo sobre el aspecto técnico (y aveces también sobre el aspecto de gestión de proyecto, ya que la tendencia actual es la de colocar acualquiera como jefe de proyecto… pero eso es otro tema).

Es muy aconsejable hacer intervenir a un auditor certificado. Aunque existen numerosascertificaciones, solamente hay una que actualmente concierne a los SI: la CISA (Certified InformationSystem Auditor). Esta certificación la entrega la ISACA (Information System Audit and Control Association) muyconocida en el mundo de los auditores de SI.

Evidentemente es difícil escribir una regla preestablecida que concierna a la forma de auditar un SIpara poder virtualizar el perímetro. Sin embargo, he aquí algunos elementos sobre los quereflexionar:

¿Cuál es la visión estratégica de la empresa a largo plazo (reagrupación, externalización,descentralización, adquisición de filiales, etc)?

¿Cuál es el tiempo de adaptación evaluado de los equipos operacionales sobre el perímetro dadouna vez que la virtualización se haya establecido?

¿Hay un presupuesto previsto para la posible contratación de personal suplementario?

¿La visibilidad del proyecto se percibe a alto nivel?

¿Existe comunicación entre la entidad encargada del proyecto y las entidades potencialmenteimpactadas?

¿Cuál será el tipo de soporte de los nuevos socios/fabricantes?

¿Cómo se gestionarán las incidencias?

¿Cuál es la garantía de restablecimiento?

¿Hay medios para dar marcha atrás?

¿Hay presupuesto para formación?

¿Cuáles son los tipos de compromisos que se tomarán en caso de problema (compromiso de métodoso de resultados?)

¿Hay un SLA en el perímetro escogido?

¿El soporte de las aplicaciones está completamente asegurado en el caso de la virtualización?

¿Qué consecuencias hay desde un punto de vista de seguridad?

¿Existe un representante para la seguridad en las reuniones desde el inicio del proyecto?

Página 34 de 169

Existen evidentemente muchos otros elementos en los que se puede profundizar. Sin embargo, estaspreguntas serán suficientes para poner en contexto a cualquier persona a cargo de un proyecto devirtualización.

Los requisitos previos y las competencias requeridas

1. Un ROI/TCO aprobado al más alto nivel jerárquicoAntes de nada, un proyecto de virtualización deberá estar aprobado al más alto nivel. Estaconstatación es fruto de intercambios de experiencias y de la analogía que podría hacerse con losproyectos de seguridad de los sistemas de información.

Las RSSI y otros encargados de la seguridad lo saben bien: la seguridad debe percibirse y aprobarseal más alto nivel jerárquico. Esto permite que las acciones que se lleven a cabo tengan ciertalegitimidad.

La virtualización pertenece a esta categoría por diversas razones:

Es un proyecto estructurante.

Es un proyecto que implica numerosas modificaciones, incluida la forma de pensar, de entender yde construir nuevas arquitecturas.

Es un proyecto que puede implicar serias complicaciones de seguridad.

Es un proyecto pesado desde un punto de vista financiero. Implica muchas compras y prestacionesvariadas. Además, impone a los directivos encargados de las compras una nueva forma de pensar.

La mejor manera de actuar consiste en implicar a la directiva y en enseñarle, desde el principio, loque va a mejorarse concretamente. Un directivo es una persona muy dada a la protección de losactivos de la empresa y de la rentabilidad de ésta. Por tanto, estará atento a las nociones deretorno de la inversión (ROI: Return On Investment) además del coste total de posesión TCO (Total Cost ofOwnership) que se le venderán.

Los elementos estructurantes de un ROI/TCO para un proyecto de virtualización generalmente son:

Los gastos de las nuevas máquinas necesarias.

Las compras necesarias para el almacenamiento (SAN, NAS, etc.).

Las licencias del software de virtualización, además de las licencias del ecosistemarelacionado.

Las consultorías (MOA), estudio (MOE), integración y mantenimiento en condiciones operativas.

La formación para el personal que se hará cargo de la nueva infraestructura.

El ROI/TCO será sensiblemente distinto de una empresa a otra, visto el número de parámetrospresentes en la ecuación.

Página 35 de 169

La mejor forma de calcular el ROI/TCO es respetar lo que se dijo al principio. Esto permitedelimitar el proyecto de la mejor manera y conocer el tamaño (al menos a nivel macroscópico).

Ya sólo quedará determinar la cantidad de trabajo necesario para todos los participantes en elproyecto. Para ello, el reparto en tareas o hilos es habitual y permite cuantificar con precisión.Es difícil sugerir los hilos o tareas genéricas ya que todos los proyectos de virtualización sondiferentes. El único punto en común es el preámbulo. No obstante, aquí se muestra un ejemplo deproyecto relacionado con el sector médico:

Una vez hecho esto, se puede calcular el TCO/ROI.

2. Una sensibilización sobre la gestión de cambiosLa gestión de cambios es un aspecto a menudo subestimado en el cálculo del ROI/TCO. Todos losproyectos de virtualización comportan una etapa de transferencia de competencias que,lamentablemente, es a menudo insuficiente.

He aquí un ejemplo concreto:

Los administradores del sistema se tienen que habituar a controlar los entornos virtuales(integración de máquinas host, gestión centralizada, alojamiento de recursos, etc.).

Página 36 de 169

Los arquitectos deberán integrar la noción de virtualización para poder crear plataformas virtualesoptimizadas.

Los responsables de seguridad deberán revisar la seguridad de arriba a abajo (desde el modelo deprocedimientos y la guía de buenas prácticas).

Los responsables PCA/PRD (Plan de Continuidad de la Activitad/Plan de Recuperación ante Desastres)deberán revisar completamente su manera de actuar…

Aunque los cambios son substanciales, una vez la virtualización haya llegado a la madurez, permitiráponer en marcha una auténtica gestión de cambios en la empresa. De hecho, el ciclo de la vida de lossistemas y de las aplicaciones hasta ahora estaba relacionado con el buen hacer de los fabricantes ydesarrolladores. La virtualización permitirá flexibilizar ampliamente esta gestión de cambios.

Dado que ya no habrá dependencia técnica relacionada con el material (virtualización de losservidores), podemos imaginar que una máquina virtual podrá vivir y evolucionar únicamente según lasnecesidades del negocio.

Del mismo modo, ya no habrá dependencia técnica relacionada con los sistemas (virtualización de lasaplicaciones), podemos imaginar también que una aplicación podrá vivir y evolucionar de formaidéntica.

La incógnita que queda es el apoyo de los desarrolladores y las responsabilidades que deberán asumirlos directivos cuando el soporte no sea efectivo…

3. La elección tecnológica materialAunque la virtualización permite eliminar restricciones materiales, no significa que la elección delmaterial sea secundaria, más bien al contrario... En términos de virtualización de servidores yaplicaciones, la elección tecnológica se reduce, debido al número de participantes presentes en elmercado. Por el contrario, la elección no es tan limitada cuando se trata de elegir entre losfabricantes de servidores físicos, de los terminales o bahías de almacenamiento.

El objetivo de este libro es dar una visión objetiva del mercado, dando además consejo sobre lo queha sido comprobado y calificado por sociedades especializadas.

a. Fabricante de servidoresNEC

Nec es una sociedad japonesa que se conoce poco en el ámbito de los servidores en Europa, aunquesean líderes en Japón. Los servidores NEC son fiables y robustos según las diferentes comprobacionesde virtualización efectuadas. Se adaptan perfectamente al mundo de la producción para lasinfraestructuras físicas con requisitos de alta disponibilidad. De hecho, no hay muchos bugs, con loque las actualizaciones son relativamente poco frecuentes.

Por otro lado, es cierto que los servidores Nec a menudo son menos potentes que sus competidores, yaque estos últimos no dudan en implantar las nuevas tecnologías en cuanto les es posible.

Nec posee, a nuestro parecer, dos argumentos de peso:

Un servidor llamado FT (Fault Tolerant). Cada elemento está redundado, con lo que la altadisponibilidad está asegurada. El servidor es compatible con VMware ESXi y ESX 3.0.2.

Una oferta híbrida que acoge 6 ranuras de un blade con una NAS/SAN, todo por un precio módico.La interfaz de administración es única en su género y es extremadamente simple en comparacióncon sus competidores.

Página 37 de 169

Nec es un candidato incontestable en el mundo de la virtualización de servidores aunque,lamentablemente, es poco conocido, por muy competitivo que sea en términos de precio yfuncionalidad.

HP

Hewlett Packard es una de las empresas pioneras en la virtualización de servidores. Desde muypronto, HP se desmarcó en probar los productos VMware sobre sus diferentes plataformas.

HP se considera a menudo líder en términos de rendimiento ya que es reactiva en relación al mercado.Gracias a su historia y a su antigüedad, HP posee una oferta variada y modulable, además de unsoporte técnico muy reactivo. Esta sociedad es líder incontestable de la supervisión a través de suutilidad Hp OpenView que, a pesar de todas las críticas recibidas, ha sido durante mucho tiempo unade las utilidades indispensables para todo aquél que buscaba métricas fiables para supervisar suentorno.

HP tiene un punto a destacar, ya que proporciona una lista de hardware compatible para los entornosVMware. HP participa activamente en la iniciativa Vmmark, lo que demuestra que están muy pendientesde los aspectos relacionados con el rendimiento de sus plataformas.

En último lugar, HP posee una base de conocimientos inmensa, con foros especializados sobreproblemáticas técnicas.

Los servidores HP estarán por tanto destinados a aquellas personas con dificultades en cuanto alrendimiento o que quieran tener un soporte de un nivel muy alto.

Las plataformas con mejor reputación de HP son:

La oferta c-Class que permite consolidar de forma óptima en un espacio reducido. Las bahías sonparticularmente robustas y a toda prueba.

Página 38 de 169

La oferta Proliant DL. Estos servidores están particularmente adaptados a la virtualización ydisponen de numerosos feedbacks positivos al respecto.

IBM

IBM, desde hace mucho tiempo, ha desarrollado tecnologías de virtualización sobre sus propiossistemas (no X86). Hace algún tiempo, IBM sufrió el terremoto VMware y decidió ser parte delmovimiento. Sin embargo, los argumentos de IBM son aún un tanto paradójicos sobre sus ofertas. IBMpropone en paralelo una oferta de virtualización clásica X86 con VMware - XenServer y Hyper-V y porotro lado una oferta propietaria de virtualización (a menudo con AIX).

IBM explica esto asegurando que las dos ofertas responden a las necesidades de clientes biendiferenciados. Sin embargo, hay que constatar que en realidad, no siempre es así. IBM tiene uninterés evidente, desde un punto de vista estratégico y económico, en revender sus propiassoluciones, que domina perfectamente; para ello, intenta imponer su ecosistema de software asociado(Tívoli, etc). Por tanto, es particularmente recomendable estar atento sobre este punto.

Desde hace algún tiempo, IBM parece que se implica más en la virtualización X86 y empieza a competirseriamente con los líderes del mercado.

Como en el caso de Microsoft, IBM podrá convertirse rápidamente en uno de los líderes ineludibles dela virtualización X86.

DELL

En DELL se dieron cuenta rápidamente de que la virtualización iba a cambiar las normas de lasinfraestructuras. Partidario de la ecología y de la economía de la energía, DELL ha sabidoconjugarlo todo de forma inteligente.

DELL se ha hecho con un puesto de líder en el mercado de la virtualización. Debe su reputación a labuena integración y compatibilidad material pero peca mucho en cuanto a soporte y falta defeedbacks. DELL se compara a menudo con Free en el área de componentes de conexión a Internet:excelentes rendimientos, numerosas posibilidades de parametrización y personalización, pero sóloreservado a personas experimentadas.

Página 39 de 169

Existen otros fabricantes como Unisys, Sun, Fujitsu-Siemens que igualmente poseen excelentesservidores para la virtualización.

b. Fabricante del material de almacenamiento

En el área del almacenamiento y de la virtualización (SAN + NAS), dos gigantes pelean por elliderazgo: NetApp y EMC.

NetApp

NetApp comprendió rápidamente que la virtualización representaba el futuro, y se convirtió en lareferencia absoluta en materia de virtualización del almacenamiento y en una privilegiada con susoftware para informes de material. Los programadores han diseñado un mini sistema (Data Ontap) queintegra nativamente la virtualización bajo las capas más bajas.

Aunque ello impacto al rendimiento, ya que la capa de software es más pesada, y penaliza a NetApppara las arquitecturas llamadas High End, el mercado de baja y media gama está constituidoprincipalmente por bahías de almacenamiento NetApp, sobre todo cuando se buscan soluciones devirtualización.

Todos los expertos en virtualización le dirán que NetApp es el líder indudable del momento.

Su oferta posee una modularidad única, ya que es posible partir de modelos bajos de gama e iraumentando en potencia sin ningún perjuicio. Además, todos los modelos tienen por defecto interfacesde comunicación Fibra y Ethernet. Igualmente, se puede utilizar iSCSI, FCP o NFS de forma nativa(con rendimientos excelentes).

La oferta de NetApp tiene la ventaja de ser perfectamente polivalente, modulable y evolutiva.

EMC

Sociedad líder en almacenamiento, EMC es evidentemente una posible elección para la virtualización.Aunque hayan comprado a VMware, EMC aún está retrasada en la virtualización. Eso puede parecerparadójico, pero aún no se ha sacado el máximo provecho de la compra.

Los expertos están de acuerdo en el hecho de que EMC aún no ha sacado todo provecho posible de VMware.Los recientes acontecimientos políticos son una prueba irrefutable (http://tinyurl.com/5wosru).

EMC tiene una gran reputación en cuanto a su fiabilidad y su gestión de infraestructuras High End.Sin embargo, como la virtualización está relativamente poco desarrollada en contextos ultracríticos, EMC aún no ha podido aún mostrar todo su potencial.

Además, EMC tiene una política tarifaria que deja fuera a muchas PYMES, lo que contribuye a queNetApp se abra camino…

Página 40 de 169

Hitachi Data Systems

Con muy buena reputación en los grandes Datacenter, HDS se beneficia del saber hacer de Hitachi enla gestión de discos. La oferta de HDS está sobretodo orientada al High End. Los pequeños clientesno son el objetivo de HDS.

Desde el punto de vista del rendimiento, HDS tiene un aura incomparable. Para una empresa que tengael presupuesto suficiente, HDS es realmente una excelente elección.

Los fabricantes de servidores fabrican a menudo de sus propias bahías de almacenamiento: IBM - HP -NEC - SUN - DELL, etc.

Construcción de una InfraestructuraIntroducciónEste capítulo permite hacerse una idea sobre la arquitectura de VMware ESX y de su uso para crearuna infraestructura virtual. Evidentemente, está particularmente indicado para las personas a cargodel aspecto técnico. Sin embargo, ya que la arquitectura define el retorno de inversión, el capítulopermite a los responsables comprender las elecciones técnicas efectuadas.

La capa de virtualización (Hipervisor)

Página 41 de 169

1. VMware ESXLa capa de virtualización es la capa de software que permite virtualizar los servidores. En VMware, el producto destinado a la producción se llama VMware ESX (actualmente versión 3.5). Éste contiene algunas funcionalidades base además de funcionalidades avanzadas de pago.

Los cuatro modos de licencias que existen actualmente para VMware ESX son:

(1) vCenter es requisito para funcionar.

ESXi: contiene VMware ESX (o ESXi), SMP y VMFS.

Foundation: contiene VMware ESX (o ESXi), SMP y VMFS, la posibilidad de integración en Virtualcenter, Update Manager y Consolidated Backup.

Standard: contiene el conjunto de funcionalidades de Foundation y VMware HA.

Enterprise: contiene el conjunto de funcionalidades de Standard y VMOTION, Storage VMOTION, DPM y DRS.

Página 42 de 169

2. Virtual SMPVMware SMP permite configurar máquinas virtuales con soporte multiprocesador. SMP no tiene ninguna relación con el número de procesadores presentes en la máquina host. Usted puede hacer funcionar máquinas multiprocesador sin SMP. Actualmente, las máquinas virtuales no pueden recibir más de 4 procesadores virtuales. La próxima versión de VMware ESX (4.0) permitirá configurar máquinas virtuales con hasta 8 procesadores.

3. VirtualcenterUna vez que usted posea varios servidores físicos que funcionen sobre VMware ESX, necesitará Virtualcenter para poder gestionarlos todos desde una interfaz centralizada. Virtualcenter es un componente que se instala sobre una máquina Windows. Muchas de las funcionalidades avanzadas de VMware necesitan VMware Virtualcenter.

Página 43 de 169

4. VMOTIONVMOTION es un mecanismo que permite migrar máquinas virtuales de un servidor físico a otro al vuelo.Es obligatorio disponer de un recurso compartido entre los servidores (una NAS/SAN). Sobre la infraestructura clásica, los servidores necesitan mantenimiento, lo que a menudo se traduce en una parada completa de una o varias actividades. Esta tecnología es por tanto particularmente apreciada por aquellos que necesitan garantizar el máximo nivel de disponibilidad.

Página 44 de 169

¿Cómo funciona?

Los archivos de configuración y de datos de las máquinas virtuales están presentes en el almacenamiento compartido accesible desde máquinas hosts ESX. Ya que los archivos se ven desde los dos lados, se puede arrancar las máquinas virtuales sobre los dos hosts. La "magia" de VMOTION reside en el hecho de que todo el contexto de la máquina virtual se migra al segundo host ESX (memoria, proceso y carga de red). Esta operación no es visible de cara a los usuarios finales, ya que el proceso hace esta migración transparente (sin corte).

Virtualcenter se requiere, sin embargo, para utilizar VMOTION.

El VMkernel es capaz de hacer creer a la máquina virtual que está situada siempre sobre el mismo servidor. La memoria de la máquina virtual se "snapshotea" sobre el host origen y se envía al servidor de destino, sucesivamente hasta que se ha transferido la memoria por completo.

Hay que imaginar que mientras se transfiere la memoria, puede modificarse por los usuarios que siguen trabajando. Así, podrán producirse varias transferencias hasta que el traspaso de un host al otro sea efectivo.

El uso más frecuente concierne al mantenimiento de servidores. A menudo VMOTION puede ser útil cuando usted deba aplicar un parche a nivel de VMware que requiera un reinicio.

Aunque VMOTION parezca una tecnología milagrosa, es necesario saber que el traspaso debe estudiarse y planificarse bien. La compatibilidad de las CPU es, por ejemplo, uno de los elementos fuente de problemas. Para más información y asegurarse de que el proceso se realizará correctamente, hay que documentarse en el sitio de VMware : http://www.vmware.com/resources/techresources/

Igualmente hay que recordar que VMware Vmotion puede utilizarse indistintamente en VMware ESX 3.5 y ESXi.

5. VMware DRSDRS es la herramienta que permite migrar, de forma dinámica, máquinas virtuales en función de su carga. DRS crea recomendaciones basadas en la carga, que pueden actuar de forma manual o automática.DRS está controlado y ejecutado únicamente por Virtualcenter.

Página 45 de 169

El principal objetivo de DRS es mover las máquinas virtuales de un host físico a otro, en función dela carga de CPU y memoria (lo que representa el 99 % de los cuellos de botella de los hosts físicos…).

DRS es capaz igualmente de crear reglas de afinidad. La ventaja es poder gobernar su entorno de forma granular y teniendo en cuenta los inconvenientes de la producción.

6. VMware HAVMware HA es el mecanismo que permite proteger a las máquinas virtuales en caso de que un servidor físico se caiga. El tiempo de respuesta es igual al tiempo necesario para poder reiniciar las máquinas virtuales en otro servidor físico. VMware HA crea lo que nosotros llamamos la noción de cluster, gracias a la que es posible disponer de arquitecturas capaces de resistir a N fallos de servidores físicos.

Hay que tener en cuenta que la noción de Alta disponibilidad se trata, efectivamente, por VMware pero en ningún caso significa que las máquinas virtuales vayan a funcionar de manera ininterrumpida gracias a los mecanismos HA de VMware.

Página 46 de 169

7. VCBVMware Consolidated Backup es un add-on que permite hacer copias de seguridad de las máquinasvirtuales, al que conviene prestarle atención. VCB no es un producto de copia de seguridad, sino uncomponente que permite interferir entre el producto de copia de seguridad y VMware ESX. VCB podríaentonces estar considerado como un proxy de copia de seguridad.

La arquitectura de VMware ESX 3

1. La Service ConsoleLa Service Console es la interfaz de comunicación con el VMkernel. De hecho, es una máquina virtual Linux un poco especial, que permite al usuario beneficiarse de una interfaz amigable de control de gestión del VMkernel. En sí, la Service Console no es estrictamente necesaria; es más, VMware no la incluye en su producto ESXi.

La Service Console o COS permite interaccionar con el usuario de diferentes maneras :

Acceso directo. SSH. Interfaz Web. Comunicación propietaria (herramienta de terceros).

Una de las ventajas de la Service Console que hay que tener en cuenta es la de integrar por defecto un firewall (Iptables). Trataremos este punto en el capítulo Seguridad y virtualización.

Además, como todo Unix, es posible ejecutar comandos que permiten conocer o modificar el estado del sistema. VMware tuvo la buena idea de incluir por defecto un paquete de comandos muy útiles.

La Service Console incluye también comunicación con el material no crítico, por ejemplo, CD-Rom, lospuertos USB, serie y paralelo.

Es evidente, vista la funcionalidad de la Service Console, que consume algunos recursos físicos; pordefecto, se necesitan 272 MB.

2. El VMkernelEl VMkernel es el responsable de la gestión de los recursos físicos y de su uso, además de su reparto. Es también responsable de todas las tareas relacionadas con la virtualización en el host.

Página 47 de 169

El VMkernel es por tanto el corazón del sistema que permite la virtualización. Es totalmente propietario y está desarrollado por completo por los ingenieros de VMware.

Las funciones principales del VMkernel son las siguientes:

Reparto de CPU, memoria y almacenamiento

El VMkernel se debe asegurar de que las máquinas virtuales tienen acceso a los recursos en función de sus necesidades. Se habrá dado cuenta de que el reparto de los recursos de red no forma parte de las tareas del VMkernel. Debido a la naturaleza sensible del protocolo TCP/IP, no es posible hacer el reparto a este nivel.

Gestión de las páginas de memoria

El VMkernel es capaz de asegurar un seguimiento de los recursos de memoria de forma notable.

Gestión de la virtualización de almacenamiento multinivel

VMware ha integrado bajo la capa de red de VMkernel, un paquete de protocolos que permiten disponer del almacenamiento del tipo SAN o NAS.

Gestión de la virtualización de la pila de red

Gracias a ello, el VMkernel permite construir switchs virtuales, crear una NIC en equipo o agrupada (creación de redes redundantes), VLAN Tagging (para aislar las redes) o incluso crear Port Group (que permite crear políticas a nivel de puertos de un switch virtual).

Integración de módulos complementarios

Las funcionalidades avanzadas de VMware se integran a menudo así. Por ejemplo, los fabricantes pueden integrar en el VMkernel herramientas de supervisión de hardware. Es también un excelente medio de aplicar las actualizaciones, ya que hace posible actualizar las funcionalidades sin necesidad de actualizar el conjunto del núcleo.

Página 48 de 169

El VMkernel y la Service Console constituyen lo que comúnmente se llama el HIPERVISOR.

3. VMMVMM significa Virtual Machine Monitor. El VMM hace de regulador situado entre la máquina virtual y el VMkernel. Existe un proceso VMM por máquina virtual y, en el interior de cada proceso, un hilo por vCPU.

El VMM determina, según las peticiones de CPU recibidas, si las instrucciones pueden ejecutarse directamente sobre la capa física o si debe utilizarse el VMkernel para poder ejecutarla sobre un contexto concreto de protección de CPU.

El VMM es, además, responsable de la representación de la memoria. Debe presentar páginas de memoriafísica no contiguas como si lo fueran a la máquina virtual. Eso asegura, entre otras cosas, la correlación entre memoria física y memoria virtual.

4. Matriz de flujoLa matriz de flujo entre los diferentes componentes de una infraestructura virtual es muy importante, ya que permite la comunicación entre los diferentes elementos en una infraestructura filtrada.

Página 49 de 169

5. Las máquinas virtualesHasta ahora, el término máquina virtual se ha utilizado, pero realmente no se ha definido. Este capítulo se concentrará en lo que es realmente una máquina virtual.

a. Definición

Una máquina virtual está formada por la combinación de material virtual y de una bios virtualizada presentada a un Operating System llamado invitado. Éste, de hecho, no está al corriente de que el hardware está virtualizado. El OS ve un cierto tipo de procesador, memoria, red, almacenamiento, etc.

b. OS invitado

Llamamos OS invitado al OS instalado en una máquina virtual. Es, por tanto, el software de sistema instalado sobre la máquina virtual. El proceso de instalación es idéntico al de una instalación clásica, salvo que la virtualización hace que sea mucho más fácil de utilizar.

Para conocer la lista de OS soportados, puede consultar la siguiente URL:

http://www.vmware.com/pdf/GuestOS_guide.pdf

c. Los archivos de configuración

Una máquina virtual es un directorio que contiene varios tipos de archivos con extensiones diferentes. Listaremos las principales:

.vmx: archivo de configuración de la máquina virtual. .nvram: Bios virtual. .vmdk: archivo que describe la configuración de un disco virtual. .flat-vmdk: archivo que contiene todos los datos (OS + aplicaciones + datos). .vswp: archivo de swap de la máquina virtual. .delta: archivo de snapshot. .vmsn: el snapshot de la memoria. .log: los logs.

Página 50 de 169

d. Hardware virtual Maximal por VM

Para poder crear máquinas virtuales, VMware ESX emula una placa base. Ésta tiene un chipset INTEL 440BX que asegura la compatibilidad con los sistemas más antiguos. Gracias a esta placa base virtual, esto es lo que se soporta:

1 a 2 lectores de disquetes. 1 a 2 lectores de CD/DVD. 6 ranuras PCI de las que la sexta está reservada para el adaptador de vídeo. 1 a 4 vCPU. Hasta 16 GB de RAM. 1 puerto paralelo. 1 a 2 puertos serie.

Los conocedores de otros productos VMware (incluyendo Workstation) habrán notado la ausencia de sonidoy de puertos USB. Se puede evitar esta restricción utilizando un HUB USB IP. En este caso, las llamadas a la interfaz USB son redirigidas a través de la red.

e. Las "vmware tools"

Las VMware Tools son una colección de herramientas que permiten al OS invitado comunicarse con el Hipervisor de manera que el OS se ve optimizado para funcionar en una arquitectura virtual.

Éstas son algunas ventajas:

Drivers SVGA. Posibilidad de pasar de una máquina virtual a otra con un simple clic (ganancia en tiempo de

administración). Mejora de los rendimientos de red. Sincronización de tiempo con el host físico. Posibilidad de apagar correctamente las máquinas virtuales desde la interfaz de control.

f. El almacenamiento y las máquinas virtuales

Habrá visto que las máquinas virtuales están contenidas en un directorio. Este directorio puede ser local en el servidor ESX o remoto. En el caso que un administrador de sistema decidiera utilizar VMware HA, DRS o VMOTION, será obligatorio pasar al almacenamiento remoto ya que, en un cluster ESX,las máquinas virtuales deben ser visibles por todos los servidores presentes en el cluster.

Aunque parece simple, el almacenamiento de las máquinas virtuales y de los discos virtuales que las componen es un tema complejo. Existen muchas formas de crear discos virtuales y de gestionarlos.

Por ejemplo, existen 4 formas de aprovisionar discos virtuales (.vmdk):

Zeroed Thick: es el aprovisionamiento por defecto de ESX. El disco está asignado, aunque los bloquesno se borran inmediatamente.

Eager Zeroed Thick: idéntico a Zeroed Thick, aunque los datos son sobreescritos totalmente por bloques con 0.

Thick: en este caso, el espacio también está previamente reservado pero los datos no se eliminan. Enalgunos casos, este método contiene riesgos de seguridad. La opción thick no está disponible a través de la interfaz gráfic

Página 51 de 169

a y habrá que utilizar la linea de comandos para crear este tipo de discos.

Thin: aquí, el espacio no está previamente reservado. Esto permite el ahorro, ya que sólo los datos útiles inicializan los bloques. Éste es el funcionamiento por defecto, ya que los datos se escriben en un espacio de almacenamiento NFS.

g. Los snapshots

Los snapshots son una de las funcionalidades más interesantes de una infraestructura virtual, ya quepermiten crear un Checkpoint o, dicho de otra manera, puntos de copia de seguridad en el tiempo.Esto hace posible volver en cualquier momento a estos famosos Checkpoint, sea cual sea el estado dela máquina virtual.

Por ejemplo, imagine que ha creado un punto de copia de seguridad en T y en T+1. Un día, el sistemase corrompe completamente. Es imposible arrancar la máquina virtual (una pantalla azul por ejemplo).Sería suficiente ordenar a la máquina virtual volver al estado T+1 o a T para poder recuperar elsistema, y sólo le llevaría unos segundos. Para que los desarrolladores puedan probar en uno ovarios entornos, esta funcionalidad es una de las más eficaces.

Además, también es posible crear esquemas en forma de árbol de snapshots no lineales. En ese caso,un snapshot padre puede tener varios hijos, aunque un snapshot hijo puede tener un solo padre.

Página 52 de 169

Aunque esta tecnología podría resolver numerosos problemas, puede ser extremadamente peligrosa si nose utiliza con precaución. Para ello, vamos a mostrar un caso práctico que nos permitirá hacernosuna idea. Imagine que su servidor posee una base de datos utilizada por muchos usuarios. Un día, elservidor falla completamente y es imposible volverlo a arrancar. No se preocupe, con los snapshots,una simple restauración y está todo arreglado.

Pero entonces habrá otro problema: ¿qué pasa con los datos de la base? La respuesta es fácil. Si nose ha hecho nada para prevenir este caso, los datos restaurados serán aquellos que estaban presentesen el momento del snapshot. Con lo que habrá que prever una pérdida de datos…

Es por este motivo que VMware ha previsto diferentes tipos de funcionamiento de los discosvirtuales: independiente y clásico. Pasando un disco virtual a modo independiente, los snapshots nole afectan. Cuando un disco es independiente, existen dos modos:

Persistant

En este caso, los datos que se escriben una vez se escriben para siempre. Éste es el comportamientoque existe para una máquina física clásica, y el modo que permite resolver la problemática.

Non persistant

En este caso, los datos en el disco no son modificables a partir del momento en que el disco pasa almodo non persistant. Las modificaciones se eliminan en el siguiente reinicio. Este modo es útil, porejemplo, en los entornos públicos o en las máquinas que deben permanecer idénticas a cada reinicio.

Las grandes orientaciones de arquitecturaLas arquitecturas virtuales pueden estar construidas de diferentes maneras según la necesidad.Podemos distinguir tres tipos:

Arquitecturas orientadas a costes.

Página 53 de 169

Arquitecturas orientadas al rendimiento.

Arquitecturas orientadas a la disponibilidad.

Es evidente que se pueden crear arquitecturas híbridas, pero estas grandes orientaciones son las quevan a determinar realmente la implementación técnica; una vez que la elección esté hecha, serárelativamente difícil dar marcha atrás.

1. Arquitecturas orientadas a costesLas arquitecturas orientadas a costes son a menudo las primeras que escogen las empresas que dan susprimeros pasos en la virtualización de los sistemas de información. El motivo es simple: laprincipal razón de los responsables, sobretodo en periodo de crisis financiera, por la que pasar ala virtualización, es la reducción de costes. El resto de aspectos son importantes, perosecundarios, al menos al principio.

Las arquitecturas orientadas a costes parten de la siguiente postura: se hará todo lo posible paraque el coste de una máquina virtual sea lo más bajo posible. Para esto, habrá que hacer que la sumade todas las partes que la componen sea lo más pequeña posible.

Existen cuatro componentes determinantes que pueden hacer variar el precio:

Procesadores.

Memoria.

Almacenamiento.

Red.

Para los procesadores, el principio es asignar un máximo de máquinas virtuales, para hacerlas lo másrentables posible. La elección del procesador que tenga la mejor relación frecuencia/precio estambién un factor que puede hacer bajar el presupuesto. Igualmente, hay que pensar en crear lasmáquinas virtuales mono vCPU ya que esto permite ahorrar recursos.

Debe darse prioridad al almacenamiento local, ya que éste permite reducir el precio del espacio dedisco.

A nivel de memoria, en la medida de lo posible habrá que hacer la reduplicación (poniendo los mismosOS invitado en el servidor… veremos esto más adelante).

A nivel de red, las tarjetas deben ser Ethernet Gigabit simples.

Destaque los servidores medios (Cuatriprocesador cuatrinúcleo, 128 GB de RAM, etc) para maximizar elnúmero de máquinas virtuales por host físico o muchos servidores pequeños, en función de la curvasiguiente:

Página 54 de 169

Para no quedarnos sólo en la teoría, vamos a hacer una simulación:

Servidor Cuatriprocesador cuatrinúcleo (2.8 Ghz) con 64 GB de Ram, 2 TB de disco y 4 tarjetas dered. Coste: 25.000 €.

Capacidad de alojamiento: entorno a 40 máquinas virtuales localmente.

Licencia VMware: coste aproximado 500 € (licencia ESXi con soporte).

Atención, algunos elementos no se han tenido en cuenta voluntariamente para no complicar demasiado loscálculos. El cálculo no tiene en cuenta la gestión dinámica de recursos. En realidad, los servidoresvirtuales no tienen un precio fijo ya que los recursos no están reservados de forma estricta.

Las máquinas virtuales disponen de un entorno:

Un semi núcleo (16 núcleos lógicos para 30 máquinas) alrededor de 1.4 Ghz.

2 GB de RAM cada una.

70 GB de disco.

130 Mbits a nivel de red.

Este tipo de máquina virtual es capaz de hacer funcionar la mayoría de aplicaciones actuales. Elcoste de una máquina virtual es de (25.000 + 500) / 40 = 640 € aproximadamente.

Muchos argumentarán que este cálculo es demasiado simple. Evidentemente que sí…

Asimismo, habrá que calcular el coste de mantenimiento, de consumo eléctrico, de renovación en casode obsolescencia, etc.

Página 55 de 169

Nada le impide construir su propia tabla de comparaciones para manejar las cifras y así maximizar susinversiones.

2. Arquitecturas orientadas a rendimientoLas arquitecturas orientadas a rendimiento son las que escogen a menudo las DSI que quieren poner enmarcha una política de virtualización a largo plazo. A menudo, ya han implementado unainfraestructura virtual y deciden emprender sistemas críticos que necesitan rendimientos elevados.

Las arquitecturas orientadas a rendimiento parten de la siguiente idea: las máquinas virtualescreadas deben tener un nivel de rendimiento máximo.

Para ello, el principio es siempre el mismo. A nivel de CPU, hay que premiar las más recientes y conmás núcleos, para asignarlos de manera óptima en las máquinas virtuales. No siempre es interesantecrear máquinas virtuales multi vCPU. De hecho, esto puede, al contrario, ralentizar el sistema en elOS invitado y las aplicaciones que haya.

Por contra, las reglas de afinidad de VMware así como las reservas de vCPU son muy apreciadas, yaque garantizan la potencia de las máquinas virtuales de forma continua.

El almacenamiento debe ser remoto, preferentemente a través de SAN. Se aconseja la fibra óptica sino hay problemas importantes de presupuesto, aunque iSCSI o NFS tienen una relación calidad/precioinigualable.

Además, con la llegada de las conexiones iSCSI de 10 Gbit, la fibra óptica ya no será durante muchotiempo el protocolo más ventajoso en cuanto a rendimiento (ver también la FCoE (Fibre Channel OverEthernet)).

No debe economizarse en memoria. Hace falta reservar el máximo soportado por OS invitado.

Las tarjetas de red deben ser tarjetas de fibra o Ethernet 10 Gbits.

3. Arquitecturas orientadas a disponibilidadEstas arquitecturas son especialmente estudiadas por los responsables PRD/PCA o por las entidades deseguridad. El principio es que las máquinas virtuales deben disponer de un nivel de disponibilidadmáximo.

Según el mismo principio, hace falta de forma no exhaustiva:

Página 56 de 169

Disponer de servidores físicos con tolerancia a fallos. Estos servidores son capaces desoportar la pérdida de uno o varios elementos. En este caso, el 320 Fc de NEC es un candidatoparticularmente útil.

Crear clusteres, tanto a nivel VMware con VMware HA, como a nivel de máquinas virtuales (conMSCS por ejemplo), o combinar ambos hábilmente.

Almacenar de forma remota en una SAN o NAS. Lo más importante es que sea de altadisponibilidad. Teniendo en cuenta las SAN probadas, NetApp es un candidato excelente, graciasa la gama FAS. Para todo aquél que necesite una seguridad precisa, la gama 30XX con doblecontroladora es una excelente elección. Las pruebas han demostrado la calidad de loscomponentes y la resistencia a los incidentes (corte eléctrico, discos de cambio en caliente,corte de alimentación, etc.)

Redundar los caminos de acceso a las máquinas virtuales a partir de ESX (ya que las máquinasvirtuales están almacenadas de forma descentralizada). Esta noción forma parte de laintegración de VMware ESX bajo el nombre de Multipathing.

Repartir las interfaces de red virtuales a través de diferentes switchs físicos o utilizar unaNIC agrupada.

Recursos y VirtualizacionLa potencia de cálculo

1. Los procesadoresEl host físico es capaz de descomponerse en vCPU (Procesador lógico): el número de CPU que podrá serutilizada por las máquinas virtuales es igual al número de CPU físicas multiplicado por el número denúcleos por CPU (por ejemplo, un servidor con 2 CPU cuatrinúcleo permitirá disponer de 8 vCPU para las máquinas virtuales).

¡Atención! La activación del Hyperthreading multiplica por 2 el número de vCPU.

Página 57 de 169

El término vCPU no indica que los procesadores sean virtualizados para asignarse a las máquinas virtuales. Existen, de hecho, dos modos de ejecución:

Directo, cuando la máquina virtual puede acceder al procesador directamente (generalmente, son las instrucciones que piden un nivel de protección llamado de Ring 1 a Ring 3). El modo directo tiene la ventaja de ser mucho más rápido, ya que las instrucciones no necesitan ser virtualizadas por el núcleo de VMware (VMkernel).

Virtualizado, cuando la máquina virtual debe ejecutar instrucciones que requieran un nivel de protección Ring 0. Aquí, la máquina virtual no puede tener un nivel de acceso directo y el VMkernel está obligado a intervenir para hacer creer que las instrucciones se ejecutan en modode protección Ring 0. Esto aumenta el trabajo del núcleo VMware y crea lo que se llama "Overhead".

2. La elección de la asignación y la gestión vCPULas vCPU pueden asignarse de varias formas a una máquina virtual en función de las necesidades:

Primero, habrá que decidir el número de vCPU que se va a asignar a una máquina virtual. Ésta puede, de momento con VMware ESX 3.X, contar de 1 a 4 vCPU. Ya que se pueden asignar varios vCPU a una máquina virtual (VM), el modo SMP está activo (con las versiones ESX 2.X, hacía falta una licencia SMP para crear máquinas virtuales con varios vCPU). Las máquinas virtuales disponen así de aún más potencia de cálculo, sin embargo, el OverHead a nivel de VMkernel es

Página 58 de 169

más importante. Es necesario pensarlo bien antes de crear máquinas virtuales con varios vCPU ya que las consecuencias a nivel de VMkernel no son despreciables.

Seguidamente, hay que decidir cómo se va a establecer la correspondencia entre las vCPU y las CPU físicas. El enfoque de VMware ESX 3.X a este nivel es extremadamente modular. Cada vCPU seleccionada corresponde a un núcleo o a un procesador físico (si los procesadores físicos sonmononúcleo). Entonces es posible asignar a las máquinas virtuales uno o más núcleos sobre uno o más procesadores físicos. En los casos más corrientes, este reparto se hace de forma dinámica, ya que el VMkernel tiene un "Scheduler" que permite repartir mejor la carga en los núcleos/procesadores menos cargados. Sin embargo, es posible forzar a las vCPU a corresponderse con un núcleo preciso para minimizar el impacto sobre ciertos procesadores o núcleos.

Por último, hay que pensar en parametrizar el perfil de uso de las vCPU. De hecho, VMware ESX gestiona los recursos lo mejor posible limitándolos a la VM. Para las vCPU, VMware ESX es capaz de disminuir el número de operaciones permitidas lo que se traduce en la posibilidad de limitar la frecuencia de uso (en Mhz) de las vCPU. Por ejemplo, un procesador cuatrinúcleo E4505 de INTEL proveerá una potencia de 2 Ghz por núcleo, o lo que es lo mismo, 8 Ghz en total. Es posible imaginarse un vCPU que corresponde al núcleo n°3 del procesador asignado a una VM, que tenga definido un perfil de uso restringido del vCPU a 500 MHZ máximo. Así, garantizamos que los 1500 MHZ restantes no serán utilizados por esta máquina virtual.

Al revés, también es posible garantizar los recursos para un vCPU. Por tanto, es posible garantizar que las VM tendrán un mínimo de MHZ disponibles. Tomando el mismo ejemplo, el núcleo nº 3 puede reservarse completa o parcialmente a una máquina virtual.

La cuestión planteada es evidente: ¿cuándo hay que utilizar uno u otro?

3. Caso prácticoCon los despliegues efectuados, hemos tenido suficientes casos prácticos que necesitan la configuración limitada y/o garantizada a nivel de vCPU.

El primer caso tiene que ver con la implementación de un ERP en el sector médico (Registros Médicos del Paciente). Éste está compuesto por una máquina virtual que hace de base de datos (MSSQL) y otrasmáquinas virtuales que sirven de clientes TS (Terminal Server). Los clientes TS son mucho menos críticosque la base de datos. Habrá que garantizar entonces que la máquina virtual que contiene el servidor SQL tiene un procesador cuatrinúcleo físico exclusivamente para ella, o lo que es lo mismo, cuatro vCPU que corresponden a los cuatro núcleos del procesador físico.

El otro caso concierne al despliegue de puestos de trabajo virtualizados en una gran oficina consultora. La arquitectura está basada sobre un servidor FlexPower con 4 blade, cada uno de los cuales contiene 2 procesadores cuatrinúcleo con 24 GB de RAM. Se ha utilizado VMware View 3 además de los terminales Wyse. Los perfiles de usuario se han creado en función de las necesidades. Para todos, se ha tenido que restringir el uso de vCPU para que un usuario/máquina virtual no pueda impactar sobre el conjunto de recursos o sobre el resto de usuarios.

4. El principio de los "Shares"El principio de los Shares permite dar una prioridad sobre los recursos de una o un conjunto de máquinas virtuales. Como la QoS a nivel de red, el principio de los Shares no se activará salvo que se necesite. Si los recursos son suficientes y las máquinas virtuales no deben competir para accedera uno, el principio de los Shares no se activará jamas.

Para comprender mejor este principio, podemos hacer una comparación con lo que nos encontramos en elmundo de las finanzas. Si usted tiene la mayoría de las acciones de una empresa (en Sociedad Anónima), tiene la suficiente influencia como para "aplastar" a los demás. Por el contrario, si no tiene suficientes acciones, usted no podrá influir en nadie.

Con VMware, los shares permiten definir quién tendrá la prioridad en caso de contención a nivel de asignación de recursos.

Sistemáticamente, para favorecer los entornos de producción, piense en poner un valor más alto en las máquinas críticas, lo que permitirá, en muchos casos, salvar los muebles…

Página 59 de 169

5. Intel VS AMDEl debate lleva mucho tiempo desarrollándose y ninguno de los actores tiene realmente unanimidad.Sin embargo, sigue siendo un aspecto primordial del rendimiento de los servidores físicos. La mayorparte de los procesadores actuales, tanto de Intel como de AMD, tienen rendimientos casiequivalentes y una capa de virtualización nativa (AMD-V y INTEL VT).

¿Cuáles son entonces los criterios para la elección?

Política: Intel es el líder del mercado y comunica mucho sobre la virtualización. En caso deproblemas, difícilmente se podrá reprochar a un responsable haber elegido al líder… AMD es el"aspirante" y por tanto está más dispuesto a negociar a nivel económico.

Soporte fabricante: según la marca de servidores seleccionada, los acuerdos marco pueden influir enla elección del procesador.

Consumo energético: tanto Intel como AMD se pronuncian muchísimo sobre el consumo energético(GreenIT) de sus procesadores. Intel parece que va por delante al respecto… (verhttp://tinyurl.com/q3xa7z).

Roadmap: Intel & AMD participan en una carrera imparable hacia el multinúcleo. En esta carrera,ganará aquél que tenga más núcleos y que VMware soporte mejor. Hay algunos detalles interesantes:Intel ha comprado parte de VMware a EMC (la casa madre) al igual que CISCO. Si esto es así, seconfirmaría la ligera ventaja de Intel en la materia, ya que significa que estaría estudiandotecnologías de virtualización de hardware, seguramente avanzadas respecto a AMD. Sin embargo, aúnqueda mucho por recorrer…

La capacidad de memoria

1. La capacidad totalLa capacidad de memoria total se descompone en dos partes:

La memoria asignada al servicio de consola de VMware.

La memoria asignable a las máquinas virtuales.

La capacidad de memoria se considera a menudo como la segunda causante del cuello de botellaprincipal de la virtualización. Por suerte, es más fácil agregar tarjetas de memoria que agregarprocesadores. De todos modos, no tiene sentido comprar servidores con poca memoria. Es muy

Página 60 de 169

recomendable proveer a los servidores de una gran capacidad de memoria, y más aún viendo que cadavez cuesta menos.

Generalmente, la mayor parte de los servidores cuentan con entre 16 y 64 GB de RAM de promedio. Amenudo es la mejor opción en términos financieros y le permite arrancar un cierto número de máquinasvirtuales.

2. La sobreasignaciónEsta técnica permite asignar más memoria de la que realmente existe en el servidor a los sistemasoperativos invitados. El principio es simple y parte de un hecho evidente: los sistemas operativosinvitados no consumen la totalidad de la memoria que se les asigna. Este principio es aún más ciertocuando múltiples máquinas virtuales conviven con el mismo sistema operativo. La probabilidad de quetodas las máquinas consuman el máximo en el mismo momento está probablemente cerca de cero.

Esta técnica tiene la particularidad de que no impacta en el rendimiento de las máquinas virtualesya que todo se gestiona de forma transparente para el VMkernel. Una vez que los recursos físicos delservidor se consumen por completo, se desencadenan otros mecanismos.

3. La gestión transparente de páginas de memoria compartidasLa gestión transparente de las páginas de memoria compartidas es una tecnología de VMware ESX, quepermite reducir la memoria física consumida. Esto se consigue cuando se agrupan en un mismo hostfísico las máquinas virtuales que tienen similitudes.

Un ejemplo concreto:

Todas las máquinas que funcionan con Windows XP ejecutarán casi los mismos procesos de sistema aliniciarse. Si, además, las aplicaciones instaladas y utilizadas por los usuarios son las mismas, elespacio de memoria de cada máquina virtual será casi idéntico. En ese caso, será fácil realizar lacompresión como cuando se hace para imágenes que tienen muchos colores idénticos…

No hay muchos testimonios sobre la gestión transparente de páginas de memoria, ya que no es algoobligatoriamente útil en producción (por la variedad de los entornos). Sin embargo, existe un casomuy interesante con la virtualización de puestos de trabajo. En este caso, todas las máquinasvirtuales son prácticamente idénticas y la gestión transparente de las páginas de memoriacompartidas se convierte en algo muy eficaz.

4. El BallooningCuando la sobreasignación y la gestión transparente de páginas de memoria compartidas se sobrepasanpor completo, se activa el Ballooning. Primera precisión importante: el Ballooning sólo se activa silas VMware Tools están instaladas en el OS invitado.

Página 61 de 169

Este método, como su nombre indica, hace referencia a un globo que es posible inflar o desinflar enfunción de las necesidades. El principio es el siguiente:

El driver instalado en el OS invitado hará creer que hay tal demanda de memoria que el OS invitadose verá obligado a usar la memoria swap. Así, la memoria física liberada puede ir libremente a otramáquina virtual.

5. El SwappingEl swapping es la última etapa que se ejecuta cuando todas las otras soluciones han sido agotadas.Es evidente que esta solución es la que tendrá más impacto en el rendimiento. El swapping de unamáquina virtual se hará sobre un archivo destinado a esto. Para una máquina virtual, es aconsejableque tenga el mismo tamaño que el total de memoria asignada, lo que permite pasar a swap el total dela memoria física atribuida. La principal diferencia con el memory Ballooning es que aquí, elVMkernel decide pasar a swap la memoria sin preocuparse de saber si el OS invitado la utiliza o no.

El almacenamiento

1. Los cuatro tipos de almacenamientoa. SCSI LOCAL

La mayoría de servidores tienen discos locales (excepto los servidores blade donde los discos nosuelen estar presentes). Generalmente son discos SCSI o SAS (raramente SATA).

La primera razón válida para almacenar en los discos locales es el precio. De hecho, los discoslocales son mucho más baratos que los discos en una bahía de almacenamiento, sea cual sea.

El principal problema es el siguiente: si usted decide almacenar localmente las máquinas virtuales,sólo se podrá acceder a ellas por el servidor físico donde estén presentes los discos. Esto implicaque las tecnologías HA, VMOTION y DRS no podrán utilizarse.

Página 62 de 169

El almacenamiento local en máquinas virtuales se aconseja para pequeñas estructuras que no necesiteninvertir en un almacenamiento SAN (Storage Area Network).

Una excepción a la regla. Ciertos fabricantes tuvieron la acertada idea de proponer servidores"Blade" con discos locales vistos por los blades como un SAN. Esto permite reducir de formaimportante los costes, beneficiándose igualmente de las tecnologías avanzadas de VMware.

Ver http://tinyurl.com/oy44p6

Antes de comprar un servidor y utilizar los discos locales para máquinas virtuales, es necesariocomprobar si el VMkernel soporta sin problemas las tarjetas controladoras. Una práctica actual esposicionar un RAID 1 para la instalación de la Service Console de VMware ESX y de poner un RAID 5para las máquinas virtuales.

En resumen:

VENTAJAS del almacenamiento local SCSI

Coste. Siempre será menos caro que una SAN.

Simple de usar y configurar. No es necesaria ninguna experiencia con SAN.

INCONVENIENTES del almacenamiento local SCSI

Es difícil recuperarse de un crash de la máquina host.

Nada de VMOTION, DRS ni HA.

b. Fibra óptica

Las SAN de fibra óptica son las más utilizadas actualmente. Permiten a VMware acceder a nivel debloque, lo que favorece el rendimiento. Las únicas comunicaciones que pasan a través de la fibra sonlas entradas/salidas de los discos. Desde un punto de vista de seguridad y rendimiento, no hay nadamejor…

En resumen:

VENTAJAS del almacenamiento SAN de Fibra

Utilizado sobre todo en producción, con lo que está muy maduro.

Rendimientos excelentes en entornos multiservidor.

Seguridad acentuada.

Acceso a nivel de bloque para excelentes rendimientos descomunal en entrada/salida.

INCONVENIENTES del almacenamiento SAN de Fibra

El precio.

c. iSCSI

Desde la versión 3.0 de VMware ESX, VMware tuvo la buena idea de incluir un driver en el VMkernelpara acceder a nivel de bloque como en una infraestructura clásica sobre TCP/IP.

Para poder "hablar" iSCSI, hay que crear un iniciador. Existen actualmente dos tipos de iniciadores:Hardware y Software.

Un iniciador hardware es una tarjeta dedicada mientras que un iniciador software está incluido en elVMkernel en la tarjeta de red.

Página 63 de 169

El protocolo iSCSI encapsula las llamadas SCSI vía TCP/IP. Esto implica una capa suplementaria y,por tanto, una pérdida de rendimiento. Esta pérdida está ampliamente compensada con un iniciadorhardware, ya que en ese momento, es la tarjeta la que gestiona el trabajo de encapsulación. Lavelocidad máxima constatada es de 1 Gbits/sec (de hecho, el límite de la red Ethernet a 1 Gbit).

La llegada del Ethernet 10 Gb debería cambiar la balanza respecto a la fibra óptica (actualmente 8Gbits/s max) que quedaría en desventaja con el rendimiento del iSCSI.

Esto es la teoría. La fibra óptica está actualmente en sus días dorados. Además, migrar una red de 1a 10 Gbits no es una minucia.

En resumen:

VENTAJAS del almacenamiento iSCSI

Excelente relación calidad/precio.

Almacenamiento centralizado para adaptarse a toda la estructura (Ethernet).

Acceso a nivel de bloque.

Podría superar los rendimientos de la fibra en un futuro cercano.

INCONVENIENTES del almacenamiento iSCSI

Rendimientos inferiores respecto a la fibra.

El paso a 10 Gbits no se hará en un futuro cercano.

La seguridad: no existe la segregación STOCKAGE (SAN FC) - RED ETHERNET.

d. NFS

VMware también soporta el protocolo NFS, además del almacenamiento centralizado a través de NAS.

Al principio, el debate sobre NFS hizo estragos, siendo el tema del rendimiento uno de los másdestacados por sus detractores. Es cierto que NFS es un protocolo UNIX que nunca ha tenido fama detener un rendimiento particularmente elevado…

Y sin embargo, durante 20 años este protocolo se ha enriquecido y se ha convertido en un auténticoestándar de la industria en materia de almacenamiento y centralización de datos.

Las pruebas de rendimiento actuales muestran que NFS puede ser particularmente potente, a poco quela bahía de almacenamiento gestione perfectamente el protocolo. Es el caso, por ejemplo, de NetAppcuyas bahías soportan NFS desde hace mucho.

El protocolo NFS está soportado a nivel de VMkernel, lo que aplica una carga adicional y puedeimpactar en el rendimiento.

NFS será particularmente apreciado en los entornos donde UNIX sea una parte integrante de lossistemas desplegados.

En resumen:

VENTAJAS del almacenamiento NFS

NFS es muy estable y fiable.

Ya existe a menudo en la mayoría de organizaciones.

Almacenamiento óptimo (Thin provisionning: sólo se asigna lo que se consume).

Almacenamiento centralizado que se puede adaptar a cualquier estructura (Ethernet).

Página 64 de 169

Podrá superar el rendimiento de la fibra en un futuro cercano.

INCONVENIENTES del almacenamiento NFS

Rendimientos inferiores respecto a la fibra.

El impacto a nivel de rendimiento es fuerte ya que no existen tarjetas hardware para hacer NFS…

El paso a 10 Gbits no se hará en un futuro cercano.

2. El sistema de archivos VMFSEl sistema de archivos VMFS es el principal sistema de archivos transaccional de VMware. Losobjetivos principales son aportar un sistema de archivos capaz de soportar grandes ficheros yaportar a la vez los mejores rendimientos.

VMFS permite:

Extender un volumen VMFS sobre varios discos o LUN.

La gestión de accesos concurrentes.

256 volúmenes por sistema.

2 TB por extensión.

32 extensiones por volumen.

Un tamaño máximo de 64 TB.

La posibilidad de extender un volumen VMFS sobre varios discos o LUN

Es posible crear volúmenes VMFS extendidos sobre varios LUN. El beneficio es que es posible crearenormes volúmenes (esto se encuentra a menudo en máquinas virtuales Microsoft Exchange, porejemplo). Sin embargo, hay que prestar atención a esta técnica. Si una de las LUN está constituidapor un simple RAID0, y un disco se estropea durante el uso, el volumen entero no volverá afuncionar. Es necesario entonces verificar que el ensamblado de las LUN está montado con toleranciaa errores.

Gestión de accesos concurrentes

Esta funcionalidad permite que todos los volúmenes sean vistos por todos los hosts a la vez. Estatecnología permite la activación de VMOTION, HA y DRS. El VMkernel no bloquea el sistema dearchivos, lo que permite los accesos concurrentes. El bloqueo se efectúa a nivel de archivo (archivo.lck) para que la máquina virtual no pueda iniciarse más que en un servidor físico a la vez.

256 volúmenes por sistema

ESX gestiona hasta 256 volúmenes VMFS. Generalmente, nos encontraremos, como máximo, con una decenapor host físico. Esta cifra debe ser tomada con precaución ya que nunca se acercará a un caso realde producción.

2 TB por extensión, 32 extensiones por volumen = 64 TB Max

Cada LUN vista por un servidor ESX no puede pasar de 2 TB. Es posible crear un volumen que tenga 32extensiones, lo que significa que, como máximo, VMware ESX soportará volúmenes de 64 TB.

3. Raw Device MappingVMware ESX posee un método particular para mapear directamente las LUN sin pasar por un sistema dearchivos VMFS y archivos VMDK: RDM. Hay que distinguir en RDM entre dos métodos de acceso a disco:Virtual y Físico.

Página 65 de 169

En el caso del RDM Virtual, el acceso a la LUN en modo RAW está totalmente virtualizado por elVMkernel. Esto permite hacer snapshots, ya que todas las posibilidades que tenemos con losficheros VMDK estarán también disponibles. Clásicamente, nos encontramos con este tipo deacceso para los discos grandes que ya existen sobre servidores de archivos, de datos o demensajería.

En el otro caso: RDM físico, todas las peticiones SCSI se envían directamente a la bahía. Deeste modo, usted verá sobre su máquina virtual las características de sus discos (como siestuvieran adjuntados en DAS). Típicamente, encontraremos esta configuración en un clusterMSCS (es la responsabilidad del cluster MSCS, y no del VMkernel, bloquear los accesos a losdiscos).

Una falsa creencia consiste en decir que el modo RDM permite obtener rendimientos superiores que unsistema de archivos VMFS clásico. Esto no se ha demostrado en la cantidad de pruebas efectuadas alrespecto. RDM permite ser flexible. Usted podrá manejar las arquitecturas físicas y virtuales encualquier momento.

La redVMware ESX comporta numerosas nociones de red que es necesario conocer para poder comprender las múltiples posibilidades que se ofrecen. En resumen, he aquí el concepto clave:

1. La conectividad a nivel físicoLa conectividad física se utiliza para unir un host ESX con el exterior. En sí misma, esta conectividad no es necesaria ya que las máquinas virtuales pueden comunicarse entre ellas sin pasar por la red física. En el momento que hay que interactuar con las máquinas virtuales, la conectividadfísica se convierte en necesaria.

Como recordatorio, la red física está constituida por switch o routers físicos. Estos últimos aseguran las interconexiones en todas las empresas. Las tarjetas de red físicas permiten estas

Página 66 de 169

conexiones, y están, evidentemente, presentes en los hosts ESX. Una buena práctica consiste en tenervarias tarjetas de red sobre un host ESX.

2. La conectividad virtualLa conectividad virtual permite construir una verdadera infraestructura de red utilizandocomponentes lógicos integrados por VMware ESX. Los puntos clave son los siguientes: tarjeta de redvirtual, switchs virtuales y grupos de puertos.

Tarjeta de red virtual (vNIC)

Una tarjeta de red virtual o vNIC es un adaptador de red configurado en VMware ESX para serutilizado por una o varias máquinas virtuales. El número de interfaces máximo por máquina es de 4.La primera pregunta que a menudo se plantean los administradores de red es la siguiente: ¿cómo hacerpara que cada tarjeta de red tenga una dirección MAC diferente? La respuesta es fácil. VMware tieneun mecanismo de atribución de direcciones MAC únicas para cada tarjeta de red.

Los "rangos" elegidos por VMware son los siguientes:

00 :0c :29

00 :50 :56

Switch virtual (vSwitch)

Un switch virtual es un componente lógico de VMware ESX que equivale a un switch físico de nivel 2.Un switch virtual existe de 2 modos:

Público

Privado

Los switchs públicos son los que más se utilizan en un entorno ESX. Las tarjetas de red físicaspueden conectarse para comunicarse con la red externa. Hay que tener en cuenta que una interfaz dered física sólo puede pertenecer a un único switch virtual.

Los switchs privados no tienen conexiones físicas con la red externa y tampoco están conectados auna interfaz física, lo que significa que el tráfico de red se transfiere a través del bus delsistema. Esto le permite tener un nivel de aislamiento completo. Típicamente, es posible crearvarias redes con las mismas direcciones IP, montar los controladores de dominio con los mismosnombres, o construir alguna DMZ.

Página 67 de 169

Un switch virtual está configurado por defecto para permitir el uso de 56 puertos. Cada vNICconfigurada sobre una máquina virtual utiliza un puerto. Es posible configurar un vSwitch para quepueda tener hasta 1.016 puertos. Es posible configurar algunas opciones sobre cada Switch (yseguramente serán muchas más cuando el switch virtual Nexus 1000v de Cisco esté disponible paraVMware ESX 4).

El filtrado del tráfico

VMware ESX soporta el filtrado del tráfico generalmente conocido por los administradores de red conel nombre de "traffic shaping policy". El error más común consiste en creer que VMware ESX puedelimitar el tráfico descendiente (INCOMING TRAFFIC). VMware ESX sólo soporta el filtrado de tráficoascendente (OUTGOING TRAFFIC).

La NIC Teaming

Esta funcionalidad permite a VMware ESX activar otras dos funcionalidades:

El reparto de carga

La detección de fallos de red

El reparto de carga

VMware ESX tiene tres métodos para poder repartir el tráfico generado por las máquinas virtuales.Cada método permite asegurar una alta disponibilidad creando una redundancia en la red.

Virtual port Based

Página 68 de 169

Permite al VMkernel escoger sobre qué tarjeta física va a enviar los datos basándose en su VirtualPort ID. El Virtual port ID es un elemento asignado a cada tarjeta de red virtual cuando se conectaa un switch virtual. Este método es compatible con cualquier tipo de switch.

Source Mac Based

Igual que en el reparto de carga Virtual port Based, los switchs son compatibles. Sin embargo, enlugar de basarse sobre el Port ID, el reparto sobre las tarjetas de red físicas se hará combinandola dirección MAC de origen con un algoritmo de selección interno en VMware ESX. Este método no seaprecia según las pruebas como una mejora en producción (por ello, el reparto por defecto a partirde la Versión 3 es Virtual port Based).

IP Based

El último método consiste en repartir las cargas basándose en la dirección IP de destino. Estemétodo es mejor en cuanto a redundancia y reparto equilibrado, pero necesita que la red física estéconfigurada correctamente. Habrá que prever la configuración de los protocolos 802.3ad oEtherchannel (Cisco) . De todos modos, nos podemos hacer una idea de que este tipo de casos es raroy deberá revisarse en colaboración con los equipos de red.

Detección de fallos de red

VMware ESX utiliza dos métodos diferentes para detectar los fallos de red:

Link Status onlyPágina 69 de 169

En esta configuración, la detección es muy simple. La tarjeta física detecta si sigue habiendo unlink entre ella y el switch de red físico. Es un método que funciona en la mayoría de casos.

Beacon Probing

Existe un caso donde la ruta no es accesible aunque el link entre la tarjeta de red y el switchfísico se mantenga activo. Hay que pensar en un caso donde el switch físico conectado a la tarjetafísica no tenga acceso al switch que permite alcanzar su destino.

Veamos un esquema que nos permitirá apreciar mejor la situación:

La ruta 1 está identificada como fallida, por lo que se toma la ruta 2. Ese fallo no habría sidodetectado en el primer caso. El envío del paquete permite darse cuenta de la situación. Sin embargo,esto supone una sobrecarga de tráfico de red, además de un cierto lapso, ya que la ruta debeprobarse antes de enviar el tráfico. Además, se considera indispensable que las tarjetas de redfísicas estén conectadas a switchs físicos diferentes para funcionar correctamente. Atención, estemétodo comporta también ciertos riesgos, ya que pueden detectarse fallos sin que haya habido fallo ocorte en la comunicación.

Los Ports Group

Página 70 de 169

Los Ports Group son componentes lógicos que permiten agrupar varios puertos virtuales en un switchvirtual para poder atribuirles configuraciones idénticas (seguridad, configuración del tráfico,reparto de carga o hasta VLAN).

Existen actualmente tres tipos de Port Group:

Service Console

Los Ports Group Service Console permiten configurar el acceso a la consola de control de VMware ESXy sólo pueden tener una IP única.

VMkernel

Sirve para configurar VMOTION o permitir acceder a los elementos de almacenamiento basados en red(NFS o iSCSI). Igualmente, debe configurarse una dirección IP para poder comunicarse con loselementos de almacenamiento o para comunicarse con otro host ESX para poder utilizar VMOTION.

Virtual Machine

Este Port Group permite a las máquinas virtuales comunicarse. Cada máquina virtual que tenga una omás tarjetas de red virtuales deberá estar enlazada a un Port Group «Virtual machine». Cada vNIC nopuede tener más de una configuración de Port Group a la vez, aunque una máquina virtual que puedatener hasta 4 interfaces de red virtuales, puede estar configurada de forma que cada interfaz de redse encuentre en un Port Group diferente.

Página 71 de 169

Seguridad y VirtualizaciónRepaso de los grandes principios de seguridadAntes de abordar la seguridad de la virtualización en particular, es bueno hacer un repaso sobre laseguridad de los sistemas de información.

La seguridad de los sistemas de información reposa sobre lo que se llama el capital informativo.Éste representa la información de la empresa, por ejemplo, la clientela, la concurrencia, el saberhacer, el círculo de accionistas, los métodos de fabricación, las patentes, etc. Se trata de activosmateriales y, sobre todo, inmateriales, de los que es difícil imaginar el coste real en caso depérdida, aunque es casi seguro que, si algo pasara, la empresa podría verse rápidamente obligada acerrar sus puertas.

"Lo inmaterial está en el corazón de la estrategia de las empresas que crean valor: el resultado mássorprendente de nuestro estudio es que, el 60% del valor de las principales empresas europeas seexplica por su capital inmaterial" según Ernst & Young.

La seguridad de los sistemas de información consiste en:

Garantizar que las personas autorizadas pueden acceder al sistema de información(Disponibilidad).

Garantizar que sólo las personas autorizadas tienen acceso al sistema de información de laempresa (Confidencialidad).

Garantizar que los elementos considerados del sistema de información son exactos y completos(Integridad).

Garantizar que el acceso y tentativas de acceso a los elementos considerados del sistema deinformación son trazados y que las trazas son conservadas y explotables (Trazabilidad).

Usted encontrará a menudo la noción DICT entre expertos de seguridad a lo largo de varios proyectos.

Página 72 de 169

Los organismos americanos no consideran la trazabilidad como un criterio de seguridad y proponen unmodelo llamado CIA (Confidentiality - Integrity - Availability).

Hay diversas y variadas amenazas que pesan sobre los sistemas de información. A poco que existanvulnerabilidades técnicas u organizativas en una empresa, esas amenazas serán capaces deaprovecharlas. A partir del momento en que la amenaza o la vulnerabilidad están presentes, existe unriesgo.

Para verificar que el riesgo es real y tangible, los expertos en seguridad efectúan lo quecomúnmente se llama un análisis de riesgos. Sin entrar en detalles, el análisis de riesgos permiteafrontar:

la probabilidad de aparición de una amenaza que aproveche una vulnerabilidad. el impacto generado por esta explotación.

Se deduce una matriz por cada riesgo proponiendo una escala de valores.

Ya se sabe que conocerlo todo perfectamente no es fácil. Cuántas personas piensan hoy en día que elavión no es un medio de transporte muy seguro, y resulta que estadísticamente es uno de los másfiables mientras que, en realidad, es el transporte en automóvil el que comporta mayor peligro. Sinembargo, los usuarios no tienen la impresión de estar en riesgo cada vez que conducen. Para teneruna visión objetiva, a veces es necesario ver las cosas desde fuera.

Las amenazas se descuidan a menudo por falta de tiempo o recursos. Sin embargo, los sistemas deinformación tienen un número incalculable de puntos de entrada. Un simple servidor debe estarprotegido a todos los niveles para poder garantizar el principio del DICT.

Un ejemplo:

Página 73 de 169

Reto nº 1: asegurar la disponibilidad de las infraestructuras virtualesComo ya hemos visto, la Disponibilidad es un elemento esencial de la seguridad de los sistemas deinformación. Asegurarla en entornos virtuales debe ser, por tanto, primordial. Existen muchasposibilidades de asegurar la disponibilidad de un conjunto de servicios, sin embargo también existenmuchas amenazas que pueden atentar contra esta disponibilidad. Sabiendo cómo se define unainfraestructura virtual (ver el capítulo anterior), es necesario asegurar al máximo ladisponibilidad de los elementos siguientes:

La alta disponibilidad de los servidores.

La alta disponibilidad del almacenamiento.

La alta disponibilidad de las máquinas virtuales y de las aplicaciones.

La alta disponibilidad de la red.

La supervisión del conjunto de infraestructura.

1. La alta disponibilidad de los servidoresLa alta disponibilidad de los servidores o "hosts" es un elemento determinante para garantizar quelas máquinas virtuales que haya, heredan igualmente esa disponibilidad. Los servidores deben tenermecanismos que permitan paliar en mayor o menor medida los errores de hardware. Por ejemplo:

Ventilación redundante. En caso de error de un ventilador, otro debe poder asumir la carga,para continuar con las operaciones.

Página 74 de 169

Alimentación redundante. Hoy en día, los servidores a menudo tienen 2 alimentaciones. Esnecesario que, en caso de que falle una no perjudique a las demás. Algunos fabricantes noaíslan lo suficiente unas alimentaciones de otras, lo que conlleva, a veces, al fallo total detodas en caso de problemas.

CPU redundantes. Los fabricantes proponen que las CPU estén aisladas unas de otras para evitarla parada de sistema en caso de error; desgraciadamente, según las pruebas elaboradas ennuestros laboratorios, está comprobado que VMware ESX no soporta la parada de un procesadorfísico. El servidor se parará inmediatamente.

Memoria redundante. Las placas de memoria también deberían ser independientes. Es posible quealgunas de ellas fallen, y cuantas más haya, mayor es el riesgo de fallo de alguna. Por eso esimportante que la pérdida de una placa de memoria no entrañe la parada total de lasactividades del servidor. A nivel de pruebas, está comprobado que los resultados sondiferentes en función de los fabricantes. VMware parece gestionar correctamente la pérdida dememoria física siempre y cuando el fabricante gestione correctamente a nivel de hardware laexcepción generada. Es preferible asegurarse de que las placas de memoria provienen del mismofabricante y que tienen las mismas referencias, lo que evita comportamientos erráticos quepueden conducir a una PSOD (Purple Screen Of Death).

Tarjeta de red redundante. Los servidores deben tener suficientes tarjetas de red para poderpaliar la pérdida de conectividad de una de éllas. Generalmente, este tipo de error está biensoportado (p.ej.: VMware con el NIC Teaming).

En VMware, la PSOD es equivalente a la BSOD (Blue Screen Of Death) de Microsoft Windows.

Discos duros redundantes. A menudo, el hipervisor se instala en local. Debe estudiarsecorrectamente el modo Boot From San de VMware ESX (que permite almacenar el hipervisor sobreuna SAN) antes de instalarlo (sobre todo desde un punto de vista de coste). El hipervisor debeencontrarse sobre discos RAID 1 o 5 (ver otros RAID dependiendo el soporte del fabricante).Hay que evitar absolutamente el RAID 0, que no nos permitirá asegurar la pérdida de un disco.

La alta disponibilidad de los servidores puede también implicar el uso de material especificollamado hardware tolerante a errores. Éste permite paliar cualquier problema de hardware sinimpactar sobre la operatividad. Todo elemento de un servidor Fault Tolerant puede fallar sinperjudicar al servidor y a los servicios presentes.

Página 75 de 169

Puede haber un impacto sobre los niveles de rendimiento, pero los servicios continúan disponibles.

2. La alta disponibilidad del almacenamientoEl almacenamiento es crucial para asegurar la disponibilidad de la información. Es aquí donde resideel conjunto de datos. Hoy en día, los fabricantes de bahías SAN/NAS incluyen algunos mecanismos quepermiten paliar los errores mas críticos:

Fallos de disco. Los fabricantes han incluido mecanismos RAID probados. Algunos no dudan ensacar versiones RAID que permiten alcanzar una muy alta disponibilidad, por ejemplo el RAID DP(Doble paridad). Además, los discos tienen generalmente un MTBF (Mean Time Before Failure o tiempomedio antes de un fallo) muy superior al de los discos clásicos de los servidores.

Fallos de los Storage Processors (SP). Los SP permiten asegurar todas las operacionesefectuadas en las bahías SAN. Generalmente, los fabricantes permiten tener SP redundantes parapaliar errores.

Fallos a nivel de alimentación. Las bahías de almacenamiento también pueden ser sensibles a losproblemas de alimentación. Por tanto, las bahías deben poseer obligatoriamente variasalimentaciones aisladas unas de otras.

Fallo de ventiladores. Las bahías de almacenamiento también se refrigeran. Aunque no secalientan tanto como los servidores, es esencial conservarlas a temperaturas convencionales.

Fallos de red. Los fabricantes deben poder paliar los errores de red de una o varias tarjetasde red o HBA. Hasta hoy, VMware gestionaba completamente el Multipathing. Parece que en lapróxima versión (VMware ESX 4), el fabricante de bahías de almacenamiento podría gestionarlocompletamente, lo que permitirá asegurar una mejor disponibilidad de los datos.

Existen técnicas que permiten asegurar la alta disponibilidad del almacenamiento virtualizándolodirectamente. Se puede citar, por ejemplo, la sociedad DATACORE que posee un programa que permiteabstraerse del aspecto material de las bahías de almacenamiento.

Página 76 de 169

Gracias a este programa, se puede hacer creer a los servidores que el espacio de almacenamiento esilimitado o, por el contrario, que es muy reducido. Igualmente se puede mejorar la provisión deespacio, repartir la carga, gestionar la replicación de LUNS, etc. El único punto débil reside enlos servidores que tienen la capa de abstracción. Estos son muy críticos y concentran las E/S. Losrendimientos pueden verse ligeramente afectados.

3. La alta disponibilidad de las máquinas virtuales y de las aplicacionesLa alta disponibilidad de las máquinas virtuales y de las aplicaciones es un tema mucho más delicadoya que hoy en día no existe ninguna solución técnica sobre el tema. Primero, hay que asegurarse deque la máquina virtual está presente sobre una bahía de almacenamiento centralizado y que ésta estáredundada. Esto equivale a un sobrecoste importante. Evidentemente, también hay que asegurarse deque las rutas de red están disponibles y que los servidores hosts que alojan a las máquinasvirtuales están redundados.

Hay que crear una arquitectura llamada "Full Mesh".

Por tanto, la problemática de la disponibilidad de las máquinas virtuales permanece intacta. Si unservidor falla, la máquina virtual será retomada por otro servidor, aunque existe un lapso de tiempodurante el que la máquina virtual no estará disponible.

Página 77 de 169

Para paliar el problema, existen dos enfoques:

Crear una alta disponibilidad a nivel de aplicación o de sistema operativo invitado.

Crear una alta disponibilidad a nivel de máquina virtual (y no a nivel del host).

En el primer caso, esto depende totalmente de la aplicación y del sistema.

Por ejemplo, a nivel de sistema, se puede crear un cluster Microsoft MSCS. En este caso, dosmáquinas virtuales están en cluster. Si una máquina virtual se cae, la otra retoma automáticamenteel relevo. La creación del cluster MSCS es posible sobre VMware; sin embargo, es necesario tener encuenta muchos aspectos (mas allá del ámbito del libro).

A nivel de aplicación, por ejemplo, se puede crear clusteres de bases de datos con ORACLE y RAC (RealApplication Clusters). Aunque esto no está soportado por Oracle, es totalmente realizable (ver igualmentehttp://tinyurl.com/phqowk).

Es necesario calificar el entorno con numerosas pruebas para asegurar la coherencia del ensamblado,lo que implica un sobrecoste considerable.

En el segundo caso, VMware parece empezar a proponer soluciones. La próxima versión de VMware ESXintroducirá la noción de máquina virtual "Fault tolerant". El principio es crear una máquina virtualprimaria, a la vez que un clon, que recibirá todas las instrucciones enviadas a la máquina primaria.De hecho, las dos máquinas virtuales son totalmente idénticas. El principio es muy simple aunque,técnicamente hablando, extremadamente complejo. Una vez más, antes de lanzarse al uso de este tipode soluciones, habrá que validar esta opción con departamentos especializados…

Página 78 de 169

Sea cual sea la solución, la disponibilidad de las máquinas virtuales y de las aplicaciones debehacer sus pruebas. VMware propone un enfoque, aunque corresponde igualmente a los fabricantes deaplicaciones proponer soluciones (integración con MSCS, clustering nativo, enfoque modular, etc.).

4. La alta disponibilidad de la redLa alta disponibilidad de la red es un elemento que VMware no trataba hasta ahora. Había quecontentarse con NIC Teaming y algunas funcionalidades integradas en la capa de red de VMware ESX.VMware es muy consciente de que la red se ha convertido en un elemento crítico en todas lasinfraestructuras.

Existen muchas posibilidades, a nivel de redes físicas, para asegurar una alta disponibilidad, otodo aquello que está indirectamente relacionado:

Gestión de tipos de flujo.

Protocolos utilizados.

802.1Q.

802.1X.

STP & RSTP.

QoS.

Lamentablemente es imposible aplicar estos últimos a nivel de switch virtual.

Así pues, desde hace algunos años, Cisco está invirtiendo en una colaboración con VMware (tambiénhan comprado parte de su mercado).

Hace poco, Cisco comunicó a todos los niveles la llegada de la virtualización en los mundos de lared con productos innovadores como el Nexus 1000v.

El objetivo del Nexus 1000v es substituir al vSwitch de nivel 2 presente en VMware ESX, para ofrecertodas las funcionalidades que propone un Switch físico. El objetivo es, en cualquier caso, elevarlas máquinas virtuales desde un punto de vista de red, al mismo nivel funcional que las máquinasfísicas.

El Nexus 1000v sólo será compatible con vSphere.

Página 79 de 169

No obstante, la alianza con Cisco debería permitir una mejora en la alta disponibilidad de la red.

5. La supervisión de la infraestructura virtualA menudo, no es suficiente con configurar una arquitectura de alta disponibilidad para asegurarse ladisponibilidad de los datos y los sistemas. Es igualmente necesario poder verificar, en todomomento, por ejemplo, el estado de los componentes, la disponibilidad de los servicios, latemperatura de los servidores, la accesibilidad de los datos, etc.

Todo esto se resume en una palabra: supervisión.

Antes de seguir, es indispensable hacernos las preguntas siguientes:

¿Qué se necessita supervisar?

¿Cómo se traspasa la información de supervisión?

¿Quién supervisa?

¿Qué métricas se utilizan?

¿Cuándo habrá que desencadenar procesos automáticos o manuales?

Para asegurar la disponibilidad de su sistema de información, es conveniente supervisar el conjuntode servicios que lo componen. Para una arquitectura virtual, esto implica supervisar, al menos:

Los servidores hosts.

El almacenamiento.

La red.

Página 80 de 169

Los sistemas invitados, aplicaciones y servicios críticos.

El traspaso de información es muy importante. A menudo, los protocolos de supervisión comportanfallos de seguridad por lo que será conveniente utilizarlos con parsimonia y teniendo en cuenta losriesgos inherentes a su utilización.

Habrá que determinar quién supervisa la infraestructura virtual. De ello se desprende un conjunto deprocedimientos, una guía de buenas prácticas, y la formación del personal capacitado paraidentificar las métricas importantes. Efectivamente, todo puede supervisarse, aunque toda lainformación de supervisión no tiene la misma importancia. Habrá que seleccionar y decidir lasmétricas que parecen válidas o no.

Las personas encargadas de la supervisión deberán poder desencadenar los procedimientos cuando seanecesario.

La supervisión es un tema que debe trabajarse antes de la puesta en producción de unainfraestructura virtual y que necesitará ser mejorada constantemente a medida que evolucionan losprocesos y las tecnologías.

a. La supervisión de los servidores hosts

Los fabricantes de servidores llevan trabajando desde hace mucho en la supervisión material de susservidores. Esto permite transmitir las alertas que conciernen a todos los componentes internos.Existen varios enfoques para la supervisión de material:

A través de los agentes que se instalan en la Service Console. Estos pueden recoger los datos yenviarlos a un colector centralizado (por ejemplo el agente HP Insight Manager para VMware).

A través del Health Status de VMware ESX 3.5, desde la versión Update 2. La información esmenos precisa pero no es necesario ningún agente.

Página 81 de 169

A través de las célebres SNMP. Sin embargo, este modo no es aconsejable, ya que SNMP no estásecurizado por defecto y puede hacer circular información confidencial por la red.

Sea cual sea el modo de supervisión adoptado, habrá que interesarse particularmente en:

los procesadores,

la memoria,

los discos locales,

las tarjetas de red.

Estos elementos no son exhaustivos. Es posible añadir otros que haya que a supervisar según el tipode servidor escogido.

b. La supervisión del almacenamiento

Ya que el espacio de almacenamiento reside a menudo en SAN/NAS, los constructores facilitandiferentes métodos para supervisar sus equipos:

a través de interfaces propietarias,

a través del envío de mensajes SNMP.

Página 82 de 169

c. La supervisión de la red

La supervisión de una infraestructura virtual pasa igualmente por la supervisión de la red física yvirtual. La red física puede ser supervisada de mil y una formas (existen multitud de proyectos OpenSource).

La supervisión de la red es por el momento muy reducida a nivel de VMware ESX. Sin embargo se puedesupervisar:

la utilización media,

la tasa de transmisión,

la tasa de recepción,

el número de paquetes recibidos y transmitidos.

Página 83 de 169

d. La supervisión de los sistemas invitados, aplicaciones y servicios críticos

La supervisión de los sistemas invitados está bien gestionada sobre VMware ESX. Es posible recibirmucha información sobre, por ejemplo, la tasa de uso de los discos en E/S, el consumo en CPU ymemoria, etc. Estos criterios pueden visualizarse en tiempo real o en un resumen de histórico.Virtualcenter puede recoger la información de los servidores y de las máquinas virtuales.

Últimamente, Virtualcenter Update 4 permite resumir, en una sola página, los criterios másimportantes, lo que permite tener una visión global rápidamente.

El problema es que un host no tiene conocimiento del sistema invitado, o sólo es conscienteparcialmente (a través de las VMware tools). Esto provoca más problemas, especialmente el no supervisarlas aplicaciones y servicios críticos ejecutados en el sistema invitado. Habrá que remitirse a lasherramientas que permitan tener una visión más cercana del sistema invitado y de las aplicacionesque se ejecutan.

Existen muchas empresas que se dedican a ofrecer soluciones en este mercado tan prometedor:

Sysload Software

HP

Página 84 de 169

ManageEngine

Monitis

Las empresas han desarrollado incluso sus propios módulos de supervisión gracias al Open Source.

Reto nº 2: garantizar la integridad y la confidencialidad de los servidores VMware ESX

1. El problema del aislamientoSegún el primer principio de la virtualización, un proceso ejecutado en una máquina virtual estátotalmente compartimentado. Es imposible que pueda comunicar o modificar un proceso de la máquinahost o de otra máquina virtual.

Sin embargo, una máquina virtual se comunica de forma permanente con su host a través de los canalesencubiertos, lo que el VMkernel intercepta a través de una backdoor VMware. Ésta es utilizadaincluso por las VMware Tools para poder interactuar entre el sistema host y el sistema invitado.

La introducción del juego de instrucciones Intel VT y AMD-V mejora el aislamiento, gracias a uncontrol a nivel de instrucciones que provienen de la máquina virtual a la host.

La compartimentación se hace por los mecanismos internos de VMware (aunque el hardware contribuye agarantizar el aislamiento). Esta capa es, evidentemente, vulnerable a errores humanos, por lo quehay un riesgo significativo.

Como prueba, miremos el histórico de VMware ESX.

En 2008, constatamos que el número de vulnerabilidades está comprendido entre 0 y 3 por mes, lo quees poco, teniendo en cuenta la complejidad del sistema. Sin embargo, esto muestra igualmente que losfallos existen y que VMware ESX no está en ningún caso exento de ellos.

Página 85 de 169

Hasta ahora, en VMware ESX 3, ningún fallo se ha determinado como crítico. No hay PoC (Proof of Concept)que permita comprometer el hipervisor, por ejemplo, a partir de una máquina virtual. Por elcontrario, sí que se da el caso para otro producto de VMware: VMware Workstation. Sin embargo, el29% son vulnerabilidades llamadas altamente críticas, lo que significa igualmente que el riesgo estápresente.

Los principales posibles impactos en caso de explotación son muy sugerentes:

Acceso al sistema: pérdida del aislamiento.

DoS: ataque a la disponibilidad.

Dos ejemplos concretos:

CVE-2007-4496: un fallo podía permitir a una cuenta privilegiada en un sistema invitado provocar unacorrupción de memoria en un proceso del host, para hacer ejecutar a este último un códigoarbitrario.

CVE-2007-4497: un fallo podía permitir a un sistema invitado provocar un mal funcionamiento en losprocesos del host.

Es importante situar estos datos en su contexto. Las principales vulnerabilidades vienen de laService Console que es, de hecho, un sistema operativo Redhat 3. VMware no es responsable enabsoluto de las vulnerabilidades de la distribución Linux RedHat.

En conclusión, es esencial tener en cuenta que dos máquinas virtuales no pueden garantizar el mismogrado de aislamiento que dos máquinas físicas.

a. Riesgo a nivel de la capa de virtualización

VMware integra mecanismos de seguridad a nivel de la capa de virtualización que comprende elVMkernel y el VMM.

La protección de memoria está asegurada, de forma que se reserva el hyperspacing, lo quesignifica que la máquina virtual no puede leer o escribir en otros espacios de memoria salvolos que están reservados por el VMM en esta máquina virtual.

El VMM soporta la propagación del bit No Execute (páginas de memoria marcadas como noejecutables) en procesadores virtuales. Esto permite a los sistemas invitados, como MicrosoftWindows XP o Windows 2003, activar la función "Data Execution Prevention".

El único riesgo que está considerado como plausible sigue siendo el que se pueda aprovechar unavulnerabilidad que pueda conllevar la ejecución de código arbitrario a nivel de VMM o de VMkernel.

Página 86 de 169

Vistas las protecciones, parece que un DoS (Deny of Service) debe ser más temible que una toma decontrol del hipervisor o de las máquinas virtuales.

Aquí mostramos como ayuda un boceto de los análisis de riesgos:

Amenaza Probabilidad

Posibleimpacto

Contramedidas Comentario

Ataque tipo Buffer Overflow

Posible Disponibilidad

El VMM soporta la propagación del bit NX/XD. Visto que el traductor binario no opera sobre las traducciones de más de 12 instrucciones, es difícilimaginar tener un Buffer OverFlow.

Un ataque tipo Buffer Overflow es posible aunque difícil. Es necesario que quien quiera llevarlo a cabo tenga un nivel de conocimientos muyalto.

Utilizar el hyperthreading

Improbable

Disponibilidad

Los servidores ESX no dan la posibilidad a la máquinas virtuales de utilizar el hyperthreading; sin embargo, muchas máquinas virtuales pueden utilizar al mismo tiempoel mismo núcleo. Será extremadamente difícil utilizaresta vulnerabilidad para crear un DoS.

Aprovechar el uso de memoriadel VMkernel

Improbable

Disponibilidad

Cuando una máquina virtual pidememoria al VMkernel, éste pone a cero el conjunto de páginas.

El hyperspacing es realmente difícil en

Página 87 de 169

Amenaza Probabilidad

Posibleimpacto

Contramedidas Comentario

Teóricamente, la máquina virtual tiene un control total de su espacio de memoria y ninguna otra máquina puede acceder.

este caso concreto.

Fuga de memoria debidoa una compartición transparente de páginas

Imposible N/A Cuando una máquina virtual intenta modificar una página dememoria compartida, recupera una copia privada

La protección está perfectamente asegurada gracias a un ingenioso mecanismo.

b. Riesgo a nivel de la capa de red

La capa de virtualización de la red permite que las máquinas virtuales se comuniquen con la redfísica, así como que se integren con SAN/NAS gracias al protocolo iSCSI o NFS.

VMware ESX propone algunos mecanismos de red para asegurar la protección del nivel 2:

El Promiscuous Mode: por defecto en modo Reject, lo que permite impedir a la máquina virtualescuchar el tráfico de red sobre la interfaz conectada al vSwitch. Si esta opción está activa,nada impide a un usuario seguir todo el tráfico de red del vSwitch con una utilidad llamadaWireshark o Ethereal.

Mac Address Changes: por defecto en Accept, este modo permite rechazar los paquetes donde ladirección MAC no corresponde a la inscrita en el archivo .Vmx de la máquina virtual. Laactivación de este modo permite bloquear los ataques tipo Mac spoofing.

Forged Transmits: impide a una VM que transmita paquetes ARP creados con el objetivo deredirigir el tráfico. Esto impide, teóricamente, los ataques de tipo Arp Spoofing y CachePoisoning.

Como habrá visto, la capa de red de VMware permite prevenir ataques que serían difíciles de preveren una infraestructura clásica.

Sin embargo, ya que la capa de red sigue siendo software, es posible que aparezcan los siguientesriesgos:

Una vulnerabilidad que entrañe un Deny of Service. Ninguna prueba de estrés tipo Fuzzing hasido probada realmente contra la capa de virtualización de VMware (en cualquier caso ningúnestudio público). Cabe la posibilidad de que se produzcan disfunciones a este nivel.

La intercepción del tráfico VMotion. Aunque no se ha demostrado, existe un riesgo sobreVMotion, ya que el contenido de la memoria de un sistema invitado transita sobre la red LAN.

Página 88 de 169

Si el tráfico fuera interceptado y descifrado por una persona malintencionada, cabría laposibilidad de que consiguiera suficiente información para penetrar en el sistema invitado.

La realización de ataques de red a nivel 2 ó 3 (Mac Spoofing, Arp Spoofing, IP spoofing, etc.).

Intercepción de tráfico de red y escuchas.

Evitar el aislamiento de la red (VLAN).

Aquí mostramos como ayuda un boceto de los análisis de riesgos:

Amenaza Probabilidad

Posibleimpacto

Contramedidas Comentario

Ataque sobre laintegridad de los Switch virtuales

Improbable

Confidencialidad

Integridad

La conexión entre Switch virtual es casi imposible.

Los Switch virtuales no comparten la conexión física. No es posible usar un señuelo como en los Switch físicos clásicos.

Cada Switch virtual tiene su propia tabla de transferencias. No existe ningún mecanismo que permita transferir esta tabla.

Ataque a travésde una VM enlazada a un Switch virtual

Improbable

Disponibilidad

Los Switch virtuales no tienen conocimiento de la red a través de entidades externas. Una máquina virtual nopuede modificar la tabla de un Switch, porque no está diseñado para evolucionar.

Tráfico internode VLAN

Imposible Confidencialidad

Es importante configurar el tráfico por VLAN a nivel de VMware ESX.

Los expertos en red creen que la minimización del soporte a nivel de las VLAN aporta un grado de seguridad suplementaria.

Ataque de red através de las VLAN de los Switch virtuales

Improbable

Confidencialidad

Integridad

Disponibilidad

El uso de Switch físicos separados por losdiferentes Switch virtuales es igualmente una buena idea

Brecha en la red por error humano

Posible Confidencialidad

Disponibilidad

El etiquetado de las VLAN permite evitar la confusión.

MAC spoofing Posible Confidencialidad

Parametrizando las opciones de seguridad a Reject a nivel de Switch virtual para elmodo Mac Address Changes y Forged Transmits, este ataque es totalmente imposible.

Página 89 de 169

c. Riesgo a nivel de la Service Console

Como habrá visto anteriormente, la Service Console es, de hecho, un sistema operativo Linux RedHat.Se trata, en realidad, de una máquina virtual especial gestionada por el VMkernel. Si la ServiceConsole estuviera en compromiso, el conjunto de máquinas virtuales del host podría estarloigualmente.

La Service Console no es un sistema exento de defectos. Se pueden instalar muchos servicios ypaquetes. Existen protocolos no securizados: FTP, Telnet, NIS, SNMP, SMTP, etc. Además, losdesarrolladores y fabricantes aportan su granito de arena creando paquetes dedicados especialmente ala Service Console para la copia de seguridad y Supervisión.

Unos ejemplos de riesgos:

Explotación de una vulnerabilidad de software/conceptual/protocolaria que podría comprometer laService Console. Típicamente el compromiso del SSH V1, la escucha de tráfico Telnet, FTP oincluso SMTP.

Explotación de debilidades Unix inherentes: programa con el bit setuid/setgid, contraseñadébil, etc.

Aquí mostramos como ayuda un boceto de los análisis de riesgos:

Amenaza Probabilidad

Posibleimpacto

Contramedidas Comentario

Infiltración enla Service Console desde una red externa

Posible Disponibilidad

No autorizar las conexiones salvo si vienen de una red

Por defecto el ESX posee un firewall configurado para no dejar entrar

Página 90 de 169

Amenaza Probabilidad

Posibleimpacto

Contramedidas Comentario

Integridad protegida.

No debe permitirse ninguna conexión que venga directamente de Internet.

ninguna conexión externa.

Los únicos puertos abiertos de salida son losestrictamente necesarios para la comunicación entrelos diferentes elementos de la Infraestructura.

Intercepción delas comunicaciones de la Service Console

Posible Disponibilidad

Integridad

Todas las comunicaciones del cliente están cifradas con SSL (AES 256 y RSA 1024).

La única posibilidad seríaque la conexión se hicieradesde una red WAN y que tuviera lugar un ataque tipo MIM (Man In The Middle) (ya que pocas personas observan las certificaciones en la conexión).

Acceso a la Service Consolea través del Browser Web

Posible Disponibilidad

El servidor Tomcat instalado en el VMware ESX se ha modificado para soportar únicamente la administración y la supervisión.

Ataque de la Service Consolea través de unavulnerabilidad de RedHat

Posible Disponibilidad

Integridad

VMware es muy activo a la hora de sacar rápidamente parches para la Service Console.

La reactividad de VMware en este tema es, por el momento, ejemplar.

Ataque de la Service Consolea través de servicios no securizados

Posible Disponibilidad

Integridad

Los servicios no securizados no están activos por defecto.

Durante los períodos de mantenimiento, es posible que puertos como los de FTP o SMB permanezcan abiertos. Sin embargo, la ventana de apertura es muyreducida.

Ataque de la Service Consolea través del cambio de permisos

Posible Disponibilidad

Integridad

El número de aplicaciones que utilizan setuid/setgid se reduce al mínimo.

Ataque de la Service Consolea través de SNMP

Improbable

Disponibilidad

ESX sólo soporta SNMPv1y en read-only. Por tanto, no se puede parametrizar nada.

Ataque de la Service Consolea través de la

Improbable

Disponibilidad

Hay que aislar la Service Console con unaVLAN.

Página 91 de 169

Amenaza Probabilidad

Posibleimpacto

Contramedidas Comentario

red clásica Integridad

Ataque de la Service Consolea través de puertos clásicamente usados

Posible Disponibilidad

Integridad

VMware ESX tiene un Firewall configurado por defecto para sólo autorizar de salida lospuertos 902, 80, 443 y 22. No se autoriza en entrada.

Un DoS sobre estos puertos es posible. Poner un Firewall Hardware delante de la Service Console es una opción a tener en cuenta.

El firewall está basadosobre Iptables, lo que le permite llegar lejosen su configuración.

Ataque de la Service Consolea través de susaplicaciones o servicios complementarios

Improbable

Disponibilidad

La mayoría de agentes de copia de seguridad ysupervisión probados utilizan derechos reducidos que no permiten a un atacante tomar posesión de la Service Console.

Es cierto que cuanto mayores el número de puertas abiertas, mayor es el riesgo.

Uso de la Service Consolecomo un sistemaLinux RedHat clásico

Probable Disponibilidad

Integridad

Confidencialidad

Verificación de la integridad de los archivos y de los procesos en marcha. Exportación de los archivos de logs a un punto central de forma automática.

La Service Console es un sistema RedHat completamente customizado y modificado para ejecutarsolamente los procesos estrictamente necesarios en la comunicación con el Vmkernel. Toda instalaciónde paquetes RedHat suplementarios puede añadir vulnerabilidades que no serán tratadas por los parches de VMware.

Código malintencionado

Posible Disponibilidad

El aislamiento sobre una red protegida reduce en gran medida este tipo de amenaza.

El uso de código malintencionado es mucho mas difícil, ya que la Service Console es una versión restringida de un sistema RedHat 3.

VMware, en sus Best Practices, no aconseja hoyen día el uso de un agente

Página 92 de 169

Amenaza Probabilidad

Posibleimpacto

Contramedidas Comentario

antivirus.

Modificación noautorizada de servicios principales de VMware ESX

Posible Integridad Los archivos y directorios siguientes deberán ser verificadosregularmente desde un punto de vista de integridad :

/etc/profile,

/etc/ssh/sshd_config,

/etc/pam.d/system_auth,

/etc/ntp,

/etc/ntp.conf,

/etc/passwd,

/etc/group,

/etc/sudoers,

/etc/shadow,

/etc/vmware/

Hacer una copia de seguridad puede ser igualmente útil.

Ataque de Internet o malautilización de la Service Console

Posible Disponibilidad

Integridad

No usar el cliente VI Infrastructure en más de un sitio.

No se recomienda el usodirecto de la Service Console. No debe utilizarse (a través deSSH) salvo en los casosprecisos que no puedan ser resueltos a través del cliente VI.

DoS rellenando las particiones(Root por ejemplo)

Posible Disponibilidad

Hay que crear diferentes particiones para /home, /tmp, y /var/log. Éstas son lasúnicas particiones que probablemente pueden rellenarse de forma automática.

Si la partición Root está llena, es posible un DoS.

d. Riesgo a nivel de las máquinas virtuales

Aunque la virtualización con VMware ESX no modifica de forma alguna el sistema invitado, introducenuevas vulnerabilidades :

Página 93 de 169

El uso de las VMware Tools permite a una VM disponer de funcionalidades tipo Copy/Paste, SharedFolders, Drag & Drop y Memory Ballooning. Estas funcionalidades, aunque son extremadamenteprácticas, permiten la fuga de información, el agotamiento de los recursos de un sistemainvitado o el error humano…

El Snapshot. Aunque esta funcionalidad es extraordinaria, su mala utilización puede resultarcatastrófica.

La monopolización de los recursos por una sola máquina virtual en detrimento de las otras.

Las máquinas virtuales no son más que simples archivos. Por tanto, es muy fácil importarlas yexportarlas… ¡con todos los datos que haya! El riesgo llamado Rogue Virtual Machine o máquinavirtual espía puede ser algo corriente…

Página 94 de 169

Aquí mostramos como ayuda un boce de los análisis de riesgos:

Amenaza Probabilidad

Posibleimpacto

Contramedidas Comentario

Ataque de una máquina virtual a través de una ruta de otra VM sobre el mismo servidorESX

Imposible Disponibilidad

El VMkernel y la VMM controlan el aislamiento.

Evidentemente, las máquinas virtuales pueden comunicarse entreellas si se encuentran sobre el mismo Switch virtual o si están enlazadas al mismo Switch físico.

DoS a través de un consumo excesivo de recursos

Posible Disponibilidad

Es posible parametrizar límites tanto a nivel de recursos como de reservas.

Si la parametrización está bien hecha, el riesgo de consumo excesivo se reduce bastante. Sin embargo, parametrizar estas opciones requiere conocer muy bien el entorno.

Página 95 de 169

Amenaza Probabilidad

Posibleimpacto

Contramedidas Comentario

Riesgos clásicos de las máquinas virtuales

Posible Disponibilidad

Integridad

Confidencialidad

El hecho de que las máquinas sean virtuales noimpide que deban tratarse como máquinas físicas con un antivirus, un anti spyware, filtraje, la detección de intrusiones, el endurecimiento, etc.

Ataque a través de la Consola VI

Posible Disponibilidad

Una buena parametrización de derechos a nivel de máquina virtual permite evitar este riesgo.

e. Riesgo a nivel de almacenamiento

VMware está extremadamente relacionado con el almacenamiento y, especialmente, por tanto, con losfabricantes de bahías de almacenamiento. Anteriormente, las redes SAN estaban bien aisladas, perocon la llegada de la virtualización, esto no es obligatoriamente así. Las bahías de almacenamientosoportan la administración basada en IP, y los protocolos tipo iSCSI o FCOE (FC Over Ethernet) permitencomunicarse a través de la red IP con las bahías de almacenamiento.

La virtualización ha cambiado las costumbres a nivel de redes SAN, abriéndolas mucho más al mundoIP.

Esta apertura permite a los individuos malintencionados acceder a los datos confidenciales.

Aquí mostramos como ayuda un boceto de los análisis de riesgos:

Página 96 de 169

Amenaza Probabilidad

Posibleimpacto

Contramedidas Comentario

Presentación noautorizada de datos de la SAN

Probable Integridad

Confidencialidad

El Zoning y el LUN Masking son elementos que hay que tener en cuenta en una red SAN.

Aunque las SAN permiten el acceso a nivel de archivo (SMB,NFS, etc.), igualmenteserá necesario asegurar una buena parametrización.

Captura de datos de las redes SAN a través de una máquina virtual

Improbable

Integridad

Confidencialidad

Las máquinas virtuales no entienden el protocolo FC yno ven más que periféricos SCSI. Incluso el Multipathing se gestiona deforma que la máquina virtual no ve nada de la red SAN.

DoS de una máquina virtualaccediendo de forma intensivaa la SAN

Posible Disponibilidad

Es posible restringir la máquina virtual a nivel de E/S (con la noción de SHARE).

Ataque de la interfaz de administración de redes SAN

Posible Disponibilidad

Confidencialidad

Integridad

Casi todas las SAN se administran a través de la red IP. Es necesario cambiar las contraseñas pordefecto y crear contraseñasfuertes.

f. Riesgo a nivel de Virtualcenter

Virtualcenter es un elemento extremadamente crítico en toda la arquitectura VMware ESX. A partir deVirtualcenter, es posible dirigir el conjunto de operaciones sobre todos los servidores ESX.

Página 97 de 169

Virtualcenter está afectado, desgraciadamente, por el síndrome de la acumulación de módulos. Estácompuesto por:

Windows 2003-2008 como sistema operativo (con la llegada de vSphere). Este sistema estásometido a muchas vulnerabilidades.

Una base de datos MSSQL 2000 o 2005. Los ataques sobre bases de datos son muchos, sobre todosobre MSSQL 2000.

Un número de módulos complementarios impresionantes viniendo del ecosistema de VMware. Estosmódulos comunican y abren puertos (DoS posible).

Como prueba, veremos qué nos podremos encontrar en un servidor Virtualcenter al que se le hanañadido algunos módulos:

Página 98 de 169

Ahora un análisis de riesgos:

Página 99 de 169

Amenaza Probabilidad

Posibleimpacto

Contramedidas Comentario

Ataques específicos a Windows Server

Probable Integridad

Confidencialidad

Disponibilidad

Endurecimiento de Microsoft Windows 2003. Endurecimiento de MSSQL 2000 ó 2005. Uso de detectores de intrusión, antivirus, antispyware y gestión de parches.

Uso de privilegios a causa de un error humano

Probable Integridad

Confidencialidad

Disponibilidad

Dado que Virtualcenter puede estar integrado en Active Directory, el posicionamiento por error de un usuario esposible. Hay que prestar atención a la atribución de roles, privilegios y objetos.

Acceso a información almacenada en Windows que permita recuperar información útil

Posible Disponibilidad

Integridad

Virtualcenter tiene un sistema de logs elaborado. Otros archivos también son importantes: licencias, configuración de Virtualcenter (formato XML), etc. Estos últimos están repartidos en muchos directorios donde los derechos de acceso pueden estar fácilmente mal configurados. Es por tanto necesario posicionar los derechos de forma que impidan un acceso fraudulento a estos.

Corrupción de Virtualcenter através de un ataque tipo Buffer Overflow

Poco probable

Disponibilidad

Confidencialidad

Integridad

Virtualcenter es un programa desarrollado por VMware con .NET. Se han integrado muchas contramedidas para evitar un desbordamiento del buffer. Sin embargo, laposibilidad existe. Es conveniente activarDEP al mínimo e instalar un software que permita controlar la memoria (detectar la intrusión en el host) para asegurar que Virtualcenter no será comprometido.

2. Autenticación y autorizaciónExisten dos métodos que permiten acceder a un servidor ESX: por la Service Console o utilizandoVirtualcenter. El principal problema reside en el hecho de que los derechos presentes a nivel de ESXno repercuten a nivel de Virtualcenter y viceversa. Este problema se debe al hecho de queVirtualcenter se instala sobre sistemas Microsoft y se comunica con Active Directory, mientras quela Service Console es un sistema Unix.

Por defecto, a nivel de ESX, solamente la cuenta root puede tener un acceso total. Una vez integradaen Virtualcenter, la cuenta vpxuser se añade localmente al servidor ESX y tiene derechos deadministrador. La cuenta vpxuser tiene una contraseña generada aleatoriamente y cambiadaregularmente (no hay ningún problema de seguridad debido a esta cuenta).

La complejidad de las contraseñas, además de su caducidad, se puede configurar a través delcomandoesxcfg-auth, pudiéndose definir:

la duración máxima de una contraseña,

la caducidad de las contraseñas,

la complejidad de las contraseñas,

Página 100 de 169

la longitud mínima de las contraseñas.

Hay que tener presente que las cuentas que hay en el servidor host son locales. Habrá que borrarlasmanualmente después de usarlas.

Una vez se ha integrado Virtualcenter, es posible gestionar todos los servidores ESX a través de unasola interfaz. El servidor que contenga Virtualcenter puede también integrarse a sí mismo en ActiveDirectory de Microsoft. Con esto es posible atribuir derechos a nivel de Virtualcenter a losusuarios en Active Directory.

Virtualcenter atribuye los derechos según 4 criterios:

los usuarios y grupos,

los privilegios,

los roles,

los permisos sobre los objetos.

El principio es el siguiente:

Una vez que el usuario ha sido seleccionado (un usuario local o un usuario en Active Directory),habrá que atribuirle un rol. Existen numerosos roles por defecto que tienen el derecho de realizaruna o varias acciones o "privilegios". Los roles por defecto son:

administrador de máquinas virtuales,

administrador de Datacenter,

usuario con poder de máquinas virtuales,

usuario de máquinas virtuales,

Página 101 de 169

administrador de un conjunto de recursos.

Es posible crear roles personalizados o modificar los existentes (salvo el rol no Access, read-onlyy Administrador).

Una vez elegidos el usuario y los roles, el usuario se le otorgan privilegios que modificarán superfil o lo dejarán tal cual.

En último lugar, habrá que seleccionar los objetos que se verán afectados. Es posible aplicarderechos sobre los objetos siguientes:

datacenters

clusters

hosts

máquinas virtuales

directorios

conjuntos de recursos

3. Las actualizaciones y las futuras proteccionesVMware, a través de Virtualcenter, propone actualizar el conjunto de servidores ESX (que engloba alos ESXi) a través del componente VMware Update Manager. VMware Update Manager es un proxy deactualizaciones en el sentido que recupera todas las actualizaciones de los servidores ESX y escapaz de redistribuirlas.

VMware Update Manager puede igualmente actualizar los sistemas operativos siguientes:

Windows

Linux

Las ventajas de VMware Update Manager son las siguientes:

centralización de las actualizaciones,

posibilidad de actualizar a la vez sistemas Linux y Microsoft Windows,

está integrado en Virtualcenter (no se necesitan máquinas virtuales suplementarias o mecanismostipo WSUS).

Página 102 de 169

VMware debería permitir garantizar mejor la protección de sus máquinas virtuales con un add-on queestará disponible con VMware ESX 4: vShield.

vShield debería permitir supervisar, bloquear y trazar las comunicaciones inter VM entre servidoresESX o entre servidores de un mismo cluster. La granularidad prometida debería extenderse hasta elnivel de aplicación.

En resumen, vShield debería permitir crear políticas de seguridad de red como un Firewall/IPS/IDS.Queda saber si cumplirá sus compromisos y si será suficientemente fácil de usar para evitar erroreshumanos.

Página 103 de 169

Reto n°3: luchar contra las consecuencias inherentes de la virtualización

1. La pérdida de la defensa perimétricaLa primera consecuencia de la virtualización es la destrucción de la defensa perimétrica. De hecho,la virtualización crea redes virtuales, que redirigen el flujo de diferentes formas según susconexiones a las redes físicas.

A lo largo de muchas auditorías, han aparecido dos casos:

Bypass de las protecciones de red.

Detección de intrusiones obsoleta.

a. Bypass de las protecciones de red

Las protecciones de red tipo Firewall y ACL son difíciles de mantener en infraestructurasvirtualizadas.

Puede darse el caso de que la noción de Switch virtual sea mal entendida por los actores de la red(hasta a los expertos de VMware les resulta difícil).

Los firewalls pueden estar cortocircuitados debido a una mala comprensión. Para comprenderlo mejor,vamos a ver un esquema sacado de una auditoría reciente:

La conexión de un Switch virtual a un Switch físico ha permitido saltar dos firewalls y dejar asíacceso libre a una máquina virtual. Desde esa máquina, el pirata podría haber tomado posesión detodas las otras máquinas virtuales.

Dada la complejidad de las redes, la interacción con las redes privadas (VLAN), las virtuales(vSwitch) y las físicas (Switch, router, etc.) va a llevar inevitablemente a estar expuesto a estetipo de riesgo. Sería conveniente permanecer alerta respecto a esta amenaza.

Página 104 de 169

b. Detección de intrusiones obsoleta

La detección de intrusiones es un tema particularmente sensible estos últimos años. Los actores delmercado intentan vendernos sus soluciones con mayor o menor éxito. La tecnología de detección deintrusiones se convierte en imprescindible, dada la complejidad de los ataques.

Desgraciadamente, la virtualización puede poner en peligro este mercado. De hecho, la detección deintrusos es una tarea muy difícil en una red virtual. Los flujos no pasan obligatoriamente por dondedeberían, lo que convierte a los IDS/IPS más o menos ineficaces.

Vamos a ver un ejemplo concreto:

El pirata forma parte de la red interna, y se conecta de forma completamente normal a una máquinavirtual en una DMZ. A partir de ahí, el pirata aprovecha el hecho de que las máquinas virtualesestán ligadas a vSwitch internos.

Este caso es evidentemente discutible, ya que la arquitectura no está optimizada desde un punto devista de seguridad. Pero ofrece una buena ilustración de lo que podría encontrarse cada vez más enmuchas empresas, ya que la crisis financiera no favorece la compra de material destinado a esto yque los responsables prefieren un aislamiento virtual a un aislamiento físico, en término de costes.

2. Pérdida de visión de la informaciónLa virtualización está muy ligada a la noción de Cloud Computing. Hay que imaginar lo que lavirtualización ofrecerá en unos años. Las máquinas virtuales irán de un Datacenter a otro sincortes. Dependiendo de las cargas a las que se enfrenten, migrarán a máquinas más potentes. Es lailusión de un mundo perfecto, donde todo está automáticamente gestionado, y donde la adaptación esla palabra clave.

Por otro lado, también hay que imaginar que usted no sabrá dónde encontrar su propia información, niincluso su máquinas virtuales. Esto puede constituir un auténtico problema.

¿Quién garantiza, hoy en día, que su máquina virtual no estará duplicada en un país contra el que seesté en guerra?

¿Quién garantiza que su máquina virtual no esté en un país embargado?

¿Quién le garantiza que su máquina virtual no está en este momento en manos de la competencia?

¿Quién le garantiza que el Datacenter al que acaba de migrar su máquina virtual utiliza la mismapolítica de seguridad que aquel dónde estaba antes?

¡Podemos hacernos muchas preguntas!

Es evidente que la virtualización contribuirá enormemente a mejorar la disponibilidad de lainformación, pero no deberá hacerse nunca en detrimento de la confidencialidad y de la integridad.

La noción de Cloud Computing implica que los datos confidenciales van a encontrarse duplicados enmuchos sitios físicos repartidos por todo el mundo, o al menos durante un período de tiempodefinido, se encontrarán en más de un lugar, con lo que podrían ser copiados. Esto deja muchasventanas y puertas abiertas a su información; es el sueño dorado de la fuga de información…

Página 105 de 169

3. La criticidad real de los hostsUno de los problemas inherentes a la virtualización concierne al aspecto dinámico y evolutivo. Es unpunto muy positivo en muchos casos, pero no obligatoriamente en el de la seguridad. De hecho, cuandohay que analizar la criticidad de un servidor, hay que tener en cuenta las máquinas virtuales que seencuentran en él. Esto complica, en gran medida, el trabajo de los que deben realizar un análisis deriesgos. Imagínese que, además, esas máquinas virtuales pueden moverse y migrar de un entorno aotro; será difícil caracterizar entonces la criticidad de un entorno.

Tomemos un ejemplo:

La máquina virtual A es muy crítica y la máquina virtual B no lo es. Estas máquinas virtuales seencuentran en el mismo host físico. ¿Cuál es su criticidad?

La primera respuesta consiste en considerar que, en el momento en que una máquina virtualconfidencial se encuentra en un host, éste se convierte en crítico.

Ahora que el host es crítico, la máquina virtual confidencial migra a otro servidor host. ¿Quésucede con su criticidad?

Ya habrá entendido que, los análisis de riesgos y e incluso la visión del riesgo van a ser mucho máscomplejos en entornos virtuales.

Virtualización y Entornos CríticosIntroducciónAntes de nada, repasaremos la noción de entorno.

Un entorno se considera aquí un conjunto de sistemas o aplicaciones que permiten a una empresaefectuar tareas diversas.

La virtualización de entornos críticos es un punto capital en cualquier proyecto de virtualización.A menudo, las empresas que deciden dar el paso tienen mucho miedo a virtualizar los sistemasvitales, ya que cualquier tecnología nueva comporta riesgos, como por ejemplo:

Página 106 de 169

Una débil madurez, por lo que tiene muchos bugs. Un número de experiencias de clientes insuficiente, por tanto una posible inviabilidad

técnica. La posibilidad de fallar ante imprevistos.

Tomemos el ejemplo de una gran cuenta. Si un bug cualquiera afecta a los servidores Web internosvirtualizados, no se podrá acceder a la Intranet. Las posibles consecuencias son:

La imposibilidad de consultar los perfiles de compañeros y sus respectivos departamentos. Los números de teléfono y emails del personal interno están momentáneamente inaccesibles. No es posible buscar documentación interna.

Aunque esto puede retrasar el trabajo, su efecto es limitado.

Tomemos otro ejemplo de otra gran cuenta. Si un bug cualquiera afecta esta vez a los sistemasencargados de los pagos en línea, las posibles consecuencias son:

Los clientes no pueden pagar en línea y por tanto no pueden comprar (pérdida de ventas). Los clientes no saben si sus pagos se han aceptado o no, lo que les genera desconfianza

(pérdida de imagen de marca). Los procesos de validación de pedidos no pueden verificar el estado de los pagos (retraso de

pedidos, quejas de clientes, problemas en la cadena logística, etc.).

En este tipo de escenario, es posible que se llame rápido a quien haya tomado la decisión devirtualizar…

En resumen, la decisión de virtualizar un entorno crítico no es fácil, y demanda un profundo estudiode la viabilidad técnica, un análisis de riesgos minimalista y una puesta en producción vigilada ycontrolada.

¿Qué dificultades tiene la virtualización de entornos críticos?Hoy en día, muchas empresas piensan que conocen sus entornos críticos. Sin embargo, las consultoríasde seguridad le dirán que todas las empresas, pequeñas y grandes, no conocen el conjunto de susvulnerabilidades, ya que no conocen sus puntos vitales o "activos" (assets). En el mundo de laseguridad de los sistemas de información, los activos representan todo aquello que tiene un valor oque permite crear valor para la empresa; es lo que conviene proteger en todos los casos. Los activospueden ser materiales o inmateriales, como ya hemos visto.

Un entorno crítico es un entorno dependiente de aplicaciones/sistemas donde un mal funcionamientotendrá un impacto importante sobre la seguridad o la vida de las personas, empresas o bienes.

Por tanto, un entorno puede convertirse en crítico de un día para otro, a lo largo del desarrollo dela empresa, y al contrario. La noción de criticidad es, además, relativa en comparación a la visiónde cada uno de sus activos. Es por eso que una opinión objetiva y externa es a menudo convenientepara mejorar la visión de los propios activos.

A continuación mostraremos tres ejemplos que conciernen a sectores de actividades diferentes, quedan una primera idea de las dificultades que se encuentran al virtualizar entornos críticos.

Atención, los testimonios hay que tomarlos con precaución. Dependen en gran medida del contexto, delentorno y del histórico de cada empresa. Es posible que, mientras tanto, hayan surgido nuevoselementos que permitan tratar de otra forma las problemáticas expuestas.

1. Primera dificultad: determinar las dependencias funcionales y técnicasNos podemos dar cuenta de la criticidad de un entorno preguntándonos lo siguiente: ¿qué pasaría sieste entorno faltara? La pregunta es muy fácil, y permite recolocar el entorno en su contexto. Elentorno puede, por ejemplo, estar relacionado con:

Página 107 de 169

los clientes,

el personal interno,

los activos materiales de la empresa,

los activos inmateriales de la empresa,

los responsables de la empresa,

terceras personas en el contrato.

Desgraciadamente para muchas empresas, los entornos son independientes unos de otros. Estaindependencia ha permitido favorecer estos últimos años el aspecto «modular», pero también hacomplicado el conjunto del Sistema de Información. Un entorno ya no está solo, y vive en unauténtico ecosistema. Su evolución está relacionada a la de otros entornos, y todo cambio que leafecte impacta sobre el conjunto de entornos relacionados.

Esto puede parecer evidente a simple vista, pero es importante recordarlo para ser consciente de quetocar un entorno vital para el núcleo del negocio, a menudo puede provocar efectos de abordoimprevisibles.

Tomemos un ejemplo concreto de un testimonio de una empresa.

Caso de una empresa de logística

Una empresa tiene como actividad principal la logística. Encamina los paquetes de todos sus clientesa destino, a nivel nacional o internacional. Su proceso interno de despacho de paquetería se realizaa través de una herramienta interna, basada en una base de datos centralizada, que permite a laempresa disponer de una ventaja sobre la competencia: la rapidez y muy pocos errores de entrega.

Parece evidente que el entorno que se ocupa del despacho de paquetes es crítico, así como la base dedatos. Mirándolo más de cerca, nos daremos cuenta de que el entorno depende de un conjunto desubsistemas, que son:

El etiquetado de los paquetes.

La localización de las direcciones.

La sincronización con la base de datos de las empresas de transporte.

Sin embargo, el lector se sigue preguntando: sí, pero ¿qué tiene esto que ver con la virtualización?

La respuesta es la siguiente: el proyecto consistía en virtualizar tanto el conjunto de puestos detrabajo como los servidores de la empresa. A primera vista, virtualizar la base de datos no era unproblema, ya que no generaba muchas E/S. El entorno de encaminamiento, en sí, no representaba ningúnproblema en particular.

El problema era el siguiente: el etiquetado de los paquetes se hacía con un aparato muy especialconectado a un ordenador por Bluetooth. Por tanto, era técnicamente imposible virtualizar todos lospuestos de trabajo como se había previsto. Conclusión: sólo el 75% del perímetro podía virtualizarsey los puestos de trabajo que se ocupaban del etiquetado quedaron de momento como estaban, sin poderser «masterizados» como el resto del parque, lo que entraña un problema de seguridad así como unsobrecoste de mantenimiento. Si la virtualización se hubiera vendido de entrada como «LA» soluciónmilagro, el DSI habría tenido que justificar sus informes de cara a sus superiores y asumir todaslas consecuencias que se derivaran.

2. Segunda dificultad: la comprensión de interaccionesUn entorno puede ser crítico si interactúa con datos críticos. En sí, el entorno puede no serindispensable. Por contra, todos los datos que manipula a diario son muy sensibles.

Página 108 de 169

La cuestión que nos planteamos rápidamente y que merece la pena hacerse es: «¿Pero en qué va acambiar la virtualización una interacción?». De hecho, la virtualización no tiene por objetivocambiar el modo de funcionamiento (si no, no se adoptaría masivamente). En cambio, lasmanipulaciones que se derivan pueden provocar efectos mucho más devastadores que en una arquitecturaclásica.

Tomemos otra vez un ejemplo de una experiencia concreta.

Caso de una empresa del sector médico

Una empresa tiene como actividad principal la gestión diaria de los plannings de hospitales y de lasrecetas de los pacientes, para lo que se ha creado una ERP, con diferentes módulos enlazados a unabase de datos centralizada. Estos módulos se comunican entre sí a través de un disco compartido(sobre una SAN o NAS) creando archivos temporales con un significado particular. Por ejemplo:

Un archivo Go.txt significa que hay que recalcular los plannings para optimizar los tiempos derespuesta.

Un archivo license.txt contiene las licencias de la ERP. Sin éste, el software deja de funcionar alcabo de 15 días.

El número de E/S en este disco compartido es bastante alto, debido al volumen de información que seintercambia.

La empresa acaba de firmar un contrato y despliega su nuevo software en colaboración con el equipoinformático de un importante hospital. El hospital acaba de invertir en una nueva arquitecturavirtual y pide que se instale la ERP sobre máquinas virtuales, lo que que se hará sin grandesdificultades.

Pasan algunos meses desde la puesta en producción, y los equipos gestionan diariamente la nuevaarquitectura. Desgraciadamente, los problemas económicos obligan al DSI a desprenderse de una bahíaSAN debido a su elevado coste de mantenimiento. Esta bahía SAN se ocupaba antes de la comparticiónde archivos de la ERP. La bahía SAN se retira y se configura una máquina virtual dedicada a lacompartición de archivos. Esta máquina virtual contiene dos discos virtuales: uno para el sistema yotro para compartir los datos.

Una vez se crea la máquina, se hace un snapshot para garantizar una marcha atrás en caso de fallodel sistema.

Al cabo de unas semanas, la máquina virtual falla, debido a una actualización. Los administradoresse sienten muy orgullosos de poder utilizar las funcionalidades de los snapshots para restaurar elsistema en pocos segundos. Se envía un email a la DSI: «Gracias a la nueva arquitectura virtual,hemos restablecido las operaciones en sólo 5 minutos.»

15 días después, el ERP se bloquea completamente y nadie es capaz de encontrar la causa delproblema. Las actividades del hospital se reducen al mínimo, y se va a evitar la "catástrofe" porpoco.

Sin embargo, la explicación es lógica. La máquina virtual creada para reemplazar los archivos SAN seha «snapshoteado» después de haberla configurado correctamente. Sin embargo, los datos que contienela SAN se transfirieron después del snapshot de la máquina virtual.

En el momento que el equipo decide hacer una restauración, el snapshot reinicializó el disco desistema y el disco de datos al estado inicial, lo que permitió retomar el trabajo rápidamente (lamáquina virtual «snapshoteada» era perfectamente operativa) pero tuvo por efecto eliminar todos losdatos presentes en el disco de datos (y por tanto el archivo licence.txt).

Página 109 de 169

3. Tercera dificultad: encontrar métricas fiablesCuando se debe virtualizar un entorno crítico que genera numerosas E/S, no es fácil comprometersesobre el rendimiento de la nueva arquitectura. Hay que tener un buen número de métricas: las KPI (KeyPerformance Indicator).

Hoy en día, todos los fabricantes comunican en sus Benchmark, mostrando resultados siempre mejoresunos que otros. Sin embargo, aunque las pruebas tienen cierta validez, no siempre sonrepresentativas de lo que una empresa instalará realmente. Existen múltiples soluciones, según laslimitaciones de tiempo y presupuesto; mostraremos algunas:

Pedir una opinión de cliente sobre esa arquitectura.

Hacer simulaciones en laboratorio.

Probar directamente en producción durante un periodo de tiempo bien definido.

Cada solución tiene sus ventajas y sus inconvenientes.

Caso de una empresa del sector industrial

Veamos el caso de una empresa del sector industrial encargada de fabricar chips electrónicas. ElDSI, viendo que los puestos de trabajo estaban anticuados, decide cambiarlos, pero ya que la empresasufre la crisis económica, decide virtualizarlos para reducir costes. Su empresa tiene un acuerdomarco con fabricantes de servidores, y por tanto puede negociar la compra de muchos servidores bladepara mutualizar toda la infraestructura de estos.

La empresa posee actualmente 800 puestos de trabajo, por lo que el DSI deberá crear 800 máquinasvirtuales dedicadas para los usuarios y habrá que invertir igualmente en la compra de 800 terminalesligeros.

Página 110 de 169

El DSI se pregunta: ¿cuántas máquinas virtuales puedo alojar en cada host?

La arquitectura es la siguiente:

El DSI decide realizar un estudio, y elimina inmediatamente la opción "Probar directamente enproducción sobre un período de tiempo bien definido" ya que lo considera demasiado peligroso.

Había poca experiencia sobre este tipo de configuraciones como para hacerse una idea.

El DSI se decanta por expertos externos a la empresa que concluyen rápidamente que habría que probarla configuración en laboratorio y simular la carga de 800 usuarios sobre 800 máquinas virtuales.

Se plantean entonces muchos problemas:

¿Cómo simular el comportamiento de un usuario?

¿Cómo determinar el perfil de funcionamiento del usuario?

Página 111 de 169

¿Qué garantía hay de que un usuario se comporte con el tiempo de forma idéntica?

¿Cuántos perfiles de funcionamiento de usuario existen?

¿Cuáles son las incógnitas? (usuarios muy consumidores de recursos, etc.).

El estudio se llevó a cabo con utilidades experimentales. En lugar de simular simplemente el flujode usuarios como se hace en muchas empresas especializadas, los expertos crearon una inteligenciaartificial capaz de simular el comportamiento de un usuario clásico (apertura de Microsoft Word,lectura de emails en Outlook, visualización de sitios Web con IE 7, modificación de archivos Excel,etc), añadiendo además cierta aleatoriedad en las tareas completadas. Esta inteligencia artificial,un poco rudimentaria, permitió simular el comportamiento de 800 usuarios sobre 800 máquinasvirtuales. Aunque esta técnica sea la mejor para obtener métricas fiables, la realidad es distinta.

No se tiene realmente en cuenta la parte desconocida, como en toda simulación.

Seguramente, no todos los perfiles son idénticos en la realidad.

Los perfiles varían. Una persona puede modificar su comportamiento de un día para otro.

En resumen, tener las métricas fiables es un auténtico desafío. Sea cual sea el proyecto, lasmétricas nunca serán perfectas. La mejor forma de actuar consistirá en escoger el mejor método paraobtener métricas suficientemente representativas de lo que pasa en realidad.

¿Cómo determinar la elección de un entorno para la virtualización?Ahora que se han identificado las principales dificultades, nos conviene interesarnos en la nociónde elección. Un entorno crítico puede virtualizarse si pasa todos los criterios de elección. Si noes el caso, el entorno no será virtualizado o lo será sólo parcialmente.

1. Determinar las características del entornoLa determinación de las características de un entorno es la primera etapa. Es primordial observar sucontexto técnico y funcional para disponer del mayor número de elementos posible. Hay muchas formasde determinar las características técnicas de un entorno.

Muchas utilidades pueden ayudar en este caso:

PowerRecon de Platespin

Esta utilidad permite recoger información relacionada con el entorno objetivo para orientarnos adiferentes escenarios de virtualización. La recogida de información se hace de forma no intrusiva(por tanto sin instalación de agente). Integra una noción de ROI/TCO interesante.

SP Analyst de Sysload Software

Página 112 de 169

El funcionamiento es idéntico: recoger el máximo de información posible para definir lascaracterísticas del entorno objetivo. Sysload es muy atractivo, visualmente hablando, y tiene unnúmero de métricas increíble. En cambio, es obligatorio instalar un agente, por lo que el programaes algo intrusivo. Actualmente, es una de las herramientas más usadas del mercado en materia desupervisión y de control de rendimientos.

OmniVision de Systar

Con menos fama en este campo, esta herramienta es perfecta para visualizar rápidamente lainformación básica (sistemas sobrecargados, errores, uptime, etc). La interfaz gráfica no es tanelocuente como la de sus competidores, pero tiene la ventaja de ir directa al grano.

Página 113 de 169

El principal problema de estas herramientas reside en la imposibilidad de reemplazar un auténticoauditor. Es por lo que podrán, sin duda, aportar métricas fiables, pero no permitirán gestionar ellado organizativo de los entornos, cosa que, como ya habrá visto en ejemplos anteriores, esseguramente el aspecto más importante.

Si usted no posee ninguna de estas herramientas y no quiere invertir en ellas, la observación es unaexcelente alternativa. Además, existe una gran cantidad de herramientas libres: Nagios, Cacti, MRTG,etc.

2. Posicionar las posibles optimizaciones para responder a la necesidadLa construcción de una infraestructura virtual requiere muchas habilidades, lo que indica que lasposibilidades de optimización son numerosas. Estas optimizaciones permiten, principalmente:

aumentar el rendimiento;

asegurar un máximo de disponibilidad;

asegurar una estabilidad precisa.

En el momento que un entorno se convierte en crítico, se necesita un cierto número deoptimizaciones.

Es suficiente mirar desde el lado de VMware para comprender que se observa particularmente elaspecto del rendimiento. Posee un blog dedicado a las pruebas de rendimiento y utiliza lasherramientas más conocidas del mercado para garantizar la validez de sus métricas según el público.Las utilidades SPEC por ejemplo, llegan a simular entornos bancarios, de e-commerce o de soporte.

Estos entornos son representativos de lo que se encuentra normalmente en muchas empresas, por lo quelas pruebas aportan un éxito rotundo.

Página 114 de 169

Cada prueba realizada por VMware o por sus colaboradores sigue un protocolo particular impuesto.Esto permite garantizar que estos se reproduzcan.

Cuando observe los protocolos de pruebas de cerca, verá que los colaboradores posicionan cada vez ungran número de optimizaciones para obtener los mejores resultados.

Desde hace poco, VMware creó un conjunto de tests para validar la virtualización de entornoscríticos (la web es www.vmmark.com)

El conjunto de pruebas sirve para validar los rendimientos de sistemas virtualizados pesados conreputación como:

un servidor email Exchange;

un servidor JAVA;

un servidor Web dedicado;

una base de datos;Página 115 de 169

un servidor de archivos.

VMmark está, por encima de todo, dedicado a los fabricantes de material de servidores. Estoscompiten por estar en cabeza de lista o, al menos, por aparecer en la lista oficial. VMmark esobservado de cerca por los responsables, para hacerse una idea de quiénes son los mejorescompetidores del mercado.

El cuarteto en cabeza actualmente es:

HP

DELL

IBM

SUN

Estos actores son, por el momento, los más reconocidos en el mercado de la virtualización. Otroscomo NEC, Fujitsu o Cisco deberían aparecer próximamente, ya que la competición se ha endurecido enEuropa.

Página 116 de 169

El denominador común de todas estas pruebas son los procesadores, o más exactamente el número denúcleos, ya que sólo AMD y INTEL están presentes en el mercado.

Las pruebas realizadas por cada uno de los actores presentan numerosas optimizaciones como muestrala pantalla siguiente:

3. Buscar un feedback/recurrir a empresas especializadasCuando usted debe construir una casa, se inspirará con lo que se haya hecho mejor en otros sitios yquerrá ver los materiales que se han utilizado. Un responsable de un proyecto de virtualización debehacer lo mismo. Siempre hay que ver lo que se ha hecho en otros sitios para no tener que pagar elprecio de la experimentación.

Desde hace algunos años, los feedbacks en materia de virtualización son, afortunadamente, muynumerosos. VMware ha comprendido extremadamente bien el fenómeno y hace públicos los testimonios demuchos clientes. Los fabricantes también han comprendido el fenómeno.

Un pequeño truco representativo: VMware ha creado un salvapantallas que agrupa testimonios de variosusuarios sobre arquitecturas importantes.

Los eventos organizados por VMware permiten comunicar las novedades "Business Case" y "SucessStories" y los colaboradores/fabricantes que se han asociado. Así, todo el mundo gana.

Existen muchos sitios relacionados con los proyectos de virtualización. Entre ellos están:

http://www.vmware.com/a/customers/

http://blogs.vmware.com/vmtn/case_studies/

Google siempre es una opción…

Muchas empresas especializadas han hecho su aparición. Es difícil hacer un panorama de éstastrabajando para una de éllas. Lo que sigue a continuación debe tomarse con una cierta distancia y ellector está invitado a hacerse una idea objetiva contactándoles directamente.

VIRTUALI: empresa especializada en la seguridad y virtualización de los Sistemas de Información.Esta sociedad se especializa en la puesta en marcha de PRD/PCA, en pruebas de carga y simulacionesde laboratorio, la puesta en marcha de infraestructuras de muy alta disponibilidad y lavirtualización de aplicaciones, puesto de trabajo y entornos críticos. Es la única empresa queintegra realmente la seguridad a todos los niveles de la infraestructura virtual. Sitio Web:http://www.virtuali.fr

ARUMTEC: empresa líder tanto en el mercado de la virtualización como en el de la integración.ARUMTEC tiene mucha experiencia con empresas y se especializa en estudios de ingeniería: estudios de

Página 117 de 169

elegibilidad, migraciones físicas contra virtuales, etc. ARUMTEC es hoy en día la referencia para elconsejo y el acompañamiento en grandes proyectos de virtualización. La sociedad cuenta hoy conmuchas referencias a su activo, incluyendo grandes cuentas. Sitio Web: http://www.arumtec.net

NWARE: empresa muy activa en el área de la virtualización, NWARE tiene buenas referencias en el áreabancaria. Nware agrupa a los apasionados de la virtualización bajo una comunidad internauta llamadaGuVirt. GuVirt es muy conocida por su gran dominio de las herramientas de virtualización delmercado: VMware, Citrix, Hyper-V, etc. Sitio Web: http://www.nware.fr/

DELETEC: empresa que tiene un gran dominio de las tecnologías y una gran experiencia en los Sistemasde Información. Se lanzó rápidamente a la virtualización y ha tenido mucho éxito en la banca y en elárea financiera en general. DELETEC aborda los proyectos de virtualización gracias a una metodologíacercana a la célebre PDCA (Plan Do Check Act) que permite al cliente maximizar sus inversiones ygestionar mejor su nueva infraestructura. Sitio Web: http://www.deletec.fr/

Seguro que existen otras empresa que merecerían ser citadas. Las empresas de prestación de servicios ograndes estructuras no han sido seleccionadas ya que la virtualización no es parte de su actividadprincipal.

Dos testimonios sobre estudios y pruebas realizadasEl objetivo de este capítulo es dar a los lectores testimonios sobre la virtualización deaplicaciones o de entornos considerados críticos y la manera de abordar cada proyecto. Estostestimonios se han extraído voluntariamente de ámbitos diferentes.

1. Una aplicación para interacciones complejasEl cliente era un líder en el área del transporte que desarrolló durante años un software interno,capaz de gestionar el día a día:

los horarios de salida y llegada de los diferentes medios de transporte que forman parte de laplantilla de la empresa.

los plannings de las personas a cargo de los transportes.

las alertas, en tiempo real, que conciernen a los retrasos y las incidencias que provocan.

El software está estructurado sobre una solución a base de:

CITRIX.

Microsoft SQL SERVER.

Active Directory.

varios módulos .NET repartidos en diferentes plataformas.

En su época, el programa tenía muchas críticas en cuanto a sus terribles tiempos de respuesta. Debíaentonces acogerse en una nueva plataforma, virtual o no y ya que la política de la empresa era lareducción de costes, la virtualización parecía una buena opción.

Dada la importancia del programa (sin él nada funcionaba correctamente), su criticidad seconsideraba extrema. Había que proceder a una auditoría preliminar que permitiera realizar la matrizde flujo e identificar las interacciones existentes entre los distintos módulos. El aspectoorganizativo también era muy importante, ya que había que prever un planning estricto, prevenir alos diferentes actores y, sobre todo, convencer a la dirección de la necesidad de virtualizar unaaplicación así de crítica.

Página 118 de 169

Tras esta etapa, se decidió probar durante un primer periodo el funcionamiento de la infraestructuravirtualizada en laboratorio. Esto permitió definir las características de los módulos que faltaban,y probar después el tiempo de reacción de la aplicación sobre la nueva base. Los resultados fueronasombrosos: la aplicación respondió perfectamente con tiempos de respuesta excelentes.

Tras las pruebas de laboratorio, se decidió pasar a un entorno llamado de integración. Este entornoestaba destinado a probar la aplicación con usuarios y datos que provenían del entorno deproducción.

El entorno de integración sufría los mismos síntomas que el entorno de producción: lentitud, tiemposde respuesta inimaginables, etc. Por tanto, el problema provenía de los usuarios o de los datosmanipulados. Profundizando al respecto, se averiguó que el Active Directory estaba sobrecargado poralgunos GPO muy consumidores de recursos y que los perfiles de CITRIX tenían problemas.

Además de conocimientos clásicos en virtualización, el proyecto requería:

conocimientos en Citrix Presentation Server.

dominio de Microsoft Active Directory.

dominio de GPO y de su interacción con productos CITRIX.

Se contactó entonces con expertos en cada una de estas áreas y, algunos meses después, el entorno deintegración funcionaba perfectamente. El entorno se pasó entonces a producción.

2. Una aplicación que combina política, presupuesto y problemas técnicosEl cliente es líder en el ámbito de la construcción de edificios y grandes obras; de renombreinternacional, se ocupa de grandes proyectos por todo el mundo.

Disponiendo de una contabilidad centralizada muy compleja y costosa, emerge un proyecto a nivel dela DSI cuyo objetivo es reducir radicalmente los costes.

La compatibilidad se basa en un software líder de mercado asociado a una base de datos Oracle,configurada en cluster gracias a Oracle RAC (Real Application Cluster).

Esta base tiene muchas dificultades:

genera muchas E/S.

Oracle no la soporta si se virtualiza (la polémica Oracle/VMware todavía existe).

no puede estar parada más de una hora.

hasta la fecha, no se tiene ningún testimonio sobre la virtualización de Oracle RAC enproducción.

Sin embargo, la decisión que se toma es virtualizar sin tener en cuenta el soporte de Oracle. Dehecho, el cliente consideró que los expertos de Oracle de la empresa tenían conocimiento suficientepara paliar cualquier posibles fallos. Además, dada la cuantía del contrato con Oracle, el clientedisponía de una gran presión.

La primera etapa del proyecto consistió en buscar métricas fiables para dimensionar el materialnecesario. E/S de disco, operaciones/segundo, consumo de CPU y memoria, ancho de banda necesario,etc.

Estas métricas son muy difíciles de conseguir en un entorno crítico de producción. Los DBA deOracle, en colaboración con nuestro equipo, decidieron montar un laboratorio para ello, lo quetambién permitió validar el proceso de virtualización. Se desplegaron numerosas herramientas devigilancia. Las de la SAN se mostraron muy eficaces por las E/S y operaciones/ segundo. Se probó elcluster RAC virtualizado a nivel de alta disponibilidad, para comprobar que la virtualización noprovocaba impacto y se realizaron numerosas pruebas de estrés.

Página 119 de 169

La segunda parte consistó en la integración de máquinas virtuales Oracle RAC al cluster RAC, como sifueran máquinas clásicas. Poco a poco, todas las máquinas puramente físicas del cluster se irándejando de lado (cosa que aún no se ha realizado).

Hoy en día, gracias a la virtualización, el cliente puede añadir máquinas virtuales al cluster RACcon una plantilla predefinida. Con ello, gana al menos un mes por cada puesta en producción (elproveedor puede desplegar mucho más rápido) y le cuesta más barato (no hay que comprar máquinasfísicas, prestación minimalista, consumo por día/persona ampliamente disminuido en interno). Además,ya no hay errores de configuración y los DBA de Oracle se encuentran en entornos totalmenteidénticos, lo que facilita el trabajo diario.

Virtualización y PRDEl plan de recuperación ante desastres

1. ¿Qué entendemos por PRD?a. Definición

El PRD (Plan de Recuperación ante Desastres) es hoy en día un objetivo importante para los Sistemasde Información. Después de los recientes acontecimientos, sobre todo el 11 de septiembre, losdirigentes de muchas empresas se dieron cuenta de repente de la importancia de su Sistema deInformación. La simple copia de seguridad no es suficiente como lo era antes. El Sistema deInformación se ha convertido en un elemento crítico de la empresa, y en este sentido, debe estarsiempre disponible. Como los responsables de PRD indican, "para estar preparados para cualquiercosa, hay que imaginar lo peor".

Antes de seguir, vamos a recordar la diferencia entre PRD y PCA.

El PCA es el Plan de Continuidad de Actividad, a menudo ligado a la noción de alta disponibilidad.El PCA tiene como principal objetivo asegurar la disponibilidad de la información ante cualquierproblema.

Contrariamente al PCA, el PRD no permite asegurar una disponibilidad total a nivel de información,sino únicamente asegurar que las actividades podrán retomarse en un lapso de tiempo predefinido.

Aunque la diferencia puede parecer mínima, ya que el PCA está a menudo ligado al PRD. Simplementehay que considerar que el PRD interviene cuando se encuentra ante un escenario grave o un desastre,de donde viene el equivalente en inglés del PRD: DRP o Disaster Recovery Planning.

Veamos algunas cifras de CLUSIF (Club de la seguridad de la información francesa) que permitiráncomprender por qué el PRD/PCA es tan importante:

El 95% de los empleados de las empresas declaran haber perdido archivos informáticos querepresentaban desde 1 hora hasta varios días de trabajo.

El 80% de las PYME no preparadas no sobreviven a un crash informático mayor.

El 20% de los ordenadores portátiles han sido objeto de un siniestro (rotura o robo).

El 70% de las PYME no hacen copias de seguridad de sus datos.

El 60% de las PYME que han sufrido un siniestro informático desaparecen a los 5 años.

El 98% de las empresas de más de 200 empleados dependen de forma moderada o fuerte de lainformática.

El 42% de las empresas de más de 200 empleados no tienen formalizado el proceso de continuidadde la actividad, y el 32% sólo lo tienen parcialmente.

Página 120 de 169

b. Los diferentes tipos de desastres

Al cabo del año, existen muchos desastres en el mundo… Imaginar todos los escenarios de desastrepara una empresa es difícil. Sin embargo, es concebible imaginar las consecuencias.

Veamos una lista, no exhaustiva, de las consecuencias posibles de cada desastre:

El fallo de un software o de una aplicación

Este caso sucede frecuentemente y puede ser crítico, según la importancia de la aplicación. Unaaplicación puede pararse por no haberse escrito correctamente o por haber sufrido un ataque externo(DoS, Buffer Overflow, etc).

El fallo de un Sistema Operativo

Igualmente, también es un caso bastante frecuente según los sistemas (parece ser que unos fallan másque otros); el fallo de un sistema operativo entraña a menudo la pérdida de las aplicacionesinstaladas y de los datos que contuviera.

El número de fallos a nivel de sistema a menudo va ligado a la incompetencia de las personasresponsables…

Pérdida de las comunicaciones de red

La pérdida de las comunicaciones se debe muy a menudo a una mala configuración de los elementos queconstituyen la red, especialmente los Switchs, los routers o cortafuegos. Cuando las comunicacionesse cortan, los sistemas enlazados son incapaces de intercambiar información, lo que puede conducir adiferentes tipos de escenarios: corte, pérdida de datos, saturación, pérdida de sincronización,pánico del sistema, paro de actividades.

Pérdida de un conjunto de sistema o de un rack

En el caso de que varios sistemas fallen simultáneamente o que un armario tipo rack que contengavarios servidores falle, las actividades se detendrán a menudo parcial o totalmente.Estadísticamente hablando, este fenómeno está relacionado a menudo con un problema eléctrico o unasobrecarga generalizada.

Pérdida de un inmueble o de un local

La probabilidad de perder un inmueble o local es elevada, al contrario de lo que piensa la mayoríade la gente. Se puede perder un inmueble debido a un incendio, un cortocircuito, una inundación,etc. Los inmuebles y locales comerciales están asegurados obligatoriamente, aunque el costeresultante de la pérdida de actividad no se tiene en cuenta.

Pérdida de un centro de datos

La pérdida de un centro de datos es algo muy grave. Un centro de datos está a menudo protegidocontra daños comunes: inundación, corte eléctrico, fuego, tormenta, ciclones u otros. Sin embargo,hay muchos supuestos que no se cubren como, por ejemplo, la malversación interna, los atentados, lapropagación de enfermedades contagiosas, etc. La pérdida de un centro de datos impacta,evidentemente, en numerosos clientes y engendra repercusiones extremas.

Pérdida de una ciudad entera

Este caso es muy raro (afortunadamente) pero hay que tenerlo en cuenta según el país. Los terremotoso los bombardeos pueden, por ejemplo, cortar todas las actividades informáticas de una ciudad.Algunos ejemplos recientes: el huracán Katrina o los terremotos en Japón.

Desastre regional

Algunas regiones tienen más probabilidad que otras de que ocurra un desastre (por ejemplo, algunasregiones de Estados Unidos, azotadas regularmente por los huracanes). El desastre regional puedeimpactar sobre numerosos Datacenter y ciudades, con lo que sus consecuencias pueden sercatastróficas.

Página 121 de 169

SUN ha desarrollado un concepto interesante para responder a este tipo de desastre: la Blackbox. LaBlackbox es un auténtico Datacenter móvil, que sirve para asegurar la continuidad de losdepartamentos informáticos en caso de desastre mayor. Esta iniciativa merece ser destacada.

Desastre nacional

Cuando el país es pequeño, un desastre nacional es una hipótesis realista. Luxemburgo, Mónaco, oincluso Singapur pueden ser víctimas de este tipo de desastre.

Desastre planetario

Este supuesto no se ha vivido hasta ahora, aunque existen hipótesis: colisión con un meteorito,guerra nuclear generalizada, contaminación bacteriológica global, etc.

Esto no impide que algunas empresas se especialicen en el análisis de riesgos de este tipo deescenarios catastróficos.

c. RPO y RTO

El enfoque de los responsables de PRD consiste actualmente en prever algunos escenarioscatastróficos validados por las más altas instancias. El mejor enfoque consiste, actualmente, enseguir las recomendaciones del DRI (Disaster Recovery Institute).

Hay que distinguir dos elementos muy importantes en todo PRD:

El RTO: Recovery Time Objective.

El RPO: Recovery Point Objective.

El RTO especifica el plazo máximo que la empresa tolera para retomar su actividad. Comprende desdealgunos segundos hasta algunas días.

El RPO designa, por su parte, la duración máxima de guardado de datos que una empresa consideraaceptable de perder en caso de una avería. Esta duración varía desde cero hasta muchos días.

El RTO define a menudo el tipo de infraestructura necesaria para paliar los fallos y desastres. Porejemplo, un servidor de socorro podrá fácilmente implementar un RTO de varios días. En cambio, unRTO cerca de cero forzará el uso, por ejemplo, de un caro mecanismo de Clustering. El RTO está, portanto, extremadamente ligado a la noción de alta disponibilidad.

Página 122 de 169

Pequeño cálculo sobre el aspecto disponibilidad:

Indisponibilidad (minutos por año) Porcentaje de disponibilidad Clase

50.000 (34 días, 17 horas y 20 min) 90% 1

5.000 (3 días, 11 horas y 20 min) 99% 2

500 (8 horas 20 minutos) 99,9% 3

50 (algo menos de una hora) 99,99% 4

5 minutos 99,999% 5

0,5 (30 segundos) 99,9999% 6

0,05 (3 segundos) 99,99999% 7

El RPO existe en función de la criticidad de la información manipulada. Si no es crítica, no haynecesidad de invertir en un sistema de copia de seguridad complejo con numerosos procesos. Sinembargo, si los datos o sistemas son críticos, habrá que implementar, por ejemplo, un mecanismo dereplicación simultáneo muy costoso.

2. El PRD: guía de proyectoEl PRD, como todo proyecto, está ligado al tamaño del perímetro y al sector de la empresa. Sinembargo, la trama es casi la misma para todas las estructuras. El PRD consiste en una reunión delanzamiento que será controlada por un BIA (Business Impact Analysis). El BIA está compuesto de 3 fases:el estudio funcional, la auditoría de vulnerabilidades y el análisis de riesgos.

Página 123 de 169

a. Fase 1: lanzamiento del proyecto de PRD

Antes de empezar un estudio de PRD, es esencial precisar un perímetro. Es conveniente que ladirección de la empresa valide, a través de un comité de dirección, las actividades concernientes ylos tipos de riesgos que hay que tener en cuenta. Puede tratarse del conjunto de actividades o, porel contrario, de un plan de socorro limitado a un área estratégica.

Para cada actividad, diseñaremos el correspondiente PRD del equipo de proyecto. La dificultad deeste tipo de estudios reside básicamente en la aplicación de un PRD adaptado al entorno. La adopciónde una metodología personalizada facilitará la apropiación por los responsables relacionados.

Es necesario que la dirección detalle los riesgos que quiere cubrir. Según lo que elija, seprecisarán los "objetos en riesgo" relacionados (material informático, material de telefonía,suministros externos, personal, local…) y la naturaleza de los riesgos (¿hace falta por ejemplotratar el riesgo social?).

b. Fase 2: estudio funcional (BIA)

La fase del estudio funcional tiene por objetivo definir para cada actividad las exigenciasrelativas al RPO y al RTO. Para ello, conviene examinar los objetivos, identificar las actividadesesenciales y evaluar las consecuencias de interrupción o degradación de dichas actividades (paradatemporal o definitiva, pérdida de datos, degradación del servicio). La comparación de las diferentessituaciones permitirá tener muestras de los niveles de impacto (definición del carácter "nosoportable" de una situación) que serán utilizados posteriormente, en la fase de análisis deriesgos. En resumen, hace falta:

inventariar los elementos del Sistema de Información indispensables para que la actividadcontinúe (aplicaciones, servidores, datos, red, etc).

precisar lo mejor posible el RPO y RTO por actividad.

determinar las aplicaciones críticas.

recurrir a recursos humanos.

auditar y calificar los locales.

hacer un inventario de los equipamientos (puestos de trabajo, teléfonos, impresoras, red…).

prever el nivel aceptable de degradación del servicio (tiempo de respuesta, actividades quepueden ser manuales…) o modo llamado "degradado".

preparar las condiciones de retorno a la normalidad.

ocuparse de los suministros externos indispensables.

El inventario debería realizarse con los correspondientes responsables de cada tarea de la empresa.En ese caso, es necesario proceder a las consolidaciones y a verificar la coherencia global de lasnecesidades expresadas.

Una tendencia natural conduce a menudo a los empleados a pensar que su actividad es estratégica.

Si fuera necesario, se realizará un arbitraje por la Dirección General.

Deduciremos de esta fase la lista de aplicaciones que constituirán la trama estratégica del PRD.

c. Fase 3: auditoría de vulnerabilidades (BIA)

Como en toda auditoría de seguridad, es necesario evaluar los dispositivos de seguridad actuales oprevistos. Si esta evaluación no se ha realizado ya en el marco de una auditoría global, al menoshabrá que hacer una revisión de los siguientes temas:

Página 124 de 169

la organización de la seguridad.

la cobertura a nivel de las aseguradoras que conciernen a los riesgos informáticos.

la seguridad general (entorno, accesos físicos, seguridad contra incendios y daños por agua,consignas de seguridad).

los medios de seguridad implementados o previstos (servidores, red, terminales, alimentacióneléctrica, climatización, suministros, personal, etc). Es importante en este punto delproyecto apreciar el grado de confianza que se puede dar a estos medios de socorro (¿losplazos de aplicación están garantizados? ¿Los medios están documentados y probados?).

los medios de protección de la información almacenada.

soportes informáticos: copias de seguridad, archivos (acompañados de procesos de restauraciónfiables).

soportes en papel (carpetas, archivos, documentación…).

los medios de aplicación para garantizar la seguridad de los intercambios exteriores(protección de la red…).

los contratos de mantenimiento del hardware y el software (verificación del grado de compromisode los prestatarios).

los contratos de proveedores para los suministros sensibles (garantías de restablecimiento deservicio en caso de interrupción).

los medios de administración y explotación de los sistemas (auditoría de vulnerabilidades desistemas y aplicaciones, seguimiento de alertas…).

d. Fase 4: análisis de riesgos (BIA)

La fase de análisis de riesgos tiene por objetivo la clasificación de los riesgos deindisponibilidad total o parcial del Sistema de Información y evidenciar las prioridades a la horade tratar los riesgos. Ya que suele ser pesado llevar a cabo el PRD, la definición de lasprioridades puede facilitar su realización por partes.

El análisis de riesgos puede descomponerse en dos etapas:

una etapa técnica de estudio de escenarios de siniestros.

una etapa funcional de estudio de impacto.

El estudio técnico consiste, apoyándose en las constataciones de la fase anterior, en inventariarpara cada objeto en riesgo uno o varios riesgos significativos; a continuación, para cada riesgo queresulte, en estudiar y describir las consecuencias directas de su realización sobre el Sistema deInformación. En este punto, aún no nos preocupamos por el impacto del siniestro. El objetivo esrealizar una balanza entre consecuencias directas en términos:

de duración de indisponibilidad de los medios (aplicaciones, servicios…).

de perdida de información (últimas actualizaciones, flujo, archivos…).

de potencial de riesgo. Según el método utilizado en la fase anterior, el potencial seráatribuido directamente o calculado.

Página 125 de 169

La etapa funcional consiste en medir el impacto de los posibles riesgos ayudándose de criteriosdefinidos en la fase de lanzamiento. Esta evaluación debe realizarse con la ayuda de losresponsables funcionales para tener en cuenta los posibles medidas de contención existentes.

e. Fase 5: presentación de soluciones

Las soluciones deducidas se validan entonces en el comité de decisión. Éstas son diferentes segúntodos los criterios que hemos visto anteriormente. Veamos los grandes rasgos:

La movilización de recursos necesarios:

Recursos humanos: movilización de equipos de intervención.

Reserva de medios de socorro (requisamiento de los medios, alerta de un prestatarioexterno…).

Recuperación de copias de seguridad.

Recuperación de la documentación.

El soporte a los equipos informáticos:

Restauración de entornos de sistema.

Adaptaciones técnicas (el material de soporte no siempre es idéntico al materialoriginal).

Restauración de aplicaciones.

Validación de las restauraciones.

El soporte a la red:

Instalación de equipos de soporte.

Basculación de los enlaces de soporte.

Parametrización de los diferentes equipamientos.

El soporte a la telefonía:

Enrutamiento de las llamadas.

Instalación de los equipos de soporte.

Parametrización.

La reanudación de los procesos:

Adaptaciones de programas.

Adaptaciones de procesos de explotación.

Recuperación del flujo y sincronización de los datos.

Tratamientos excepcionales.

Validaciones funcionales.

Página 126 de 169

La logística:

Transportes.

Suministros.

Gestión de crisis de personal (elección del personal que hay que movilizar, rotación delos equipos, valoración de las situaciones individuales…).

El realojamiento:

Organización del realojamiento de urgencia.

Preparación de los puestos de reemplazo.

La reanudación de actividades y de servicios de usuario:

Tareas de usuario antes de la implementación de los medios de soporte.

Organización de un servicio mínimo.

Trabajos excepcionales (procesos de contención, puestas al día…).

La comunicación de crisis:

Interna (personal, otras entidades…).

Externa (clientes, asociados, público…).

Los dispositivos de post-recuperación:

Dispositivos previos y de acompañamiento (seguro, recuperación del estado de los locales,salvamiento de los materiales…).

Dispositivos de retorno a la normalidad (constituyen un plan específico).

La sinergia "Virtualización & PRD/PCA"

1. El PRD con presupuesto reducidoLa virtualización va a permitir crear PRD de forma mucho mas fácil y racionalizando los costes. ¿Porqué? Por muchas razones:

La mayoría de los planes de recuperación ante desastres consideran que las actividades debenretomarse en un sitio secundario. Este sitio secundario debe acoger una parte o toda la carga de losservidores del sitio primario. Por tanto, a menudo, habrá que invertir en material… queprobablemente no se usará jamás. Si los servidores se virtualizan, la inversión en material es muchomás reducida.

La virtualización simplifica enormemente los procesos de replicación y sincronización, al almacenarlas máquinas virtuales en bahías de almacenamiento, que soportan la replicación síncrona oasíncrona.

Igualmente, se pueden virtualizar los puestos de trabajo. Será suficiente con terminales"durmientes" en el sitio secundario para que una gran parte de los usuarios pueda continuar sutrabajo.

Página 127 de 169

Los servidores no son más que simples archivos, por lo que son mucho más fáciles de guardar ytransportar. La logística es, por tanto, mucho menos importante. La restauración seguirá el mismoprincipio.

2. Superar el aspecto hardwareTratándose de la virtualización, el hardware ya no será un problema. De hecho, un servidor ya noestará ligado al aspecto material, lo que significa que un servidor virtual puede desplegarse sobrecualquier host físico y podrá reiniciarse sin que interfiera ninguna incompatibilidad de hardware.

Además, los PRD conducen a menudo a lo que se llama "periodo degradado". De hecho, después de undesastre, la actividad no se reanuda tan rápido. El personal está a menudo bajo los efectos delshock, no encuentra su entorno, el sitio no está garantizado, los rendimientos son menores, no sereanudan todas las aplicaciones, etc. Resumiendo, durante un periodo más o menos largo, elrendimiento puede sufrir un gran impacto.

La virtualización permite priorizar las actividades críticas. Por ejemplo, imagine que un servidorvirtual reanuda el 30% de la actividad global de una gran empresa. Seguramente le será difícilreanudarlo todo, ya que la carga es elevada, así que podrá priorizar algunas máquinas o ciertasaplicaciones por encima de las demás. Las actividades serán degradadas, cierto, pero todo lo que seacrítico podrá funcionar correctamente.

Página 128 de 169

El mayor problema al implantar un PRD son los usuarios que deben, bajo cualquier concepto, poderseguir trabajando, por lo que necesitan sus puestos de trabajo con su entorno. En un PRD clásico, elproblema era mayor ya que hacía falta un puesto de trabajo por usuario, lo que conllevaba costes amenudo prohibitivos. Una solución consiste en acordar con un fabricante la entrega rápida demáquinas nuevas preparadas en caso de un duro golpe.

Con la llegada de la virtualización, la revolución está en marcha. Los puestos de trabajo no son másque simples archivos, y no es necesario comprar puestos de trabajo, sino simples terminales ligeros,mucho más baratos. Ya que todos los puestos de trabajo virtualizados están centralizados, losusuarios encontrarán rápidamente su entorno de trabajo, sea cual sea el terminal desde el que seconecten.

Página 129 de 169

3. La virtualización y el RPO/RTOLa virtualización permite considerar los sistemas como simples archivos. Por tanto, la restauraciónde un sistema se vuelve casi tan rápida como la restauración de un archivo de gran tamaño.

Es suficiente preguntar a los administradores de sistemas el tiempo que necesitan para restaurar unsistema, Windows o Unix. Según los procedimientos y procesos internos, esto puede suponer variashoras o incluso varios días o semanas. La restauración de un archivo lleva, según el tamaño, desdealgunos minutos hasta algunas horas.

Esto permite calcular en primera instancia la ganancia en RTO.

Veamos un ejemplo concreto:

Un servidor con Microsoft Windows 2003 Server se ha quemado. El administrador necesita:

De varias horas a varios días para tener de un nuevo servidor (pasar por la central de compras,validar el pedido, encontrar un modelo idéntico, etc).

Varias horas para reinstalar una imagen del sistema (esperando que haya una y que funcionecorrectamente).

Varias horas más para reconfigurar el sistema con las copias de seguridad (diferenciales,completas, etc).

Varias horas, o incluso días, para restaurar los datos del sistema.

Estamos en el mejor de los casos. La máquina podría no estar bien guardada a nivel del sistema, encuyo caso sería necesario reinstalar totalmente Windows 2003 y reconfigurarlo como la primera vez,con el peligro que esto implica (no existe garantía de que la reconfiguración se haga igual).

Tomemos ahora un ejemplo en el mundo virtual:

Un servidor físico que contenía una o varias máquinas se ha quemado.

En el peor de los casos, las máquinas virtuales estaban almacenadas localmente. Habrá que restaurarentonces las máquinas virtuales en otro host físico (con riesgo de sobrecargarlo y entrar en un mododegradado temporal), lo que puede suponer muchas horas.

En el mejor de los casos, las máquinas virtuales estaban almacenadas en una bahía centralizada conlo que sería suficiente reasignar esas máquinas sobre otro host físico, que tenga acceso a la bahíade almacenamiento. Se necesitaría menos de una hora para hacerlo.

Sea cual sea el caso, la ganancia en tiempo es considerable.

A nivel de RPO, tomemos el mismo ejemplo.

En el caso puramente físico, el servidor deberá restaurarse con los últimos datos. Existen variasposibilidades:

los datos están centralizados y las pérdidas serán mínimas.

los datos están almacenados localmente. Habrá que restaurar la última copia de seguridad (habrámayor o menor pérdida, según el proceso de copia de seguridad utilizado).

A nivel de sistema, si se hacen copias de seguridad según un período determinado, la pérdida demodificación será mínima; si no se hacen, habrá una pérdida de las modificaciones del sistema o delas aplicaciones instaladas.

En una arquitectura clásica, la pérdida de datos es mínima a poco que la copia de seguridad se hagacorrectamente. A nivel de sistema, esto es más difícil, y hay a menudo pérdidas de configuración ode las aplicaciones instaladas.

Veamos las diferencias con la virtualización implantada:

Página 130 de 169

los datos están centralizados, con lo que no cambia nada respecto a una arquitectura clásica.

los datos no están centralizados y hay que restaurarlos con la última copia de seguridad. Aquíigualmente, no hay demasiados cambios…

A nivel de sistema, sin embargo, el cambio es radical. En el momento en que los sistemas sevirtualizan, son más fáciles de guardar. El proceso de copia de seguridad garantiza que no habrápérdida de configuración o de aplicaciones. No será necesario restaurar el sistema además derestaurar la copia del sistema, lo que implica posibles problemas y pérdidas.

La pérdida de configuración y aplicaciones se minimiza gracias a la virtualización, ya que lossistemas se consideran como datos clásicos.

Veamos una tabla recapitulativa para entenderlo mejor:

Comparativa RTO RPO

Modo clásico local Muy malo Muy malo

Modo clásico con datos traspasados Malo Bueno

Modo virtualizado con datos locales Bueno Bueno

Modo virtualizado con máquinas virtuales compartidas Muy bueno Muy bueno

Es posible que algunos productos del mercado permitan obtener un RTO o RPO mucho mejor en unainfraestructura clásica.

4. Limitar la pérdida de datosLa pérdida de datos es un problema al que todo el mundo tiene que enfrentarse. Las infraestructurasvirtuales responden a este problema tanto para los servidores como para los puestos de trabajo.

Es relativamente fácil crear infraestructuras llamadas "Full Mesh", que son aquellas arquitecturasdonde, si un elemento falla, la arquitectura continuará funcionando. Esto permite garantizarigualmente un excelente RPO.

Veamos un tipo de arquitectura a menudo desplegada en clientes que quieren una alta disponibilidadademás de la garantía de no perder datos.

Los datos se replican gracias a las tecnologías propietarias en las bahías de almacenamiento.Podemos citar por ejemplo:

En NetApp: MetroCluster o SnapMirror (ver igualmente SnapManager for VI).

En EMC: SnapView o Sancopy (ver igualmente Replication Manager for VI).

Página 131 de 169

Uno de los mayores miedos de los administradores es la pérdida de datos de usuarios almacenadoslocalmente. En la mayoría de infraestructuras actuales, existen paliativos, entre otros:

Exportar "Documents and Settings" de los puestos de trabajo a un servidor centralizado.

Impedir que los usuarios escriban en discos locales, ocultando los discos en cuestión.

Instalar agentes en los puestos de trabajo para hacer copias de seguridad de los documentos delos usuarios.

Aunque estas soluciones funcionan correctamente, no significa que sean ágiles en términos deadministración.

La virtualización de los puestos de trabajo responde a esta problemática. Ya que los puestos detrabajo se reemplazan con terminales ligeros, no existe ningún dato local. El robo de puestos detrabajo no tiene sentido, ya que no contienen ningún dato, ni siquiera residuales. Además, estolimita mucho el factor de "fuga de información". Los puertos USB u otros pueden desactivarsefácilmente y toda la información queda centralizada en la empresa, siendo difícil que salga.

La virtualización de puestos de trabajo limita, por tanto, la pérdida de datos a muchos niveles. Enresumen:

Puesto de trabajo clásico Puesto virtualizado

Pérdida de datos local

Todos los datos locales se pierden o deben ser restaurados.

Imposible

Robo El puesto y todos los datos que contenía se pierden definitivamente.

El robo es posible aunque el terminal por si sólo no serviría para nada.

Siniestro Los puestos de trabajo siniestrados sepierden con los datos que se encontraban en ellos.

Sólo se pierde el terminal. Basta con comprar uno nuevo para poder trabajar con normalidad.

Página 132 de 169

Puesto de trabajo clásico Puesto virtualizado

Fuga de información

A elegir: puerto USB, Bluetooth, firewire, etc. A peor, robo del disco duro.

A poco que el terminal esté bien configurado, es muy difícil capturar datos.

Casos de empresa

1. Ejemplo con VMware SRMVMware ha tomado la excelente iniciativa de lanzar un producto dedicado al plan de recuperación antedesastres. Era difícil dejar esto de lado, ya que este capítulo está enteramente dedicado al PRD.

VMware Site Recovery Manager es un plug-in para Virtualcenter que permite instaurar una estrategiade recuperación de la actividad. Ya VMware sólo controla el material servidor y no las bahías dealmacenamiento, decidieron que el plug-in SRM se comunicara con la utilidad propietaria dereplicación inter bahía de cada fabricante.

Las ventajas son muchas:

La replicación es rápida ya que los mecanismos son propietarios. No hay subcapa "VMware".

Se crea una sinergia entre los fabricantes de bahías de almacenamiento y VMware (entre EMC yVMware, es más bien normal…).

El plug-in es ligero y se integra con todas las bahías de los fabricantes que respeten lasrecomendaciones de desarrollo de VMware.

La replicación es transparente para VMware y no se necesita comprobar que se haya llevado acabo. Los fabricantes se encargan de esta tarea sin impactar en los recursos del servidor.

SRM permite definir un plan de recuperación de actividad preconfigurando todas las etapas yautomatizándolas hasta un cierto nivel. Resumiendo, SRM se presenta como un coordinador que permitecrear un auténtico PRD en la infraestructura virtual existente con 2 sitios distantes.

Es evidente que SRM no se ocupa de los aspectos organizativos del PRD. Sólo un experto podrácoordinar el aspecto técnico de SRM con las implicaciones a nivel organizativo.

SRM funciona de la siguiente manera:

Página 133 de 169

VMware Virtualcenter se instala en 2 sitios diferentes: uno de producción y otro de backup. Hay quecrear una sincronización entre los dos, lo que vendrá a ser que uno de los Virtualcenter se llamaráprimario (sitio de producción) mientras el otro será el secundario. Una vez que la sincronizaciónestá hecha, podrán intercambiar información de las máquinas virtuales presentes.

El sitio primario puede comunicar al sitio secundario las máquinas protegidas. De hecho, SRM permiteser granular. La protección puede hacerse eligiendo un conjunto de máquinas virtuales. Cuanto mayorsea el número de máquinas virtuales seleccionadas, mayor será el tiempo de replicación de lasbahías. Las máquinas llamadas protegidas se encuentran sobre una LUN replicada.

Sea cual sea la tecnología de replicación y la conectividad utilizada, las LUN se replican desde elsitio de producción al sitio de backup. En el sitio de Backup, las LUN son de sólo lectura, por loque el Virtualcenter de Backup puede ver las máquinas virtuales sin poderlas ejecutar. En caso dedesastre, las bahías de almacenamiento del sitio de backup pasan la/s LUN a modo READ/WRITE. Acontinuación arranca un proceso de guardado de máquinas virtuales para poderlas reiniciar.

La ventaja de SRM es que es totalmente independiente al tipo de almacenamiento. Esto permiteimaginar configuraciones que permitirían reanudar las actividades, desde luego de forma degradada,pero con un coste muy inferior.

SRM posee particularidades interesantes, especialmente la posibilidad de:

Simular el basculado para verificar que todo se pasa correctamente.

Bascular las máquinas virtuales a una red particular para no crear conflictos a nivel dedireccionamiento.

Priorizar el arranque de ciertas máquinas para reiniciar inmediatamente los servicios críticos.

Página 134 de 169

Seguir en tiempo real el basculado con todas las etapas previstas.

Incluir scripts personalizados.

Uno de los puntos negativos de SRM sería su imposibilidad de gestionar el "Failback". Haría faltaque VMware mejore su utilidad para que sea posible volver atrás una vez que el sitio primario tienela capacidad de retomar las operaciones.

2. Caso clientesEn último lugar, para convencer a los lectores de las ventajas de la virtualización al implantar unPRD, veamos un caso de una empresa del CAC40 del sector industrial (el CAC40 es un índice bursátilfrancés) que concierne a la implantación de un PRD a nivel mundial.

El cliente poseía dos Datacenter separados por muchos kilómetros, conectados entre ellos por fibraóptica. La implantación del PRD se había programado hacía tiempo debido a la criticidad de losservidores de la primera sala de máquinas, que permitían hacer funcionar todas las plantas deproducción a nivel mundial.

En aquel momento, el cliente había despedido a 3.000 personas, debido a una reestructuración, con loque la tensión era palpable y la reducción de costes, una línea a seguir. El PRD era una apuestaimportante pero estaba igualmente sujeto a la reducción de costes. Se decidió entonces virtualizarla sala de seguridad.

El principio era relativamente rudimentario: las máquinas críticas fueron "ghosteadas" oreconstruidas en un entorno virtual y no era posible hacer un PRD "Full VMware", ya que la primerasala no estaba virtualizada. Sin embargo, con un poco de astucia y muchos scripts, se pudo construirun entorno operativo en la segunda sala de servidores.

El cliente tuvo la mala suerte de sufrir un corte eléctrico total debido a un incendio en un bosque.La empresa eléctrica cortó por error todas las llegadas, incluso las de los sitios críticos (en estecaso, los sitios de la empresa eran sitios SEVESO, clasificación de empresas de riesgo según unadirectiva europeo).

Página 135 de 169

La consecuencia directa fue que la producción de todas las plantas se detuvo y todas las salasinformáticas sufrieron el corte. Desgraciadamente, aquel día, los SAIs estaban en mantenimiento.

Hay que admitir que el cliente tuvo una mala suerte particular… Con su desgracia, ¡pudo validar suPRD!

Todos los servidores se vinieron abajo a la vez. El responsable del PRD decidió bascular lasactividades a la otra sala de máquinas. La basculación se realizó correctamente sin muchosproblemas. Siempre hay imprevistos, pero con la supervisión "en tiempo real" que se habíaimplementado, fue muy fácil reaccionar rápidamente a los problemas detectados.

La reanudación de actividades a nivel servidor funcionaba perfectamente, con lo que sólo quedababascular las líneas de red al nuevo sitio, lo que desgraciadamente no funcionó bien. Los compromisosde los proveedores de acceso no eran claras respecto a la noción del restablecimiento y hubo queesperar 5 horas hasta que la basculación fue efectiva.

Una vez se realizó la basculación, las actividades se pudieron retomar con normalidad.

Con lo que hay que quedarse de este caso es que un PRD es un proyecto complejo ligado a muchosactores, y que es indispensable verificar que cada uno de ellos es capaz de asumir su papel. Existensoluciones técnicas en casi todos los casos, pero a menudo es difícil contratar o exigir compromisosa los asociados o proveedores.

Copia de Seguridad y RestauraciónLa copia multinivel

1. La copia del HipervisorDesde versiones anteriores de VMware ESX, la Service Console ha tenido una importancia capital.VMware ha invertido mucho para desvincular la Service Console del VMkernel, lo que hace que su copiade seguridad sea "menos crítica". VMware también ha publicado VMware ESXi, versión más ligera deVMware ESX, que no tiene service console.

Existen tres componentes primarios de los que haya que hacer copia de seguridad en un host ESX:

La configuración de la Service Console.

La configuración de VMware ESX.

La configuración de las Máquinas Virtuales.

La pregunta que nos hacemos es la siguiente:

Si usted almacena todas sus máquinas virtuales en una bahía de almacenamiento, con la mismaconfiguración para todos los hosts ESX, ¿realmente hay interés de guardar un host ESX?

Según sus procedimientos y métodos de configuración, es posible que la copia de seguridad de sushosts ESX no sea necesaria, y más aún cuando la reinstalación es muy rápida.

a. La copia de la Service Console

En las próximas versiones, VMware espera poder constituir un sistema prácticamente estático, lo quepermitirá constituir una base muy sólida a nivel de seguridad. Sin embargo, por el momento, debenhacerse copias de seguridad de la Service Console. Como habrá podido ver, la Service Console es dehecho una distribución RedHat Linux 3 despojada de todos los paquetes inútiles y optimizada para lacomunicación con el VMkernel. Los directorios o archivos que hay que guardar son los siguientes:

/etc/profile

Página 136 de 169

/etc/ssh/sshd_config

/etc/pam.d/

/etc/ntp/

/etc/ntp.conf

/etc/passwd

/etc/group

/etc/shadow

/etc/syslog.conf

b. La copia de VMware ESX

La configuración de VMware ESX y del VMkernel está almacenada en el directorio /etc/vmware. Apartede casos particulares, la copia de VMware ESX no es necesaria. El uso de VMware ESXi favorece estefenómeno.

c. La copia de la configuración de las máquinas virtuales

La configuración de las máquinas virtuales ya no es en absoluto dependiente del host donde seencuentre y se almacena en un solo directorio. Por tanto, este punto se trata a parte en la copia demáquinas virtuales

2. La copia de VirtualcenterNo debe olvidarse Virtualcenter a nivel de copia de seguridad. Virtualcenter es, de hecho, una basede datos (o varias si se instalan módulos complementarios), por lo que habrá que hacer sus copias deseguridad como cualquier máquina que albergue una base de datos. Virtualcenter contiene lasopciones, permisos y métricas usadas a diario por los administradores.

Desde que Virtualcenter puede instalarse en una máquina virtual, es posible incluirlo en la copia delas VM. Sin embargo, se aconseja igualmente copiar la base de datos de forma independiente.

3. La copia de las VMAunque la virtualización permite obtener un RPO mejor que en los entornos clásicos, la copia deseguridad también es un elemento clave en una infraestructura virtual.

Existen dos formas de tratar la copia de máquinas virtuales:

La copia de seguridad de máquinas virtuales puede hacerse como antes con las máquinas físicas. Sepueden utilizar las posibilidades de los OS invitados como por ejemplo: VSS, TAR, los comandosshell, etc.

Igualmente, se puede utilizar la portabilidad de las máquinas virtuales. Dado que se consideran comosimples archivos, su copia se puede realizar con mucha facilidad.

La elección no es simple, ya que a menudo cada máquina tiene sus ventajas e inconvenientes. Lacapitalización de herramientas de copia interna es un argumento de peso que hace inclinar la balanzahacia los agentes propietarios. La madurez de los agentes y su capacidad de trazabilidad yverificación son también puntos importantes aunque, por culpa especialmente de la crisis económica,esto podría cambiar. ¿Por qué utilizar un agente (de pago) cuando es posible hacer una copia deseguridad de todo el sistema con un simple comando?

Los diferentes tipos de copia de seguridad

Página 137 de 169

1. La copia por agenteLa copia por agente es el método clásicamente más utilizado en los entornos físicos. Un agente seinstala en el OS invitado y la copia se inicia de manera regular o controlada por un servidor debackup externo.

Veamos las ventajas y los inconvenientes:

Ventajas

Permite la copia a nivel de "archivos". La granularidad está muy mejorada. Es posible copiarsimples archivos o directorios de forma individual.

Permite copiar los datos presentes en discos de tipo RDM en modo físico.

Es independiente del Hipervisor.

No necesita conocimientos particulares de VMware, lo que es interesante para equipos de copiade seguridad existentes (no hace falta una formación adicional, los agentes son los mismos quepara las máquinas virtuales, todos los procesos implementados siguen siendo los mismos, etc).

Comprensión de las aplicaciones internas, lo que permite copiar las aplicacionestransaccionales (por ejemplo Bases de Datos).

Página 138 de 169

Inconvenientes

Es muy difícil copiar por completo el sistema.

La portabilidad de las máquinas virtuales no se aprovecha.

¡El coste!

2. La copia a nivel de imagen a través de agenteLa copia a nivel de imagen permite preservar todo un sistema invitado y en el mundo físico se llamacomúnmente copia "Bare Metal", ya que requiere un alto consumo de recursos y por otro lado, es muydifícil de realizar cuando el sistema está en línea.

La virtualización permite hacer una copia Bare Metal de una forma totalmente revolucionaria. LaService Console ve las máquinas virtuales como un conjunto de archivos. Es muy sencillo por tantoconservarlos a través de los comandos clásicos de copia de seguridad de archivos en UNIX.

Una máquina virtual está compuesta como máximo en producción (salvo en casos excepcionales) por unosdiez archivos (sin contar los archivos de log). La restauración será por tanto muy rápida, alcontrario de las restauraciones Bare Metal clásicas.

Existen varias formas de concebir la copia a nivel de imagen. De nuevo, todas tienen sus ventajas einconvenientes.

Página 139 de 169

La copia Bare Metal puede hacerse por un agente. La copia del sistema debe efectuarse en correlacióncon la creación de un CD-Rom de arranque. Puede iniciarse un servidor en ese CD-Rom para restaurarlocompletamente. El CD-Rom no contiene ninguna imagen, sólo sirve para cargar un entorno mínimo(basado a menudo en Windows PE o LinuxPE) que permite recuperar una imagen de la red o de un soportelocal como USB, Firewire, etc.

Como el entorno es virtual y hay que aplicar el método Bare Metal tradicional, es indispensabletener algunos conocimientos del entorno VMware.

Veamos las ventajas e inconvenientes:

Ventajas

La copia de seguridad puede hacerse a través del mismo agente utilizado para la copia a nivelde archivo.

Se integra perfectamente en la infraestructura existente.

Los procedimientos y procesos implementados se mantienen.

Inconvenientes

El proceso de restauración es manual, debido a su complejidad (sin embargo se puede hacer unscript).

El coste.

3. La copia a nivel de imagen a través de VMwareComo habrá visto anteriormente, la copia de seguridad puede hacerse a través de la Service Console.Gracias a los snapshots, los archivos VMDK pueden copiarse perfectamente mientras siguen en uso yexportarse a cualquier tipo de soporte. El principio es el siguiente:

Página 140 de 169

Veamos las ventajas y los inconvenientes:

Ventajas

La copia es simple y poco costosa.

Poco impacto a nivel de rendimiento, comparado con el método clásico Bare Metal.

No intrusivo, ya que no necesita ningún agente. Sólo se usan los mecanismos de VMware.

Mucho más fiable.

Inconvenientes

Página 141 de 169

No se puede hacer copia de seguridad a nivel de archivos.

Necesita un cambio en los procedimientos y procesos existentes.

La optimización de la copia de seguridad

1. La copia incrementalEn una infraestructura tradicional, la copia incremental no tiene en cuenta los archivos que no sehan modificado desde la última copia. Pero en una infraestructura virtual, sólo se modifica elarchivo .VMDK, y se hace de forma constante. La copia incremental, por tanto, no tiene, a priori,razón de existir.

Para responder a esta necesidad, los editores de software decidieron considerar los archivos VMDKcomo archivos especiales, que se descompondrán en múltiples partes. De hecho, el archivo VMDK sevisualiza a nivel de bloque. Sólo los bloques modificados serán copiados.

Para poder comparar los bloques, es necesario haber hecho previamente al menos una copia completadel archivo .VMDK.

Veamos un ejemplo concreto:

El archivo .VMDK se copia por completo el fin de semana.

El Lunes, se modifican los bloques del 1 al 3.

El Martes, se modifican los bloques del 4 al 7.

El Jueves, sólo se modifica el bloque 8.

El Viernes, se modifican los bloques 8 y 9.

Es por tanto fácil comparar el espacio de almacenamiento que se ahorra en comparación a una copiacompleta.

Copia completa

Día Bloques modificados

Sábado 10

Página 142 de 169

Día Bloques modificados

Lunes 10

Martes 10

Miércoles 10

Jueves 10

Viernes 10

TOTAL 60

Copia incremental

Día Bloques modificados

Sábado 10

Lunes 3

Martes 2

Miércoles 0

Jueves 1

Viernes 2

TOTAL 18

Aquí, en este ejemplo, el espacio de almacenamiento está dividido en 3.

Desgraciadamente, la restauración de la copia incremental no es muy práctica. De hecho, se consideracomo la más económica, pero también la que tiene peor RTO. Hay que imaginar el caso en que unadministrador desee restaurar los archivos corruptos entre semana, por ejemplo, el Jueves. Deberárestaurar la copia completa y luego restaurar cada una de las copias incrementales, es decir, Lunes,Martes, Miércoles y Jueves.

Veamos las ventajas e inconvenientes :

Ventajas

Sólo se tienen en cuenta los datos modificados.

El espacio de almacenamiento se maximiza, ya que a menudo se reduce por 3 ó 4 el espacio quenormalmente consumía una copia completa.

Inconvenientes

El RPO es muy malo. Es necesario restaurar la copia completa además de cada una de las copiasincrementales hasta el punto de recuperación deseado.

Página 143 de 169

Ya que cada bloque se copia de forma independiente, y que la alteración de un solo bloque puedeconducir a la corrupción completa del archivo VMDK, la probabilidad de corromper este mismoarchivo es mucho más alta.

2. La copia diferencialLa copia diferencial consiste en guardar todos los bloques que se han modificado después de laúltima copia completa. La comparación se hace cada vez con la copia completa.

Veamos un ejemplo concreto idéntico al anterior:

El mismo archivo .VMDK se copia por completo el fin de semana.

El Lunes, se modifican los bloques del 1 al 3.

El Martes, se modifican los bloques del 4 al 7.

El Jueves, sólo se modifica el bloque 8.

El Viernes, se modifican los bloques 8 y 9.

Esto nos permite comparar con el espacio de almacenamiento que nos ahorramos respecto a una copiacompleta.

Copia completa

Día Bloques modificados

Sábado 10

Lunes 10

Martes 10

Miércoles 10

Jueves 10

Viernes 10

Página 144 de 169

Día Bloques modificados

TOTAL 60

Copia diferencial

Día Bloques modificados

Sábado 10

Lunes 3

Martes 5

Miércoles 5

Jueves 6

Viernes 7

TOTAL 36

Aquí podemos ver dos diferencias respecto a la copia incremental. El Miércoles no se realiza ningúncambio y sin embargo, se copian 5 bloques, ya que hay 5 bloques modificados desde la última copiacompleta.

El Viernes, el bloque 8 se modifica por segunda vez. Al contrario que en la copia incremental, lacopia diferencial considera que el bloque 8 se ha modificado desde la última copia, pero no guardala modificación entre el jueves y el viernes, sino que sólo guarda la diferencia entre la copiacompleta y el viernes.

Aquí, el espacio ahorrado está alrededor del 40% respecto a copias completas. La copia diferencialno es tan eficaz como la copia incremental en términos de espacio.

Sin embargo, la restauración es mucho más práctica, ya que es suficiente con restaurar la copiacompleta y la copia diferencial.

Veamos las ventajas e inconvenientes :

Ventajas

El RTO es mejor: sólo serán necesarias dos etapas para restaurar un archivo .VMDK.

El espacio de almacenamiento es menor respecto a la copia completa.

La probabilidad de corrupción es reducida.

Inconvenientes

La copia diferencial tiene un efecto de bola de nieve. Cuantos más días pasan, más se modificanlos datos, lo que implicará que crezca el tamaño del archivo.

Teóricamente, si todos los bloques se modifican, la copia diferencial puede tener el mismotamaño que la copia completa. Sin embargo, esta probabilidad es débil en los archivos VMDK.

Página 145 de 169

3. La deduplicaciónLa deduplicación podría compararse con la tecnología usada por VMware para la compartición depáginas de memoria. La deduplicación permite eliminar la información redundante que exista en lossistemas con similitudes.

Cada archivo se descompone en partes, y a cada parte se le asocia un identificador único, que sealmacena en un índice. El objetivo de la deduplicación es almacenar una sola vez la misma parte deun archivo. Cada vez que se localiza una parte idéntica, se reemplaza por un puntero hacia elidentificador correspondiente.

En el despliegue de una arquitectura virtual, los sistemas invitados instalados en las máquinasvirtuales son a menudo idénticos o presentan muchas similitudes. Las únicas diferencias se sitúan anivel de parametrización de cada sistema invitado.

Según las pruebas efectuadas recientemente con clientes sobre la virtualización de puestos detrabajo con VMware View 3 y de bahías de almacenamiento NetApp FAS 3040, la reducción del consumo deespacio de disco era del orden del 90%. La explicación es lógica : la virtualización de puestos detrabajo implica el uso de Template, lo que significa que los sistemas invitados serán prácticamenteidénticos.

Página 146 de 169

La deduplicación es diferente a la copia de seguridad, pero permite reducir enormemente la cantidadde datos que hay que guardar. Desgraciadamente, esta tecnología tiene una gran vulnerabilidad: elíndice general es vital y si tuviera que alterarse, sería imposible recuperar las máquinasvirtuales.

Veamos las ventajas e inconvenientes :

Ventajas

Reducción extrema de la cantidad de datos que hay que guardar.

La copia de máquinas virtuales es muy rápida.

La deduplicación tiene poco impacto en el rendimiento.

Inconvenientes

La vulnerabilidad del índice generado.

En caso de fallo total, deberá restaurarse todo antes de poder reanudar las actividades.

La ausencia de determinismo. No se puede conocer el beneficio del uso de esta técnica si no sehace una prueba en entorno real.

Las soluciones de copia optimizadas para las VM

1. VCBVCB o VMware Consolidated Backup es un plug-in desarrollado por VMware que permite a los desarrolladoresde software de copia de seguridad disponer de comandos y controles necesarios para poder copiar lasmáquinas virtuales a nivel de archivo y a nivel de imagen.

Un error común consiste en considerar que VCB es un programa de copia de seguridad, mientras que secreó para eliminar la necesidad de un agente clásico en las máquinas virtuales. VCB es, de hecho, unproxy de copia de seguridad, que permite leer un archivo .VMDK en modo sólo lectura y montarlo sobreun servidor Windows para poder buscar los datos deseados. Desgraciadamente, al contrario que losagentes clásicos, el proxy VCB sólo puede leer las particiones Windows. Para los demás sistemas, larestauración a nivel de archivo con VCB no será posible.

Hay que distinguir VCB para los dos modos de copia de seguridad: a nivel de archivos o a nivel deimagen.

a. VCB a nivel de archivos

Para comprender el modo de funcionamiento de VCB para la copia a nivel de archivo, veamos un resumende las etapas:

Un usuario desencadena VCB o un software de copia de terceros.

Se puede ejecutar un script para congelar las E/S.

Se efectúa un snapshot de cada disco VMDK. Si los discos no pueden ser snapshoteados, no sepodrá hacer la copia a través de VCB.

Los discos RDM tipo físico o no persistentes no pueden copiarse con VCB.

Una vez hecho el snapshot, se retoman las E/S.

Los discos VMDK se montan sobre el proxy de copia.

Página 147 de 169

El agente de Terceras partes copia los datos en el interior de los archivos VMDK montados.

Los directorios se desmontan.

Los snapshots se reaplican a los archivos VMDK para poder reanudar las actividades.

Veamos las ventajas e inconvenientes:

Ventajas

Reduce la necesidad de un agente en las máquinas virtuales.

El impacto a nivel de rendimiento es mínimo.

Todo pasa a nivel de SAN, por lo que el impacto a nivel de red será también mínimo.

Permite a una empresa utilizar una sola plataforma Proxy para realizar las copias de seguridadde todo su entorno.

Inconvenientes

Requiere el uso de una SAN.

Todo se coordina desde el Proxy VCB. Esta máquina es por tanto crítica y recibirá un granimpacto en caso de restauración.

Es un sistema Windows que accede a las LUN VMFS, lo que puede engendrar un posible riesgo decorrupción.

Restauración a nivel de archivo únicamente para Microsoft Windows.

b. VCB a nivel de imagen

VCB puede hacer copias completas de los archivos VMDK sin necesidad de montarlos. Como VCB nonecesita mirar en el interior de los archivos VMDK, la copia a nivel de imagen es compatible concualquier sistema invitado.

Veamos un resumen de las etapas:

Un usuario desencadena VCB o un software de copia de terceros.

Se puede ejecutar un script para congelar las E/S.

Se efectúa un snapshot de cada disco VMDK. Si los discos no pueden ser snapshoteados, no sepodrá hacer la copia a través de VCB.

Los discos RDM tipo físico o no persistentes no pueden copiarse con VCB.

Una vez que el snapshot se ha efectuado, se retoman las E/S.

Los discos VMDK se exportan a un directorio especificado por el usuario de VCB.

Los snapshots se reaplican a los archivos VMDK para poder reanudar las actividades.

Veamos las ventajas e inconvenientes:

Ventajas

Permite copiar fácilmente todas las máquinas virtuales.

Página 148 de 169

El impacto a nivel de rendimiento es mínimo.

Todo pasa a nivel de SAN, el impacto a nivel de red será también mínimo.

¡El coste! (respecto a una solución Bare Metal clásica).

Inconvenientes

Necesita un espacio de almacenamiento consecuente para todas las máquinas virtuales.

Es imposible restaurar archivos desde una copia a nivel de imagen.

Es un sistema Windows que accede a las LUN VMFS, lo que puede engendrar un posible riesgo decorrupción.

Genera muchas E/S tanto a nivel de proxy como de SAN.

2. Vizioncore vRangervRanger es una herramienta desarrollada por Vizioncore que permite realizar copias de las máquinasvirtuales. Se puede integrar con VCB para aprovechar sus ventajas y posee un driver VSS que permiterealizar mejores copias de seguridad de máquinas virtuales que tienen aplicaciones transaccionales.Veamos en detalle algunas ventajas de vRanger:

Copia diferencial

vRanger puede realizar copias diferenciales a través de VCB para reducir el tamaño de los archivosal mínimo.

Uso de VSS

Tiene un driver VSS integrado, para copiar las aplicaciones transaccionales de forma consistente.Típicamente, esto permite realizar copias de bases de datos y restaurarlas a nivel de archivo.

Integración con VCB

La integración con VCB permite repartir el trabajo en servidores Proxy. La infraestructura siguesiendo coherente ya que todo saldrá de las máquinas VCB.

3. Veeam BackupVeeam Backup es una herramienta particularmente interesante y fácil de probar, ya que estádisponible en descarga libre (para la versión gratuita).

Veeam Backup soporta:

La copia de seguridad de ESX y ESXi.

La restauración tanto a nivel de imagen como de archivos en una sola copia. Por tanto, ya noserá necesario realizar dos tipos de copia de seguridad…

El soporte de VSS para poder copiar correctamente las aplicaciones transaccionales.

La deduplicación. Cuando las máquinas virtuales presentan similitudes, Veeam Backup es capaz dereducir el espacio de almacenamiento necesario (incluso si la deduplicación está activa anivel de SAN).

La integración con VCB.

Página 149 de 169

Futuros Retos y Evoluciones de la VirtualizaciónEl Provisioning

1. DefiniciónEl Provisioning consiste en asignar recursos de forma más o menos automática en función de lasnecesidades. Gracias a la virtualización, el provisioning tiene mucho sentido. Es posible asignarrecursos "on demand". La ventaja del provisioning es evidente: no será necesario asignar recursoshasta que se necesiten, lo que evita gastos inútiles.

Por otro lado, la facilidad de crear máquinas virtuales ha cambiado la forma de trabajar de muchasdirecciones de los Sistemas de Información. Desde que un proyecto emerge, se aprovisiona una máquinavirtual. Cuando se trata de entidades que gestionan miles de proyectos cada año, imagínese lacantidad de máquinas virtuales "huérfanas", ya que no hay quién sepa cuándo, ni por qué existen.

Será por tanto obligatorio desplegar un auténtico proceso de gestión de la vida de las máquinasvirtuales. VMware ha trabajado mucho sobre este aspecto con VMware Lifecyle Manager y VMwareOrchestrator. Desgraciadamente, estas herramientas están muy poco extendidas, aunque la demanda realexista.

Una vez perfectamente industrializadas, estas herramientas permitirán gestionar a diario el conjuntode la infraestructura virtual. Una máquina virtual se crea por una necesidad concreta, tiene unaduración de vida (extensible o no) y será automáticamente retirada cuando pase el periodo.

Aunque también es posible llegar aún más lejos.

Como si fuera un programa (ver el Software Development LifeCyle: SDLC. http://tinyurl.com/6gt5os), unamáquina virtual también debe tener un ciclo de vida. Es posible, por ejemplo, configurar el procesosiguiente:

Etapa 1: surge la necesidad. Se realiza un estudio de viabilidad, según el que los arquitectosdecidirán crear una máquina virtual.

Etapa 2: el equipo de red valida la máquina virtual y le asigna una o varias direcciones IP.

Página 150 de 169

Etapa 3: el equipo a cargo de la copia de seguridad verifica la necesidad en términos de espacio dedisco y se asignan discos a la máquina virtual.

Etapa 4: el equipo de seguridad valida el conjunto de la máquina virtual y verifica que sea conformea la política de seguridad interna.

Etapa 5: los arquitectos reciben la confirmación de que todas las partes han validado la máquinavirtual, y pueden empezar su creación.

Etapa 6: la máquina virtual creada se asigna a su propietario.

2. Las TemplatesLas Templates permiten crear nuevas máquinas virtuales a partir de una imagen existente. Es posiblecrear máquinas virtuales llamadas de referencia y customizarlas lo suficiente para crear máquinasvirtuales totalmente independientes. Es posible crear las Templates de máquinas Linux, Windows,Solaris u otras. Sin embargo, VMware gestiona mejor la parametrización de las máquinas Windows,gracias a herramientas como SYSPREP.

Las Templates son una gran ventaja para los operarios ya que:

Permiten desplegar muy rápidamente nuevas máquinas sin pasar por las etapas clásicas:instalación por CD-Rom o imagen ISO, instalación de drivers, etc.

Esto permite garantizar que la máquina virtual desplegada a partir de una Template cumple todala parametrización efectuada al crear la Template. Por ejemplo, muchas empresas han invertidomucho en lo que llaman un MASTER, que es una imagen tipo desplegada en un entorno particular.Un MASTER de oficina será, por ejemplo, desplegado en todos los entornos PC de oficina.

La seguridad se refuerza ya que las Templates se despliegan de forma totalmente automatizada,lo que reduce enormemente el riesgo de error humano. Los parámetros de seguridad se integran alas Templates y no será una persona quien los introduzca o reconfigure.

Las Templates se pueden reconfigurar fácilmente. Basta con desplegar una máquina virtual apartir de una Template, hacerla evolucionar (actualizaciones, instalación de productos, etc),y volver a convertir la máquina virtual en Template.

Desde un punto de vista organizativo, las Templates garantizan que el trabajo de los operarios secentre en utilizar lo que han definido los arquitectos. Las Templates permiten diferenciar bien losroles de cada uno. Habitualmente, los operarios tienen la responsabilidad de la instalación y laconfiguración de las máquinas, pero no por ello se les ha formado en los productos que instalan oconfiguran. Por tanto, pesa la incertidumbre sobre la garantía de que todo se haya hechocorrectamente, según las normas impuestas por los arquitectos, o incluso que los procesos, guías yprocedimientos se hayan seguido de forma que se reduzca el margen de error.

Si las Templates se han fabricado por arquitectos o personas con la capacidad necesaria para laconfiguración de las máquinas, la posibilidad de error humano por parte de los operarios se reducebastante.

En un futuro cercano, sería deseable que las Templates se integren aún mejor con los sistemasinvitados (parámetros suplementarios, integración automática de utilidades, actualizaciones, etc) yque sea mucho más fácil desplegar varias máquinas virtuales de forma totalmente automatizada (ademásde por scripts…).

3. El Thin ProvisioningEl Thin Provisioning es una tecnología proveniente del mundo del almacenamiento, que consiste enasignar los recursos sólo cuando se solicitan. Por tanto, es una evolución del provisioning clásico.Esta tecnología presenta un espacio de almacenamiento a una aplicación, pero sólo reservafísicamente lo que de verdad se utiliza. Esto permite por tanto economizar una gran cantidad deespacio de almacenamiento.

Página 151 de 169

El Thin Provisioning a menudo está ligado a la capacidad llamada Over Allocation. Esta tecnologíapermite hacer creer a un sistema que dispone de un espacio de almacenamiento infinitamente mayor delque realmente existe, físicamente hablando. Las ventajas son las siguientes:

No es indispensable pensar en la evolución de las aplicaciones y de los sistemas. Elalmacenamiento físico será asignado dinámicamente según lo que las aplicaciones y sistemasdemanden día a día.

No hay complejos obstáculos relacionados con el aumento o la disminución de la partición.¿Quién no se ha enfrentado nunca al famoso problema de la partición del sistema que llega a lasaturación?

VMware integra la noción de Thin Provisioning desde la versión 3 de VMware Workstation. Desde lallegada de VMware ESX 3, se pueden crear discos llamados "thin ". Además, los desarrolladores desoftware han llegado al mercado para proponer el Thin Provisioning avanzado.

Datacore es un innegable actor de mercado en este aspecto.

La noción de soporte

1. ¿Por qué es un reto?Cuando hablamos de virtualización, una simple pregunta puede calentar los ánimos: la noción desoporte. Muchos actores de mercado no ven con buenos ojos la llegada de la virtualización, debido amuchas razones:

Los desarrolladores de software creen que la virtualización les traerá muchos problemas(ralentización, bugs, problemas de E/S, etc). El hecho de no soportar un software en unentorno virtualizado permite prevenirse contra muchos posibles fallos...

Algunos desarrolladores han visto un interés estratégico. Oracle, por ejemplo, rechazógarantizar, en un primer momento, el soporte de sus productos en un entorno virtualizado. Porotra parte, sólo su propio sistema de virtualización (Oracle VM) soportaba bien sus productos.De la misma forma, es evidente que Microsoft, que posee su propio sistema de virtualización,asegura un mejor soporte para todos sus productos si están instalados bajo su propiohipervisor.

El reto, por tanto, es principalmente estratégico. Los programadores de sistemas operativos seconvierten poco a poco en programadores de software de virtualización. Uno de los pocos actores queno tiene un sistema operativo propio es líder en el mercado de la virtualización, como es el caso deVMware. Éste es un punto débil contra el que el resto de actores van a atacar con anuncios más omenos ambiguos; lo importante será distinguir lo verdadero de lo falso en sus discursos demarketing.

2. ¿Cómo se orienta el mercado?El mercado está dominado de momento por VMware, por su avance tecnológico y por su ampliaexperiencia con clientes. Sin embargo, la competencia empieza a conseguir buenas referencias yrecortan poco a poco la diferencia. Por el momento, la noción de soporte de las máquinas virtualeses algo confusa.

Es evidente que frente a la oleada de la virtualización, los desarrolladores de software, sea el quesea, no podrán resistir mucho. Sin embargo, a pesar de todo, no existe garantía de que quieraninvertir para facilitar esta transición. (Ver http://tinyurl.com/phqowk).

Página 152 de 169

La virtualización introduce arquitecturas distribuidas complejas pero muy robustas. El problema delas arquitecturas complejas a menudo tiene que ver con el soporte. Cada uno de los actores puedepotencialmente reportar la falta sobre los otros; es lo que a menudo se llama el "Ping-Pong " en elargot informático.

La Capacity Planning

1. Las métricas fiablesLa mayoría de las veces, los operarios se esfuerzan en tener una visión de la capacidad global del Sistema de información para absorber la carga corriente. Esto se traduce por un "ansia" en la comprade material. Cuandos más servidores existan y mayor sea el espacio de almacenamiento, más aplicaciones nuevas podrán acogerse.

Esta reflexión tiene sus limitaciones, sobre todo en un contexto de crisis económica. Hoy en día, ellugar está en la consolidación. Está fuera de lugar para los responsables de compras adquirir nuevo hardware mientras, a menudo, el 75% de la capacidad de su Sistema de Información está sin utilizar.

El problema se debe, en general, a la heterogeneidad de los sistemas históricamente desplegados. Estos se comunican de forma distinta y se utilizan de manera disparatada. Además, las alertas y métricas reportadas no están en el mismo formato, lo que impide la instalación de un sistema de recolección centralizado.

La virtualización responde a esta problemática. Ya que la capa de virtualización es la misma en todos los servidores, los informes son idénticos sean cuales sean los sistemas invitados (lo que no impide implementar un traspaso de información para cada uno de los sistemas invitados).

Por tanto, es posible desplegar un auténtico Capacity Planning. La virtualización, como habrá visto anteriormente, se concentra en las CPU, la memoria, los discos y las tarjetas de red. Las métricas concernientes a estos cuatro elementos se estandarizan perfectamente. La interfaz de centralización se encuentra en Virtualcenter o vCenter más recientemente en VMware. Toda la información se almacenaen una base de datos SQL, que permite crear consultas personalizadas en base a las necesidades.

Página 153 de 169

2. Anticipar a la evoluciónEl despliegue de un sistema de Capacity Planning permite prever la evolución de su propio Sistema deInformación. Aunque esto sería un cálculo de probabilidades, los indicadores son muy significativosy merecen una atención particular.

Por ejemplo, es posible calcular:

La media de uso del conjunto de las CPU, memoria, discos y consumo de red.

Los picos de carga, el impacto de las actualizaciones y las copias de seguridad.

El impacto de los procesos batch y otros sistemas de proceso.

Es muy recomendable prever el crecimiento de su Sistema de Información como harían los analistas delsector financiero.

Página 154 de 169

Un desarrollador se interesa particularmente en este sector: Vkernel http://www.vkernel.org

Hacia una concentración de arquitecturas

Página 155 de 169

1. Las iniciativas de los fabricantesLos fabricantes han comprendido que la consolidación sólo sería efectiva hasta si podían unir susservidores con la virtualización. Los sistemas Blade, como los Bladesystem en HP o Bladecenter enIBM, permiten concentrar muchos servidores en un espacio reducido. Además, la administración se hacedesde un punto central a nivel de hardware, lo que permite reducir el tiempo de administración debajo nivel.

Generalmente, los sistemas Blade se comunican con las bahías de almacenamiento a través de una redmuy potente (fibra óptica o FCOE). Los fabricantes rivalizan ingeniosamente para combinarvirtualización y sistemas blade. Proponen, por ejemplo, capas de abstracción suplementarias a nivelde hardware.

A veces, los fabricantes integran el almacenamiento o permiten virtualizar la red. Sea como sea, haymuchas iniciativas. La apuesta es importante por varias razones:

Los fabricantes elegidos van a invertir de ahora en adelante en el área de red, sistemas,supervisión y administración. Es una forma de asegurarse poder vender una importante cantidadde prestaciones.

Las empresas deberán comunicarse con pocos actores a la vez, y del sistema actual llamado de"referencia". Esto permite reducir costes ya que los actores seleccionados se comprometen aofrecer precios que desafían cualquier competencia. Así, los fabricantes seleccionados sabenque tienen la posibilidad de invertir en todas las áreas sin ser molestados por posiblescompetidores. El objetivo es vender el máximo de material, a riesgo de perder dinero, paradespués poder proponer muchas prestaciones. Por esta razón, los fabricantes de hardware (HP eIBM en cabeza) se han transformado estos últimos años en sociedades de servicios.

El dominio del Sistema de Información se basa, a pesar de todo, en la arquitectura física. Siel fabricante no valida desde un punto de vista de hardware, será imposible desde un punto devista hardware, no habrá nada que hacer. Por tanto, será el hardware el que tenga la últimapalabra.

2. Nuevos actores… ¿la revolución ha empezado?Hasta ahora, los líderes de la virtualización de servidores eran:

HP

Dell

IBM

Hay nuevos actores que invierten en el mercado de la virtualización y que los van a retar.Recientemente, la adquisición de SUN por Oracle hace presagiar que los servidores SUN van a seroptimizados para las aplicaciones Oracle, y sobre todo para la virtualización (no olvidemos que,aunque sus productos nunca han tenido demasiado éxito, SUN y Oracle han desarrollado sus propiasherramientas de virtualización).

Esta compra fue una sorpresa para todo el mundo, y más teniendo en cuenta que IBM había hecho unaoferta para comprar SUN. Si hubiera sido el caso, un actor habría desaparecido progresivamente delmercado de los servidores. Ahora debería ser al revés, con la aparición de un nuevo actor en lavirtualización de servidores, que tiene un gran control de las aplicaciones críticas. Así que ahorapodemos imaginar los paquetes "servidores SUN - capa de virtualización - aplicaciones Oracle".

Recientemente, Cisco anunció que quería conquistar el mundo de los servidores gracias a la ofertaCisco UCS (Unified Computing System), con lo que pretende ser totalmente innovador.

Página 156 de 169

Se teme la llegada de Cisco al mundo de los servidores, por varias razones:

Cisco posee acciones de VMware, por lo que hay una gran probabilidad de que su colaboraciónvaya más allá de una cooperación clásica.

Cisco domina la red. Aunque existen muchos fabricantes que tienen su propia tecnología de red(especialmente HP con los Procurve), no dan la talla frente al líder del mercado.

Cisco ha trabajado en VMware ESX 4 con los switchs Nexus1000v, por lo que pronto seráindispensable para cualquier infraestructura virtual.

Cisco se ha aliado, para la UCS, con un competidor de almacenamiento para crear una ofertatotalmente competitiva: NetApp. Esta voluntad de escoger a un competidor está evidentementecalculada, y muestra que Cisco quiere romper las reglas establecidas en el mercado de losservidores y ser más agresivo comercialmente.

Cisco ha colaborado con Intel incorporando, varios meses antes, procesadores Nehalem. La UCS seha ido desarrollando por tanto en colaboración con Intel en un marco muy secreto. En elmomento que se ha escrito este libro, la UCS se ha probado en una sola empresa en Europa y 6en Estados Unidos. Después de haber trabajado durante algún tiempo en la primicia de laimplementación de la UCS a nivel europeo, es evidente que:

La UCS es extremadamente potente y modulable. El uso de FCOE sobre interfaces 10 Gbitspermite maximizar los costes, asegurando unos resultados fuera de lo común.

La UCS añade una capa de abstracción suplementaria a nivel de red. Se pueden tenerdirecciones Mac y WWN virtuales.

Cisco quiere que nos olvidemos totalmente del hardware, para lo que se ha creado lanoción de perfil. Es totalmente posible crear perfiles que tienen componentes hardwarediferentes sin ninguna capa de virtualización. La virtualización se añade bajo losperfiles creados.

La UCS es extremadamente compleja, ya que lo agrupa todo en un solo bloque. La interfazcreada para la ocasión es, de momento, difícil de gestionar. Esta interfaz estaba enversión Beta, y ha evolucionado según las necesidades aparecidas. Cisco ha estado muyatento a nuestras peticiones, algo excelente.

Por otro lado, algunos también han llegado a salir del apuro. Nec se pronuncia sobre el Flexpower,un servidor tipo Blade que agrupa espacio de almacenamiento (visto como una SAN) y ranuras clásicas.Las ventajas son muchas:

Los precios han tirado a la baja y los discos son mucho más baratos que los discos SAN.

Página 157 de 169

El servidor es totalmente autónomo.

La interfaz de configuración es extremadamente intuitiva.

Sea como sea, los líderes tendrán que aguantar una fuerte competencia en los próximos años.

¿Qué queda por mejorar?

1. Hacia un Hipervisor integradoLos Hipervisores son, de momento, la propiedad de los programadores de software de virtualización, ydeben:

Ser cada vez más ligeros.

Ser cada vez más potentes.

Soportar cada vez más hardware.

Se deben prever varias soluciones. Muchos piensan que el Hipervisor migrará a nivel de procesadores,ya que estos tienen instrucciones dedicadas a la virtualización, y deberían integrar cada vez másmemoria, permitiendo así la integración del Hipervisor en el núcleo del procesador. Aunque estaposibilidad no se contempla oficialmente por el momento, estaría propuesta como una opción en laBIOS u otro.

Se puede prever esta posibilidad, pero conlleva muchos problemas políticos. De hecho, ¿quéhipervisor será el integrado en el procesador? Ya que Intel ha tenido muchos problemas jurídicos,especialmente en lo que concierne a abuso de posición dominante, no podría aliarse con un soloeditor.

Otros creen que la capa de virtualización se instalará en una partición especial de los servidores,que estará reservada únicamente al Hipervisor. Igualmente, las ventajas serán muchas. Esta particiónse beneficiará de una protección particular y podrá optimizarse de varias formas.

Una opción interesante sería la posibilidad de parametrizar a bajo nivel los servidores, para que seregistren automáticamente en la gestión de recursos virtualizados. Así, si se añadieran servidores

Página 158 de 169

se percibiría como el añadido de recursos a una o varias pools, y existiría una abstracción total decara al hardware.

Sin embargo, quedaría una pregunta en el aire: ¿cuál será la interoperatibilidad del Hipervisorintegrado?

2. La estandarizaciónLa estandarización es un tema delicado en el medio de la virtualización. De hecho, todos los actoresquieren convertirse en el Hipervisor de referencia, a riesgo de ser totalmente gratuito, para poderrevender el ecosistema asociado. Sin embargo, los responsables tienen miedo de encontrarserápidamente acorralados por una sola tecnología. La interoperatibilidad entre los diferentesproductos de virtualización, además de la estandarización, es una etapa principal antes de conseguirmadurez en el mercado de la virtualización.

Hoy en día, se llevan a cabo numerosos trabajos en este sentido:

Las máquinas virtuales son cada vez más interoperables. Aunque aún se necesitan programas paraconvertirlas, es posible que de aquí a unos años las máquinas virtuales puedan exportarse deforma transparente a cualquier Hipervisor.

El estándar OVF adelantado por Dell, HP, IBM, Microsoft, VMware y Citrix. Permite desplegarmáquinas virtuales preconfiguradas independientemente del Hipervisor.

El acuerdo Citrix-Microsoft. Permite garantizar que el Hipervisor de Microsoft o Citrix serásoportado por una u otra plataforma de gestión de entornos virtualizados.

Todos los expertos se plantean la siguiente cuestión:

¿Será posible crear entornos interoperables virtuales para no quedarse encerrado en una solatecnología?

De momento, la respuesta es no. Las apuestas financieras de la virtualización son enormes para lospróximos años, con lo que es evidente que se firmarán acuerdos, que serán frágiles hasta que elmercado se estabilice.

3. El añadido de funcionalidades y el soporte de materialLa subida espectacular de las máquinas conduce a los desarrolladores de software de virtualización aredoblar el ingenio.

Cuando se edite este libro, VMware vSphere 4 debería ser accesible para todos. Se incorporan muchasfuncionalidades, especialmente:

Vmsafe

Vshield

El módulo Fault tolerant

Las vNetwork Distributed Switch

El soporte de hardware será incluido por defecto:

255 GB de Ram por máquina virtual

Hasta 64 CPU lógicas

1 TB de Ram por servidor físico

Soporte de muchos hardwares

Página 159 de 169

Soporte de muchos sistemas invitados

Para más información, puede visitar http://tinyurl.com/cxw782

(Imagen Copyright VMware)

4. Virtualización y multimediaLa multimedia y la virtualización no han sido de momento buenos amigos. Aunque se han hechoesfuerzos recientemente, hay que constatar que, de momento es imposible, por ejemplo, jugar o ver unvídeo HD en una máquina virtual.

Esto deberá cambiar de aquí a algunos años.

La aceleración material a nivel de puestos de trabajo virtualizados es una idea que seduce. En lamayoría de empresas, no es raro encontrar a empleados navegando por http://www.youtube.com ohttp://www.dailymotion.com u otro proveedor de contenido digital. Otros tienen la costumbre de jugara juegos en Flash o incluso utilizan sus puestos de trabajo para desarrollar juegos, imágenes desíntesis o para retocar fotos (infografistas y otros…). Hasta ahora, la virtualización no respondíaa esta demanda. La adopción de la virtualización de puestos de trabajo se ha frenado por tanto unpoco.

El hecho de que los empleados ya no puedan ver vídeos se percibe a veces como una ventaja…

Recientemente se han conocido algunos detalles, lo que demuestra que VMware trabaja sobre el tema.En primer lugar, en el VMworld 2009 de Cannes, se realizó una demostración de un puesto de trabajovirtualizado; éste permitía usar GoogleEarth sin ralentización ninguna. El protocolo PCoIP de la

Página 160 de 169

sociedad Teradici ha visto la luz y permite dotar de funciones multimedia al puesto de trabajovirtualizado.

Corren rumores sobre la futura integración de PCoIP en la nueva versión de VMware View, la soluciónde virtualización de puestos de trabajo de VMware. Esta solución sería totalmente software, aunqueel añadido de tarjetas gráficas especializadas sea una opción que permitiría ir aún más lejos.

Además, en las fases de Beta Test de Vsphere 4, hemos podido comprobar que, en las máquinasvirtuales, se han añadido opciones que conciernen a la tarjeta gráfica integrada. Veamos una capturade pantalla que muestra la diferencia entre la versión 3.5 y 4 de VMware ESX.

La virtualización al alcance de las PYMEAunque la virtualización reduzca los costes radicalmente, a menudo se considera reservada a lasgrandes empresas. Muchas PYME pasan de largo de la virtualización, por el desconocimiento delmercado.

Existen muchas empresas creadas en los últimos años que proponen soluciones robustas y fiables quereducen los costes de forma importante.

1. SYSTANCIASystancia es una empresa francesa que comercializa una solución equivalente a Citrix XenAPP. Lasolución se ha probado y validado en nuestro laboratorio y es una auténtica alternativa a CITRIX.

Systancia tiene las siguientes ventajas:

Solución mucho más ligera que sus competidoras;

Precio de las licencias mucho más bajo;

Soporte protocolario excelente;

Gestión de impresión mucho más conseguida;

Rendimientos a menudo superiores.

Systancia ya posee numerosas referencias en Francia. Es muy recomendable darle un vistazo a susolución para tener una opinión propia.

2. NeocoretechNeocoretech propone desde 2008 su solución NDV (Neocoretech Desktop Virtualisation) dedicada exclusivamente ala virtualización de puestos de trabajo bajo Microsoft Windows o Linux.

Página 161 de 169

Uno de los principales triunfos de esta solución es la simplicidad de su instalación y utilización.Es posible, con algunos clics, desplegar centenares de PCs virtuales, completamente securizadostanto para el usuario como para el departamento informático. El administrador puede actualizar encualquier momento los PCs virtuales NDV de forma centralizada, asignar más recursos físicos a gruposde usuarios y preparar, por ejemplo, salas de formación en unos segundos. Además, es posible añadirservidores se virtualización en caliente sobre una infraestructura NDV existente, lo que representauna auténtica flexibilidad en el dimensionamiento del parque de PCs virtuales.

La solución NDV permite un ahorro de almacenamiento importante, ofreciendo nativamente la AltaDisponibilidad en la infraestructura, sin recurrir a una SAN y sin sobrecoste de licencias.

Para gestionar el conjunto, una consola intuitiva permite encargarse rápidamente de la solución.

Resultante de la investigación francesa, Neocoretech forma parte de las empresas que impulsan lavirtualización a nivel de PYME. Como prueba, muchos hospitales y organismos de formación han dado yael paso. La solución NDV debería seducir rápidamente al conjunto de los sectores de actividad con unposicionamiento tarifario muy atractivo.

El Cloud Computing

1. DefiniciónEl Cloud Computing es un concepto relativamente reciente. Se basa en un espacio virtual, la nube,que concentra potentes arquitecturas. Esta nube representa un conjunto de recursos que se puedeutilizar, bajo demanda, por los usuarios. Esta nube está repartida por todo el mundo, no tienefrontera y se relaciona gracias a Internet o a redes dedicadas.

Esta nube permite a los usuarios disponer de una potencia considerable modulable segun lasnecesidades de su profesión.

El Cloud Computing es la posibilidad de dispersar un Sistema de Información sobre infraestructurasde las que se ha hecho cargo uno o varios prestatarios. La localización geográfica de estos recursosvirtualmente ilimitados no importa en absoluto.

Es posible hacer una comparación con el consumo eléctrico actual. Las sociedades especializadasofrecen esta "Cloud" del mismo modo que las eléctricas ofrecen su red, y la potencia de cálculoademás del almacenamiento de información consumido serían comparables al consumo eléctrico de losusuarios. Así, las empresas ya no necesitarían DSI (en cualquier caso, sería el objetivo), ni unainformática propia. Los puestos de trabajo se convertirían en simples terminales ligeros que podríanmostrar un puesto de trabajo presente en un Cloud, mientras que los servidores serían simplesobjetos, gestionados por lo que habría que llamar el "resto" de la DSI.

El Cloud Computing es resultado de modelos como el modo SaaS (Software As A Service) o el Grid Computing,que aún no han demostrado todas sus posibilidades.

2. ¿Virtualización y Cloud Computing?La virtualización va a convertirse en la piedra angular del Cloud Computing, por muchas razones:

Para proponer la creación de máquinas virtuales en el Cloud, es necesario virtualizar.

Las interfaces de gestión del Cloud deberán comunicarse con las herramientas de virtualizaciónpara automatizar el conjunto.

El Cloud debe permitir facturar únicamente lo que se consuma. Sin virtualización esto no seríaen absoluto rentable para las empresas que propusieran el Cloud Computing (compra de materialmuy concreto, obsolescencia, consumo eléctrico, etc).

La virtualización permitirá desplegar arquitecturas de alta disponibilidad. Con el principiodel Cloud Computing, las DSI serán muy exigentes sobre sus SLA. Teniéndolo todo externalizado,no aceptarán cortes o incidentes como lo hacían antes.

Página 162 de 169

Para proponer todo tipo de sistemas, independientemente del hardware, es necesario pasar a lavirtualización.

La virtualización permitirá llevar a cabo técnicamente este tipo de infraestructura. Sin embargo, ellado tecnológico sólo es la punta visible del iceberg.

3. Modo de facturaciónEl modo de facturación del Cloud Computing es uno de los principales frenos para su adopción. Aunqueel Cloud Computing debería hacer bajar los costes, realmente no hay nada probado por el momento. Lassimulaciones que se están llevando a cabo actualmente no tienen en cuenta la mayoría de loselementos.

De hecho, hoy en día muchas empresa han escogido externalizar su Sistema de Información. Entreéstas, hay muchas que han decidido dar marcha atrás. ¿Por qué? Simplemente porque los costes ocultosson considerables. Para revisarlos necesitaríamos escribir otro libro… De algún modo, las DSI se hanvuelto muy prudentes tratándose de la externalización.

El coste real del Cloud Computing es difícil de calcular. La mayoría de los actores facturan segúnel consumo de los cuatro elementos siguientes:

RAM

La RAM consumida se multiplica por el número de horas que esta misma RAM se ha utilizado.

Transferencia de datos

El número de datos (en Mbps, Gbps) que salen o entran en la nube.

Almacenamiento

El espacio de almacenamiento utilizado al mes.

Licencias

Las licencias necesarias para la empresa que desea utilizar el Cloud.

Existen variantes donde el número de ciclos de CPU consumida también se factura.

Tomemos un ejemplo concreto:

Una empresa quiere tener un servidor que tenga 512 MB de Ram. Cada mes, se consumen 338 horas.

Coste unitario de 1 GB de Ram: 0,20 € por hora.

El servidor tendrá un coste mensual de 0,5 * 338 * 0,20 = 33.8 €

Por otro lado, el servidor almacena 50 GB de datos.

Coste unitario de 1 GB de datos = 0,15 € al mes.

Por tanto, 0,15 * 50 = 7,5 €

El servidor ha recibido 8 GB de datos (lo que representa, por ejemplo, todas las conexiones de losclientes en ese mes).

Coste unitario: 1 Gb = 0,5 €Página 163 de 169

Por tanto, 8 * 0,5 = 4 €

En último lugar, el servidor contiene una licencia de MSSQL Workgroup edition, que se factura a 54 €al mes.

Así, en total, la empresa gastará 99.3 € al mes para satisfacer a sus clientes.

Es difícil de calcular cuánto costaría esto mismo en modo de alojamiento clásico; todo es cuestiónde anticipación. El trabajo para las DSI que deseen abrirse al modo del Cloud Computing, consistiráen calcular a largo plazo el ROI de este enfoque.

4. Ventajas/inconvenientesAunque sobrepase ampliamente el marco de este libro, veamos un breve resumen de las ventajas einconvenientes que representa a día de hoy el Cloud Computing.

Ventajas

En teoría, permite reducir los costes (reducción de efectivos, consumo eléctrico, coste dematerial, etc).

Permite evitar una gran cantidad de fallos.

Permite prever arquitecturas altamente disponibles.

Favorece la adopción de SLA y la contractualización de compromisos sobre la disponibilidad dedatos y de sistemas.

Permite anticipar la escalabilidad y los problemas de usuarios.

Inconvenientes

Dominio de costes difícilmente controlables.

Puede convertirse en poco o nada rentable (sobreconsumo puntual, parámetros imprevistos, costesde licencias excesivos, etc).

Poco maduro tecnológicamente (la mayoría de Clouds actuales tienen cortes generales que tienenconsecuencias en todos los clientes). Ejemplo: http://tinyurl.com/mpqta4

Es muy dependiente de la red. Atención al aumento de "canalizaciones" necesarias para seguir laevolución.

Un fallo puede convertirse rápidamente en catastrófico.

Se critica la seguridad en todos los niveles (confidencialidad, integridad, trazabilidad, etc).

Nada indica que los precios permanecerán idénticos en los próximos años.

5. Los actores de mercado del Cloud ComputingEs interesante constatar que la mayoría de gigantes de la informática proponen sus propios sistemasde Cloud Computing. IBM, Microsoft y Google han anunciado que propondrán una oferta de CloudComputing que se intensificará en los próximos años.

Veamos por el momento los que han llamado nuestra atención:

Microsoft Azure

Amazon Elastic Compute Cloud (Amazon EC2)

Página 164 de 169

IBM Blue Cloud

Google App Engine

GoGrid

El mercado del Cloud Computing representa alrededor de 56 millones de dólares en 2009 según Gartner.

GreenIT

1. DefiniciónEl Green Computing o GreenIT es un concepto basado puramente en el marketing. Estos últimos años, laecología se ha visto impulsada por los diferentes medios de comunicación del planeta (televisión,internet, radio, etc). Ecología e informática han sido enemigos durante muchos años. La informáticaconsume cada vez más electricidad, genera centenares de millones de toneladas de deshechos al año(pcs y servidores usados, cables, pantallas, etc), y tiene un lugar considerable tanto para elparticular como para la empresa. Durante estos últimos años, la tecnología ha permitido reducirconsiderablemente la huella ecológica de los Sistemas de Información.

2. Algunas cifrasConsideramos que las tecnologías de la información consumen entre un 10 y un 15% de la electricidaden España y son responsables de alrededor del 5% de las emisiones de CO2.

La electricidad representa alrededor de un 10% del presupuesto de la DSI.

El consumo eléctrico de los PCs aumenta un 5% cada año.

El consumo eléctrico de los Datacenters aumentó un 15% en 2008.

La factura de electricidad de los ordenadores (a lo largo de su vida) es mucho mayor que el coste decompra.

Entre 2000 y 2005, el consumo eléctrico de los Datacenters aumentó más del doble en el mundo. EnEstados Unidos, está probado que durante 2010 será necesario construir 10 nuevas centrales para lossistemas de información.

Los Datacenters desperdician el 50% de su electricidad (ver http://tinyurl.com/lzbrsb).

El uso medio de un servidor no sobrepasa el 6%.

Como ejemplo, dos peticiones a Google consumen tanta energía como para hacer hervir el agua de unaolla.

Otro ejemplo realmente impresionante: el consumo de energía necesario para mantener con vida unavatar en Second Life durante un año sería superior al de un brasileño medio, ¡unos 1.752 kilowatioshora!

La industria de la informática y las comunicaciones genera alrededor de un 2% de las emisionestotales de dióxido de carbono, casi tanto gas efecto invernadero como el conjunto de todas lascompañías aéreas del mundo.

Entre 2001 y 2006, la factura de electricidad aumentó un 70% debido a la liberalización del mercado.

El 26% de los crashs informáticos se deben a problemas de electricidad.

La agencia americana de información sobre la energía (EIA) estima que el consumo mundial de energíapodría crecer un 57% de aquí a 2030.

Un PC encendido inútilmente cuesta de 19 a 30 euros al año.

La huella de carbón de la descarga de un programa o de una obra digital sería unas 9 veces menor quela de un DVD. Una cifra totalmente olvidada en el debate sobre la ley Hadopi.

Página 165 de 169

3. Virtualización y GreenITLa virtualización está en camino de convertirse en el mejor amigo del GreenIT, por muchas razones:

La virtualización reduce considerablemente la necesidad de servidores y puestos de trabajo.

La virtualización permite concentrar varios sistemas en un solo servidor. La factura eléctricase reduce bastante.

VMware ha introducido mecanismos que permiten gestionar dinámicamente las máquinas virtuales yapagarlas si no se utilizan. (VMware DPM: Distributed Power Management).

La virtualización permite desplegar terminales ligeros que consumen muy poco comparado con unpuesto de trabajo clásico.

Veamos igualmente algunas cifras claves que permitan hacernos una idea más precisa:

Consolidando 10 máquinas físicas en un mismo servidor, las tecnologías de virtualizaciónreducen la factura eléctrica de un 80 a un 90% aproximadamente.

De media, cada servidor físico virtualizado representa un ahorro anual de 7.000 (kWh), queequivale a 4 toneladas de CO2.

En diez años, VMware estima haber permitido ahorrar 39 mil millones de kWh, que equivalen a 4mil millones de euros.

La virtualización de puestos de trabajo permite reducir por 3 la factura de electricidad encomparación a puestos de trabajo clásicos.

Es posible calcular de forma relativamente fácil la reducción de su consumo eléctrico al pasara la virtualización.

Página 166 de 169

4. Experiencia de GreenITAl contrario que el resto de testimonios en este libro, el ejemplo que veremos a continuación formaparte del dominio público.

El autor precisa que este ejemplo proviene de personas de vExpert (VMware Expert) y que el grupoAGRICA es conocido por su trabajo en la virtualización.

Agrica es uno de los principales interlocutores del mundo agrícola en materia de pensióncomplementaria, ahorro y prevención sanitaria.

Después de haber virtualizado el 90% de sus servidores en 2007 para desplegar un sistema de PRD,Agrica decidió en 2008 virtualizar los puestos de trabajo con las herramientas de VMware ESX 3.5. Sedesplegaron terminales tipo Wyse para reducir costes y contribuir a la conducta interna deresponsabilidad medioambiental.

Los puestos de trabajo convencionales de Agrica consumían alrededor de 230 kWh al año.

Los clientes ligeros desplegados por Agrica necesitan por su parte alrededor de 25 kWh al año + 87kWh al año por máquina virtual del lado del servidor. El ahorro energético es, por tanto, del ordende 120 kWh al año.

La factura de electricidad de los puestos de trabajo se redujo a la mitad.

El interés del estudio consiste en incluir en el consumo eléctrico el consumo del servidor dedicadoa los puestos de trabajo virtuales. La mayoría de los fabricantes de terminales ligeros informan hoyen día sólo sobre el consumo del terminal. La tasa de reducción está por tanto lejos de los factores8 ó 10 que anuncian…

Sin embargo, hay que tener en cuenta que los puestos de trabajo de Agrica ya consumían muy pocaenergía. Se considera que, globalmente, un puesto de trabajo consume entre 400 y 500 kWh al año.

5. ¿Qué futuro para el GreenIT?La virtualización va a contribuir en gran parte a una informática más verde. Otros actorescontribuyen a esta tendencia.

Intel y AMD lanzan muchos proyectos para reducir el consumo eléctrico de sus procesadores.

Los terminales ligeros también consumen cada vez menos y serán cada vez más miniaturizados.

La norma RoHS se adopta masivamente.

La Environmental Protection Agency ha publicado recientemente la norma Energy Star for Servers1.0.

Los distintos gobiernos deberían establecer ayudas para todos los que contribuyan a undesarrollo sostenible.

El principal problema del GreenIT consiste en probar que la ecología también permite ahorrar. Hoy endía, el principal freno para la adopción de coches ecológicos es el precio. Si mañana, gracias asubvenciones fiscales y ayudas diversas, el precio de estos coches fuera inferior al de los cochesclásicos (que sería el caso de la ecotasa, etc), la adopción sería mucho mayor. En informática, laventaja es doble. Es posible ahorrar a corto y medio plazo, e igualmente en la compra.

Habrá por tanto que convencer a las DSI y a los compradores con argumentos fuertesy feedbacksconcretos. Las ayudas gubernamentales y las iniciativas europeas podrían acelerar estefenómeno.

Primicia

Página 167 de 169

1. VMware vShieldEs difícil terminar este libro sin haber hablado de vShield, la nueva herramienta de VMware quepermite implementar una política de seguridad inter VM.

VMware vShield proviene de la compra de la sociedad Bluelane (como prueba, encontramos el nombreBluelane por defecto en las máquinas virtuales vShield).

Hemos podido probar en primicia vShield para conocer lo que aportará. Aunque las primerasimpresiones nos parecieron negativas, vShield constituye una auténtica oportunidad de implementaruna infraestructura securizada, administrable desde un punto de vista centralizado.

El principio es sencillo: VMware vShield permite implantar una política de filtraje L2/L3/L4 entrelas máquinas virtuales. Aunque el producto parece de momento muy restringido y difícilmenteconfigurable, es evidente que va a evolucionar y que se convertirá en un pilar de la seguridad delas empresas.

La integración con las herramientas de terceros queda por verificar, especialmente la detección deintrusiones, el antivirus, etc. Sea como sea, la iniciativa merece resaltarse.

2. Cisco Nexus 1000vEl Nexus 1000v permitirá resolver todos los problemas relativos a la red que se han encontrado hastaahora. Hoy en día, los administradores de red no pueden tener una visión de las máquinas virtualesdesplegadas, ya que están bloqueados a nivel del Switch virtual. El Nexus 1000v permitirá llegarmucho más lejos.

Las máquinas virtuales estarán conectadas a un "Distributed Virtual Switch", que tendrá todas laspropiedades de un switch clásico.

No hemos probado todas las funcionalidades ni rendimiento del Nexus1000v. Sin embargo, el principio,en sí, es revolucionario. Además, VMware se ha abierto tanto a Cisco, como a sus asociados. Todoslos fabricantes de hardware de red van a aportar una respuesta en los próximos meses.

Quedan muchas pruebas que realizar y problemas que resolver. El uso del Nexus1000v a gran escala noserá inmediato. Sin embargo, es bastante probable que este principio se adopte próximamente de formamasiva en los Datacenters virtualizados.

Página 168 de 169

Página 169 de 169