Virtualizacion en Entornos Corporativos

Page 1

UNIVERSIDAD PONTIFICIA DE SALAMANCA INGENIERÍA EN ORGANIZACIÓN INDUSTRIAL

(Campus de Madrid)

TRABAJO DE INVESTIGACIÓN ACADÉMICA [ Asignatura: Auditoría y Sistemas de Información ]

VIRTUALIZACIÓN EN ENTORNOS CORPORATIVOS

Profesor: D. Luis Joyanes Aguilar Alumno: Gonzalo Plaza Chinchón Expediente: 086032 Correo-e: gonzaloplazac@gmail.com Fecha Entrega: 9 de junio de 2009


RESÚMEN La virtualización es una técnica informática que aprovecha los recursos físicos de los que una máquina anfitriona (host) dispone para poder ejecutar en ella otro u otros sistemas completamente independientes y funcionales (guests), con todas las consecuencias que ello conlleva; consumo de memoria, de microprocesador, de almacenamiento en disco y en general de todos aquellos dispositivos de la máquina anfitriona que vayan a ser compartidos por las máquinas denominadas virtuales (VM). En los últimos años, la mayor parte de las grandes compañías están implementando la virtualización como una solución óptima que resuelve el problema del crecimiento desorbitado de las infraestructuras de servidores en los Centros de Proceso de Datos. El ahorro en costes de mantenimiento, de espacio y de consumo eléctrico, además de la posibilidad de separar la infraestructura informática en diferentes entornos aislados hacen de la virtualización una opción estratégica atractiva y prometedora para el futuro, siendo ésta una de las técnicas de mayor crecimiento en la industria informática. Durante la siguiente investigación se tratará de analizar y demostrar cómo virtualizando una pequeña infraestructura de servidores se puede lograr un ahorro económico considerable además de un mejor aprovechamiento de la plataforma existente.

Palabras Clave Virtualización, Máquina Virtual, Servidor, Infraestructura Virtual, VMware

ABSTRACT Virtualization is a technique that uses computing resources of a physical host machine has, to run on it the other independent and fully functional systems (guests) with all the consequences that entails; memory consumption, microprocessor, disk storage and generally all those devices in the host machine to be shared by the so-called virtual machines (VM). In recent years, most large companies are implementing virtualization as a solution that solves the problem of exorbitant growth of server infrastructure in the Data Centers. The savings in maintenance costs, space and power consumption, plus the ability to separate the infrastructure in different isolates, makes the virtualization an attractive and promising strategic option for the future. During the subsequent investigation i will seek to analyze and demonstrate how the virtualizing of a small server infrastructure can be achieved a considerable saving in addition to a better use of existing platform.

Keywords Virtualization, Virtual Machine, Server, Virtual Infraestructure, VMware


INDICE DE CONTENIDOS TÍTULO

PÁGINA

1. Introducción …................................................................................................. 1 Estado del Arte 2. Definición de Virtualización …........................................................................ 2 2.1. Tipos de Virtualización …....................................................................... 3 2.2. Creación de una Máquina Virtual ….............................................................. 5 2.3. Configuración de Red en una Máquina Virtual ….................................. 6 2.4. Gestión y almacenamiento de Máquinas Virtuales …............................. 7 3. Historia de la Virtualización …......................................................................... 9 3.1. Necesidad de Virtualización x86 …........................................................ 9 4. Ventajas e Inconvenientes …............................................................................. 11 5. Productos de Virtualización ….......................................................................... 14 Investigación Académica 6. Virtualización en entornos Corporativos …....................................................... 16 6.1. Definición del Entorno …........................................................................ 16 6.2. Necesidad de nuevos servicios …............................................................ 17 6.3. Virtualización de la Infraestructura …..................................................... 18 7. Conclusiones …................................................................................................. 20 8. Bibliografía …................................................................................................... 21


1. INTRODUCCIÓN. El crecimiento en torno al número de servidores que se ha producido en los últimos años en los Centros de Proceso de Datos (CPD, DataCenters) de las grandes compañías ha supuesto que muchas de ellas tengan que replantearse adoptar un nuevo modelo que les permita aprovechar al máximo los recursos de los cuales ya disponen, así como reducir el coste de mantener dichas infraestructuras. La virtualización de servidores y de infraestructuras informáticas en general se ha ido abriendo paso en los entornos corporativos gracias sobretodo a los beneficios que supone para las empresas optar por ésta solución. Y aunque el concepto de la virtualización no es nuevo, no ha sido hasta hace muy pocos años cuando las empresas han empezado ha implantar esta técnica como una solución factible para el ahorro en costes y el aprovechamiento de todos sus recursos. Además, la virtualización está permitiendo a muchas pequeñas y medianas empresas (Pymes) contar con una infraestructura informática más avanzada que de otra manera no hubieran podido financiar ni mantener. A lo largo de este trabajo académico no sólo se explicará el funcionamiento y creación de una máquina virtual (VM) sino que además se detallarán y demostrarán algunas de las más importantes ventajas e inconvenientes que la virtualización en entornos corporativos puede ofrecer. Según los últimos informes de las consultoras más importantes como IDG y Forrester, el mercado de la virtualización seguirá creciendo un 21% hasta 2010. Según las encuestas, se calcula que aproximadamente un 18% de todos los nuevos servidores “puestos en marcha” durante 2009 en Europa están virtualizados, frente a un 14% en el año 2008, lo que refleja el constante aumento de la tecnología de la virtualización. Y los datos van más lejos, augurando que en 2013 existirán más servidores virtualizados que físicos con una proporción de 3 a 2. Es por ello que actualmente los fabricantes más importantes de servidores ya están construyendo hardware adaptado para soportar de una forma optimizada virtualización en ellos. El próximo paso es que el “gigante de Redmond” Microsoft empiece a adaptar también sus licencias de uso para entornos virtualizados o incluso, como están haciendo otros fabricantes de Sistemas Operativos, ofrezca una versión de Windows diseñada únicamente para ejecutarse en máquinas virtuales. La virtualización por lo tanto no sólo es una técnica informática mediante la cual se aprovechan las infraestructuras hardware de los servidores para ejecutar en ellos varios sistemas virtualizados, sino que además debe afrontarse como una estrategia más para obtener ventajas competitivas en el mercado. En este sentido, la separación de entornos y la seguridad en el aislamiento de los mismos que se consigue virtualizando ofrece a las empresas una ventana más amplia de operación sin tener que recurrir a la compra de nuevos servidores. Además, cabe decir que el mercado de productos de virtualización, pese a estar dominado tan sólo por dos o tres compañías en todo el mundo, permite actualmente la creación de grandes infraestructuras virtualizadas orientadas a convertirse en entornos de cloud computing adaptados a las necesidades actuales. La investigación que he llevado a cabo en este trabajo académico pretende reflejar, de una forma genérica sin entrar en necesidades técnicas ni propias de cada empresa, cómo es posible diseñar una pequeña infraestructura basada en entornos virtuales, y cómo mantenerla para que sea escalable en el tiempo y garantice una seguridad de los datos críticos de la misma. En cualquier caso, y como se explica más adelante, cada compañía debe diseñar su propio plan de virtualización, valorando qué elementos de su infraestructura informática son críticos para el funcionamiento, cuáles pueden soportar una virtualización, y cuáles no.

1


2. DEFINICIÓN DE VIRTUALIZACIÓN. Se entiende por Virtualización el despliegue de una técnica mediante la cual se recrean entornos y dispositivos virtuales (sistemas operativos, redes, etc…) a partir de máquinas y hardware real. En última instancia, se trata de un software que crea un entorno virtual entre la plataforma física de la computadora y el usuario o usuarios finales, permitiendo que éstos puedan considerar que disponen de un recurso real y que no lo diferencien por sus funcionalidades finales. Según la RAE (Real Academia de la Lengua Española), lo virtual es aquello que tiene una existencia aparente y no es real. La virtualización por lo tanto aprovecha los recursos físicos de los que una máquina anfitriona (host) dispone para poder ejecutar en ella otro u otros sistemas completamente independientes y funcionales (guests), con todas las consecuencias que ello conlleva; consumo de memoria, de microprocesador, de almacenamiento en disco y en general de todos aquellos dispositivos de la máquina anfitriona que vayan a ser compartidos por las máquinas denominadas virtuales (VM). La principal característica que se puede destacar de esta técnica es el aislamiento y transparencia, mediante la cual las diferentes máquinas guest virtualizadas no tienen constancia de que están compartiendo un mismo sistema de hardware con otros sistemas operativos (SO). De hecho, un SO virtualizado, valga la redundancia, no detecta en ningún momento que está siendo virtualizado. En entornos normales sin virtualización, el sistema operativo (SO) se ejecuta sobre la plataforma (procesador) y se encarga de gestionar las ‘llamadas’ (solicitudes) de las aplicaciones. Como analogía, en una casa, el cuadro eléctrico se encarga de gestionar y asegurar la disponibilidad de energía para todos los electrodomésticos. En esta simplificación, la capa base, el procesador, es el cuadro eléctrico, mientras que el sistema operativo, la corriente, utiliza el cuadro eléctrico para llegar a todos los electrodomésticos, las aplicaciones. Con sistemas virtualizados, el Sistema Operativo guest reside sobre una capa de software de virtualización, conocida como hypervisor (o Monitor de VM, VMM), en vez de sobre el mismo procesador. El VMM se encarga de gestionar todas las instancias y las particiones de los distintos sistemas operativos virtualizados para que no entren en conflicto a la hora de compartir el hardware real.

Fuente: BOLETIC diciembre 2006, ( http://www.astic.es/Asociacion/DetallesBoletic/Documents/Boletic40/tecnologia/tecno_1.pdf )

2


A nivel de software, y por diseño de los tradicionales procesadores x86, cuando se trabaja en modo protegido se cuenta con cuatro niveles de protección. El núcleo (kernel) del SO se ejecuta con nivel de protección 0 (modo supervisor), mientras que las aplicaciones "ruedan" sobre el nivel 3. Los niveles 1 y 2 no son usados. Cuando el procesador detecta una violación del nivel de protección asignado genera una excepción de protección general que debe ser tratada. Cuando usamos un software que nos permita generar “una máquina virtual" nos encontramos fundamentalmente con dos elementos de software: el monitor de máquina virtual (VMM), también conocido como hypervisor, y el conjunto formado por uno o más sistemas invitados (guest) que son máquinas virtuales (VM). El VMM tiene pleno acceso a la totalidad de recursos físicos de la máquina, mientras que las VMS cuentan con pleno acceso a los recursos lógicos hardware que tienen definidos en su propia máquina virtual. Las máquinas virtuales (VMs) trabajan por lo tanto, independientemente unas de otras. Tanto el VMM como las VMs, como aplicaciones en definitiva que son, están sobre el nivel 3 de protección. Los nuevos desarrollos de software de virtualización hacen que el hypervisor (VMM) ruede en nivel 1 de privilegio, haciendo que esté aislado del nivel 3 y deje libre éste para que desde el nivel 1 se manejen todas las excepciones de protección que las VMs, como aplicaciones invitadas que son, puedan generar desde el nivel 3. Es decir, a las excepciones de protección se les da tratamiento fuera del nivel 3 como si se tratase de un sistema nativo real sin que requieran transformación alguna. En la medida que el software de virtualización maneje mejor o peor estas excepciones, a través del VMM u otro módulo específico, tendremos mejor o peor respuesta de nuestros sistemas virtuales. Las nuevas arquitecturas de los procesadores de Intel y AMD llevan incorporadas instrucciones específicas de virtualización, capaces de dar respuesta en gran medida a las citadas excepciones de protección y su manejo pasa de software a firmware. Actualmente los procesadores de 64-bit para servidores de ambos fabricantes, así como las memorias DDR2 están optimizados para los entornos de servicios virtualizados. Todas aquellas arquitecturas anteriores existentes, basadas en el entorno x86 del "front-side bus" pueden utilizarse perfectamente para la virtualización, eso sí, con el debido aumento considerable de memoria RAM para poder hacer frente a las nuevas necesidades.

2.1 Tipos de Virtualización. La virtualización no es una técnica genérica, pues existen diferentes formas dependiendo de la abstracción que se haga del hardware, y de la “comunicación” que tenga con el mismo. A continuación se enumeran los diferentes tipos: – Emulación o simulación: la máquina virtual simula un hardware completo, admitiendo un Sistema Operativo “guest” sin modificar para una CPU completamente diferente. Este enfoque fue muy utilizado para permitir la creación de software para nuevos procesadores antes de que estuvieran físicamente disponibles. La emulación es puesta en práctica utilizando una variedad de técnicas, desde state machines hasta el uso de la recopilación dinámica en una completa plataforma virtual. Existen diferentes productos que se basan en ésta técnica como por ejemplo Bochs, PearPC, Qemu y Hercules. – Virtualización nativa y virtualización completa: la máquina virtual simula un hardware suficiente para permitir un sistema operativo “guest” sin modificar (uno diseñado para la 3


misma CPU) para correr de forma aislada. Típicamente, muchas instancias pueden correr al mismo tiempo. Este enfoque fue el pionero en 1966 con CP-40 y CP[-67]/CMS, predecesores de la familia de máquinas virtuales de IBM. Algunos ejemplos son VMware Server, Parallels Desktop, Virtual Iron, Adeos, Mac-on-Linux, Win4BSD y Win4Lin Pro – Virtualización parcial: En este caso, la máquina virtual simula múltiples instancias de la mayor parte del entorno subyacente del hardware. Este entorno admite compartir recursos y aislar procesos, pero no permite instancias separadas de sistemas operativos “guest”. Aunque no es vista como dentro de la categoría de máquina virtual, históricamente éste fue un importante acercamiento, y fue usado en sistemas como CTSS, el experimental IBM M44/44X, y podría decirse que en sistemas como OS/VS1, OS/VS2 y MVS. – Paravirtualización: la máquina virtual no necesariamente simula un hardware, en cambio ofrece un API (Interfaz de programación de aplicaciones) especial que solo puede usarse mediante la modificación del sistema operativo “guest”. Ejemplos de parvirtualización son VMware ESX Server, Win4Lin 9x y z/VM. – Virtualización a nivel del sistema operativo: El objetivo es virtualizar un servidor físico a nivel del sistema operativo permitiendo múltiples servidores virtuales aislados y seguros correr en un solo servidor físico. El entorno del sistema operativo “guest” comparte el mismo sistema operativo que el del sistema “host”. Las aplicaciones que corren en un entorno “guest” dado lo ven como un sistema autónomo. Algunos ejemplos son LinuxVServer, OpenVZ, Solaris Containers y FreeBSD Jails. – Virtualización de aplicaciones: Consiste en el hecho de ejecutar un escritorio o una aplicación del servidor localmente, usando los propios recursos, en una máquina virtual apropiada. Semejantes aplicaciones virtuales corren en un pequeño entorno virtual que contiene los componentes necesarios para la ejecución, como entradas de registros, archivos, variables de entorno, elementos de uso de interfaces y objetos globales. Este entorno virtual actúa como una capa entre la aplicación y el sistema operativo, y elimina los conflictos entre aplicaciones y entre las aplicaciones y el sistema operativo. El ejemplo más común es el de Java Virtual Machine (JVM) de Sun Microsystems, pero existen otros productos como Softricity, Thinstall, Altiris y Trigence. Los tipos de virtualización que acaban de enumerarse se refieren en todos los casos a la denominada virtualización de plataformas, es decir, de sistemas propios de hardware. En el entorno empresarial es muy común la utilización también de otro tipo de virtualización, la de recursos. La virtualización de recursos permite agrupar varios dispositivos para que sean vistos como uno solo, o por el contrario, dividir un recurso en múltiples recursos independientes. Generalmente se aplica a medios de almacenamiento, por ejemplo la agrupación de distintos dispositivos de almacenamiento físicos en una misma partición lógica. También existe otra forma de virtualización de recursos muy popular como son las redes privadas virtuales o VPN, abstracción que permite conectar dos sedes aisladas de una compañía a través de Internet de tal manera que se simule que ambas sedes funcionan en una misma Red Local (LAN). En cualquier caso, durante la siguiente investigación vamos a centrarnos en el tipo de virtualización de plataformas más común actualmente, como es la virtualización completa, muy utilizada en entornos empresariales para la consolidación de servidores. Para ello nos basaremos en el fabricante de soluciones para la virtualización Vmware.

4


2. 2 Creación de una Máquina Virtual Una máquina virtual, como su propio nombre indica, es un elemento lógico que ejecutado bajo un software hypervisor (capa de abstracción del hardware), permitirá ejecutar sobre él un Sistema Operativo al completo, excluyendo algunas características muy concretas como son la aceleración gráfica. El hypervisor proveerá a dicha máquina de los controladores específicos que necesite para la utilización de los diferentes componentes hardware, que estarán a su vez virtualizados. Por lo tanto, la máquina virtual (VM) no reconocerá el disco duro real, por ejemplo, sino que detectará un disco duro (HD) virtualizado con una capacidad y características especificadas a la hora de crearla. Sobre ese HD virtual se instalará el Sistema Operativo (SO) que se desee, ya que actualmente, salvo algunas pocas excepciones, los SO más comunes están soportados para ser virtualizados. Como ejemplo explicativo para realizar una virtualización vamos a tomar un equipo hardware con características comunes en el mercado. Los detalles del mismo se enumeran a continuación. – – – – – – –

Equipo genérico de sobremesa común en el mercado actual. Microprocesador x86 (32 bits) con doble núcleo de 3 Ghz (GigaHertzios) 2 GB (GigaBytes) de Memoria RAM (Random Access Memory) Disco Duro (HD) de 150 GB (GigaBytes) Tarjeta Gráfica de 512MB (MegaBytes) Tarjeta de Red Ethernet con capacidad Gigabit (1 Gbps) Sistema Operativo Linux Ubuntu 9.04

Con dichas características el objetivo será ejecutar un segundo Sistema Operativo, que funcione simultáneamente con el nativo, que en nuestro caso es Ubuntu. El Sistema Operativo elegido para virtualizar será Microsoft Windows XP Professional. Con ésta información, el primer punto a analizar será el diseño de la nueva máquina virtual que debemos crear para ejecutar el SO deseado. Supondremos para el ejemplo la utilización de un software genérico para la creación de la máquina virtual, ya que en términos de configuración, los productos más comunes del mercado ofrecen unas posibilidades similares de configuración. En principio debemos conocer los requisitos que necesita el Sistema Operativo a virtualizar para ejecutarse con normalidad en una máquina cualquiera. En función de dichos requisitos, asignamos a la máquina virtual los recursos suficientes para realizar la virtualización, atendiendo a la limitación de hardware que tenemos en el propio equipo. Por lo tanto, la nueva máquina virtual (Guest) nunca podrá consumir más recursos de los que dispone el sistema anfitrión (Host). Además, hay que tener en cuenta los recursos que de por sí ya consume el Sistema Operativo nativo que está instalado en el equipo. Supongamos que los recursos que estamos utilizando actualmente (antes de virtualizar) son los siguientes: – – – –

El Sistema Operativo anfitrión, Ubuntu, ocupa en el Disco Duro 6 GB Los datos almacenados por los usuarios acumulan un total de 30 GB El Sistema Operativo anfitrión consume de media 512 MB de memoria RAM. El uso del microprocesador (media de ambos núcleos), es de aproximadamente del 20%.

Por lo tanto, conociendo el consumo de recursos que actualmente se están utilizando por el sistema anfitrión, se obtienen fácilmente las limitaciones de capacidad que podremos asignar a la nueva máquina virtual. Habrá que tener en cuenta, pues, que la VM no debe consumir el 80% restante del microprocesador ni de memoria RAM ya que podría volver a todo el sistema inestable y 5


la virtualización no sería efectiva. Basándonos en los datos que hemos calculado anteriormente, ya disponemos de una configuración de recursos capaz de hacer convivir a ambos sistemas operativos, el anfitrión y el virtual. Los recursos a para asignar serán los siguientes: – Disco Duro Virtual de 50 GB, suficiente para instalar Windows XP y almacenar datos. – Asignación de 1 GB de memoria RAM. La cantidad es más que suficiente, pero no consume el total de la disponible y contrarresta la ralentización que de por sí produce la virtualización. – Memoria de Video de 32 MB, suficiente para ejecutar el entorno gráfico de Windows XP, siempre que no se use aceleración gráfica (no soportada por la virtualización). – Se calcula que Windows XP consumirá un 40%-50% de la capacidad total del microprocesador, con lo cual no se llegará a saturar el consumo del mismo. – Unidad de Lector de Discos (DVD's), unidad disquetera, y unidad USB, todas ellas virtuales, que serán compartidas con las reales del sistema. Bajo ésta configuración, el Sistema Operativo Windows XP se ejecuta sin problemas virtualizado sobre la máquina anfitriona. Un buen diseño de la máquina virtual será esencial para que los recursos generales no se vean afectados. Existen algunas características de configuración propias de cada fabricante de software de virtualización y una de las más importantes es la configuración de la tarjeta de red virtualizada mediante la cual se podrá acceder a Internet o bien integrar la VM en un entorno de Red Local (LAN).

2.3. Configuración de Red en una Máquina Virtual: Salvo uso doméstico de la virtualización, las máquinas virtuales generalmente estarán destinadas a pertenecer a una red corporativa, más aún si se trata de servidores virtualizados que tendrán que ofrecer una serie de servicios en red. Es por ello que los fabricantes de software de virtualización permiten que los adaptadores de red virtuales puedan configurarse para tener acceso a Internet o a las redes corporativas de diferentes maneras. A continuación se enumeran las más comunes:

– Conexión Bridged (puenteada): Si el equipo anfitrión está en una red Ethernet, éste método de conexión es el más sencillo para dar acceso a dicha red a la VM. Mediante el uso del puente de red, la VM debe tener su propia identidad de red. Por ejemplo, en una red TCP/IP, la máquina virtual necesitará su propia dirección IP. Para ello habrá que establecer la dirección IP del sistema operativo virtual (guest) de forma manual, salvo que en la red LAN del equipo anfitrión haya un servidor de DHCP. La VM por lo tanto será un equipo más en la red local del equipo anfitrión, con acceso a otras máquinas de la red. Los demás equipos de la red podrán conectarse a la VM como si de un equipo físico se tratase.

Fuente: AJPDsoft [ http://www.ajpdsoft.com/modules.php?name=News&file=article&sid=385 ]

6


– Conexión “HostOnly”: la creación de redes Host-Only ofrece una conexión de red entre la VM y el equipo anfitrión (host), mediante un adaptador Ethernet virtual que es visible para el sistema operativo anfitrión. Este enfoque puede ser útil en los casos en los que se necesite crear una Red Virtual aislada. Si se utiliza este método de conexión, la VM y el adaptador virtual del sistema operativo anfitrión estarán conectados a una red virtual privada, siendo proporcionada la asignación de direcciones IP por el servidor DHCP del software de virtualización.

Fuente: AJPDsoft [ http://www.ajpdsoft.com/modules.php?name=News&file=article&sid=385 ]

– Conexión NAT (Network Address Translation). Este método de conexión servirá para conectar la VM a Internet u otras redes TCP/IP utilizando el acceso telefónico a redes o la conexión de banda ancha del equipo anfitrión (host) cuando éste no es capaz de dar a la máquina virtual una dirección IP en la red externa. NAT también permitirá conectarse a una red TCP/IP utilizando un adaptador Token Ring en el ordenador anfitrión. El dispositivo NAT pasará los datos de la red entre una o más máquinas virtuales y la red externa, identificará los paquetes de datos destinados a cada máquina virtual y los enviará al destino correcto. Mediante la utilización de este método de conexión (NAT), la VM puede utilizar TCP/IP para conectarse a otros equipos de la red externa. Por ejemplo, podrá utilizarse HTTP para navegar por sitios Web, FTP para transferir archivos, Telnet para conectarse a otros equipos, etc. En la configuración por defecto, los equipos de la red externa no podrán establecer conexiones a la VM. Esto significa, por ejemplo, que la configuración por defecto no permitirá utilizar la VM como un servidor Web hacia la red externa.

Fuente: AJPDsoft [ http://www.ajpdsoft.com/modules.php?name=News&file=article&sid=385 ]

2.3. Gestión y almacenamiento de Máquinas Virtuales: En última instancia, las máquinas virtuales creadas en un servidor o en cualquier equipo anfitrión capaz de ejecutarlas, serán tratadas como archivos de gran tamaño reconocibles por el software de virtualización. Normalmente cuando se crea una VM se generan en el equipo anfitrión una serie de archivos que contendrán la configuración específica de cada máquina (recursos que utiliza, tipo de 7


sistema operativo que contiene, logs de ejecución, etc.) y otro archivo que contiene el disco duro virtual de la VM. Éste archivo, generalmente denominado Virtual Hard Disk, tendrá un tamaño tan grande como espacio hayamos asignado a la VM. Por ejemplo, si hemos creado una VM con 30 GB de Disco Duro virtual, el archivo ocupará 30 GB en el equipo anfitrión. De ésta manera, se hace muy eficiente la gestión de las máquinas virtuales alojadas en un sistema anfitrión, pues en cualquier momento podrán migrarse los grandes archivos de un lugar a otro (incluso en otros puntos de la red destinados a ello) indicando al software de virtualización la localización exacta del archivo de disco duro (HD) virtual. La gestión de Backups (copias de seguridad) de las máquinas virtuales también se simplifica bastante con éste diseño. En el mercado están apareciendo cantidad de productos que realizan operaciones de copia de seguridad que están permitiendo a las empresas consolidar sus planes de recuperación ante desastres. Como ejemplo, analizamos el producto de VMware “VMware Consolidated Backup”. El producto en cuestión proporciona una función de backup centralizada y fácil de utilizar para máquinas virtuales que permite hacer un backup del contenido de las máquinas virtuales desde un servidor proxy centralizado en lugar de hacerlo directamente desde VMware Server ó ESX Server (Nota: ambos son productos de virtualización de la misma compañía). Mediante un conjunto de controladores y secuencias de comandos es posible realizar copias de seguridad a través de un servidor centralizado utilizando herramientas de backup estándar y almacenamiento tipo NAS. El producto incluye secuencias de comandos anteriores y posteriores al backup para la integración con la mayoría de los principales fabricantes de herramientas de copia, de tal modo que para cada máquina virtual, se crea una tarea de backup automática que genera un Snapshot de la misma. Dicha imagen de la máquina se ejecuta directamente en el servidor proxy de Backups que realiza entonces la copia y la alamacena en los correspondientes discos. Por último, se desmonta el Snapshot generado y se elimina. A continuación se muestra una imagen que describe el proceso de copia de seguridad.

Imagen: Proceso de backup de VMware Consolidated Backup Fuente: VMware [ www.vmware.co.nz/files/es/pdf/consolidated_backup_datasheet_es.pdf ]

8


3. HISTORIA DE LA VIRTUALIZACIÓN Probablemente el inicio real del concepto pueda remontarse al año 1959 y atribuirse a los estudios del MIT e IBM sobre el llamado CTSS (Compatible Time-Sharing System); originalmente llamado Cp-67, comenzó su funcionamiento con el modelo 67 del sistema 360 y siguió su andadura tanto en las máquinas del chasis de la clase del 360 como en las del sistema 370. Se plasmó en el sistema VM/370 de IBM en 1972. La idea principal era la de permitir ejecutar varios sistemas operativos simultáneamente sobre el mismo hardware. Para ello separaba las dos funciones básicas que realiza un sistema de tiempo compartido: multiprogramación y abstracción del hardware. Por esas fechas, de cara a la comunidad científica, Popek y Goldberg utilizaron técnicas formales para determinar el conjunto de condiciones necesarias y suficientes bajo las que una arquitectura podría dar soporte a la virtualización. El artículo en el que mostraron sus conclusiones, publicado en julio de 1974 en la prestigiosa "Communications of the ACM", supuso el despegue teórico de líneas de investigación que han cristalizado, mucho tiempo después, en productos de uso cotidiano. En este artículo se encuentra una de las primeras y más concisas definiciones de máquina virtual: un duplicado eficiente y aislado de una máquina real. Las citadas actuaciones venían determinadas por la realidad de los años 60, donde los recursos hardware eran escasos y muy caros.

3.1 Necesidad de virtualización x86. En los 80 comienzan a descargarse de los servidores las tareas menores que podían realizarse en ordenadores personales (PC's) a un coste mucho más bajo y la virtualización quedó aparcada. No obstante, Intel en 1985 introdujo en sus CPU's soporte hardware para ejecutar múltiples aplicaciones DOS 16-bit (virtual 8086 mode). En los 90 los investigadores comenzaron a trabajar con la virtualización en una nueva línea: dar una solución para resolver problemas asociados a la proliferación y dispersión de equipos de bajo coste: infrautilización, falta de escalabilidad, alta vulnerabilidad, continuo incremento de costes de administración, etc, perfilándose la consolidación de servidores. La virtualización pues, fue abandonada durante las décadas de 1980 y 1990, cuando las aplicaciones de cliente-servidor y los servidores y escritorios x86 económicos establecieron el modelo de informática distribuida. Más que el uso compartido y centralizado del modelo de mainframe, las organizaciones utilizaron los bajos costes de los sistemas distribuidos para crear islas con capacidad informática. La amplia adopción de Windows y la emergencia de Linux como sistemas operativos de servidor en los años 1990 convirtieron a los servidores x86 en el estándar de la industria. El incremento de implementaciones de servidores y escritorios x86 generó nuevos problemas operacionales y de infraestructura de TI. Entre estos problemas se incluyen los siguientes: • Baja utilización de la infraestructura. Las implementaciones típicas de servidores x86 logran una utilización media de entre un 10% y un 15% de la capacidad total, según señala International Data Corporation (IDC). Normalmente, las organizaciones ejecutan una aplicación por servidor para evitar el riesgo de que las vulnerabilidades de una aplicación afecten a la disponibilidad de otra aplicación en el mismo servidor. • Incremento de los costes de infraestructura física. Los costes operativos para dar soporte al crecimiento de infraestructuras físicas han aumentado a ritmo constante. La mayor parte de las infraestructuras informáticas deben permanecer operativas en todo momento, lo que genera gastos en consumo energético, refrigeración e instalaciones que no varían con los 9


niveles de utilización. • Incremento de los costes de gestión de TI. A medida que los entornos informáticos se hacen más complejos, aumenta el nivel de especialización de la formación y la experiencia que necesita el personal de gestión de infraestructuras y los costes asociados al mismo. Las organizaciones gastan cantidades desproporcionadas de dinero y recursos en tareas manuales ligadas al mantenimiento de los servidores, y aumenta la necesidad de personal para realizarlas. • Insuficiente failover y protección ante desastres. Las empresas se ven cada vez más afectadas por las paradas de las aplicaciones de servidor crítico y la falta de acceso a escritorios de usuario final. La amenaza de ataques a la seguridad o desastres naturales, han acentuado la importancia de la planificación de la continuidad del negocio tanto en lo relativo a escritorios como a servidores. • Escritorios de usuario final de mantenimiento elevado. La gestión y la seguridad de los escritorios corporativos plantean numerosos desafíos. Controlar un entorno de escritorio distribuido y aplicar políticas de gestión, acceso y seguridad sin perjudicar la capacidad del usuario de trabajar con eficacia es complejo y costoso. Se tienen que aplicar continuamente muchos parches y actualizaciones en el entorno del escritorio para eliminar las vulnerabilidades de seguridad. En 1999, la compañía VMware introdujo la virtualización en los sistemas x86 como un medio para solucionar de manera eficiente muchos de estos problemas y transformar los sistemas x86 en sistemas para uso general, en infraestructuras de hardware compartido que ofrecen un aislamiento completo, movilidad y opciones de elección del sistema operativo de los entornos de aplicación. Actualmente, dentro del mundo empresarial y a nivel global, la virtualización aplicada a las infraestructuras de las Tecnologías de la Información (IT) es sinónimo de vanguardia en la optimización de gestión de recursos, seguridad, escalabilidad y facilidad de administración de sistemas. Con el cambio de siglo se retoma la virtualización adaptándose el hardware a tal efecto: en 2004 Intel anuncia su Virtualization Technology (VT) y en 2005 AMD anuncia Pacifica. En el apartado de software se consolidan aplicaciones para crear máquinas virtuales con plena funcionalidad, estabilidad y fiabilidad que recrean completas Infraestructuras Virtuales (separación lógica de los recursos frente a los dispositivos físicos que incluyen redes, sistemas de almacenamiento NAS, etc…

10


4. VENTAJAS E INCONVENIENTES La Virtualización, una vez se ha implementado en entornos de producción y los técnicos e ingenieros encargados de su funcionamiento han asimilado la nueva infraestructura, aporta innumerables beneficios para el desarrollo de los procesos empresariales, pero también existen cuestiones delicadas que se podrían considerar como elementos en contra.

4.1 Ventajas de la Virtualización A continuación, se detallan algunas de las ventajas más importantes en cuanto a virtualización de servidores e infraestructuras en entornos corporativos: •

Ahorro en adquisición y mantenimiento de Hardware: Bien planificada, una virtualización, a la larga, significa un importante ahorro económico en la adquisición de nuevos servidores. Del mismo modo, simplifica el escenario de mantenimiento al reducir el número de servidores críticos en la empresa, y por consiguiente la probabilidad de fallos en el hardware de los mismos Al aprovecharse mucho más la capacidad de los equipos se consigue, con un riesgo mucho menor, que los servidores dispongan de un mayor número de funcionalidades, lo que evidentemente reduce el coste total de operación (TCO) y mejora en medio plazo el retorno de la inversión realizada (ROI). Según la consultora IDG, por cada cien servidores virtualizados se calcula que es posible ahorrarse en torno a medio millón de dólares, lo que de por sí justifica en gran medida el fuerte interés en torno a este tipo de tecnología.

Ahorro energético: La cuestión medioambiental hoy en día es trivial en empresas responsables con el entorno (concienciadas con la green IT). Una infraestructura informática corporativa basada en virtualización de servidores logrará reducir no sólo el consumo energético de aquellos que no sean “físicos” sino que además reducirá el gasto en climatización de la sala donde estén alojados. A medida que la infraestructura aumente, la reducción de consumo energético será considerable.

Ahorro de espacio: En entornos con poco espacio para el CPD (Centro de Proceso de Datos), como por ejemplo PYMES o empresas situadas en edificios históricos que no puedan ser ampliados, la virtualización es capaz de reducir, con una escala aproximada de 1:4 (4 servidores virtualizados por cada servidor físico) un 75% de espacio. Se calcula que esta escala puede aumentarse hasta 1:10 (90% de ahorro en espacio) si se cuenta con servidores físicos de muy alta potencia. Además, siempre se cuenta con la opción de sustituir los grandes servidores antiguos, por otros nuevos más pequeños y potentes capaces de ejecutar máquinas virtuales eficientemente.

Facilidad de Gestión: El software existente actualmente permite diseñar infraestructuras de virtualización en red, con un modelo de gestión de las distintas VM (Máquinas Virtuales) mucho más eficiente, ofreciendo la posibilidad de acceder a las herramientas de administración y monitorización de las mismas desde un mismo punto de la red, o incluso desde cualquier equipo con acceso a Internet gracias a las novedosas herramientas de administración de VM vía web.

Facilidad de Migración: El diseño estándar de las Máquinas Virtuales (siempre que se use el mismo software para crearlas y ejecutarlas) facilita el traspaso de las mismas de una máquina física a otra, existiendo también diferentes herramientas para ello. Actualmente, los 11


últimos avances permiten además realizar operaciones de migración “en caliente”, sin necesidad de apagar las máquinas virtuales y por lo tanto, sin necesidad de dejar de ofrecer servicio a los usuarios finales o clientes. La estandarización del diseño de las mismas logra que prácticamente no tengan que sufrir ninguna modificación en su configuración durante una migración, lo que las hace compatibles con cualquier sistema físico capacitado para ejecutarlas. Mediante ésta funcionalidad, cabe destacar que en entornos muy grandes los ingenieros desarrollan modelos de virtualización en red que posibilitan el balanceo de carga de la misma, creando así una infraestructura de VM distribuidas que garantizan la calidad del servicio. •

Rápida recuperación de entornos. Como ya se ha comentado, la facilidad de transporte de una Máquina Virtual de un servidor físico a otro permite recuperar un sistema virtualizado en muy poco tiempo, siendo éste de minutos u horas, frente a los días o semanas que se tardaría en recuperar un entorno físico al completo. Un buen Plan de Recuperación ante Desastres (DRP) debería pues contemplar la realización de copias de seguridad del entorno virtual al completo o al menos de los componentes más críticos, ya que de ésta manera, el proceso de puesta en marcha después de una avería o desastre es tan simple como importar y ejecutar las VM almacenadas por seguridad. Además, si tenemos replicación de datos remotos, podemos tener réplicas lógicas de nuestras máquinas físicas en el centro de contingencia remoto, listas para entrar en funcionamiento y dar plena continuidad al servicio ante la caída o destrucción de las máquinas físicas/lógicas locales.

Separación de entornos y simplificación del modelo empresarial. Al igual que el modelo organizativo de la empresa debe ser estructurado de tal manera que sea más fácil la coordinación y la gestión, el sistema informático debe reflejar dicha estructura para ofrecer los diferentes servicios que requiere la empresa. La virtualización en este sentido permite implementar una separación segura y aislada de entornos virtuales en una misma infraestructura física sin necesidad de invertir en otra nueva para realizar dicha separación. El nivel de seguridad es alto ya que cada VM actúa como un sistema independiente incluso si comparte recursos en un mismo equipo físico con otras máquinas. Si abstraemos aún más la idea de separar entornos virtuales, podremos implementar varias redes locales “virtuales” en la propia infraestructura. Como ejemplo, en una compañía dedicada al desarrollo de Software y/o proveedora de Software como Servicio (SaaS), será posible entonces implementar en un mismo servidor físico dos entornos virtualizados, uno para desarrollo y pruebas, y el otro para producción, sin asumir riesgos potenciales.

La decisión de implementar una infraestructura virtualizada en la empresa debe tomarse como una estrategia que puede aumentar las ventajas competitivas de la misma, siempre que se tenga claro cual es el verdadero objetivo de la misma. Actualmente la mayoría de las grandes empresas están optando por esta estrategia y las previsiones de futuro son optimistas, lo que demuestra en sí que las ventajas de la virtualización son factibles para el negocio.

4.2 Inconvenientes de la Virtualización. Como la mayoría de las tecnologías que suponen un cambio de visión en el modelo empresarial, la virtualización también tiene algunos inconvenientes como los que se detallan a continuación:

12


Mantenimiento del servidor físico. La ventaja de disponer de varios sistemas virtualizados corriendo en uno sólo puede convertirse en un problema a la hora de mantener el equipo físico, ya que si las VM que contiene son necesarias para la continuidad del negocio, será complicado encontrar el momento de apagar todas ellas y realizar la tarea de mantenimiento. Sobretodo si no se cuenta con una planificación o un software destinado a migrar las VM para que sigan dando servicio mientras se realiza por ejemplo, un aumento del disco duro físico del servidor.

Gran requisito de espacio. Trabajar con Máquinas Virtuales implica necesariamente hacer un replanteamiento en cuanto a la disponibilidad y asignación de espacio de disco. En un entorno virtualizado además, será necesario realizar pruebas con VM, copias de seguridad y demás operaciones que requieren una cantidad bastante elevada de espacio de almacenamiento. Además, la falta de espacio en un servidor físico puede afectar negativamente a todas las VM que esté ejecutando.

Formación específica y planificación. El hecho de virtualizar requiere un orden más estricto, y en muchos casos más complejo a la hora de diseñar el modo de aprovechar y gestionar los inventarios de servidores físicos. Además, la implementación y gestión de la virtualización requiere de una base formativa específica en los ingenieros.

Funcionalidades no soportadas. Aunque actualmente las máquinas virtuales son capaces de hacer funcionar un Sistema Operativo por completo, existen algunas limitaciones en su uso sobretodo si requieren de una potencia gráfica elevada o de otros elementos del sistema que exijan alta disponibilidad o un acceso directo a sus recursos.

Sistemas no virtualizables. Aunque los principales Sistemas Operativos que se usan en la actualidad están perfectamente soportados por los principales fabricantes de Software de virtualización, existen grandes sistemas como AS/400 y Oracle que son incompatibles y algunos otros como Apple Macintosh que no están soportados por ningún fabricante. En éste tipo de casos se recomienda no recurrir a la virtualización.

No cabe duda que la virtualización, bien planificada y gestionada puede lograr que las empresas ahorren en costes y obtengan las ventajas anteriormente citadas, pero según los resultados de las últimas encuestas realizadas por la consultora IDG, un buen número de responsables y directivos de TI aseguran haber tenido problemas con la virtualización. La mayoría de ellos asegura haber virtualizado elementos críticos para la empresa como son los servidores DHCP o servidores de correo electrónico. Entre los obstáculos que citan se encuentran la falta de visibilidad y de herramientas para resolver problemas de rendimiento en entornos virtuales. “Sin las herramientas adecuadas, el rendimiento de las aplicaciones puede reducirse innecesariamente y los equipos de ingenieros pierden horas en resolver esos problemas” , asegura Charles Thompson, responsable de producto en Network Instruments.

13


6. PRODUCTOS DE VIRTUALIZACIÓN A pesar de existir un buen número de fabricantes que actualmente desarrollan soluciones de virtualización, en la actualidad hay tres grandes alternativas en el mercado; VMware, Citrix y Microsoft. •

VMware es el líder indiscutible y tiene la mayor parte del mercado de sistemas virtualizados en producción. Su mayor madurez en este submercado de la virtualización viene de estar más tiempo en él. Desde 1999 está desarrollando aplicaciones y tiene el inventario de productos más extenso, con diferencia, del mercado de la virtualización. Su producto estrella, VI3 tiene algunas funcionalidades que aún no han sido igualadas por la competencia. Los productos que ofrece actualmente VMware para virtualización de infraestrcturas se enumeran a continuación: – VMware Player: gratuito, para la ejecución de máquinas virtuales ya creadas. Orientada a clientes que desean ejecutar aplicaciones ya preinstaladas en la VM – VMware WorkStation: producto comercial que permite crear VM y generar instancias múltiples de snapshots (capturas de VM en ejecución), orientado a programadores que deseen tener varias líneas de desarrollo o prueba de una apliación. – VMware Server: Producto similar a WorkStation pero orientado a instalarse en un servidor con el objetivo de integrar las VM en una LAN (Red Local) corporativa. – VMware ESX Server: Es un producto con el mismo objetivo que VMware Server pero tratándose en sí de un sistema operativo complejo destinado únicamente a albergar y ejecutar VM. – VMware Infraestructure: Se trata de una Suite completa que contiene todos los productos, software y herramientas necesarias para realizar la virtualización de una infraestructura corporativa, incluido el sistema operativo sobre el cual se sustenta el propio producto. – VMware Sphere 4: Último y novedoso producto de VMware que ofrece un Sistema Operativo complejo destinado a la construcción de Clouds internas y externas. Orientado a empresas dedicadas a ofrecer servicios virtualizados a través de Internet, o a grandes compañías que mantienen sus aplicaciones internas virtualizadas, para distribuirlas en red por todas sus sedes mundiales.

Citrix adquirió en octubre del 2007 la empresa XenSource, que había recopilado el movimiento de Open Source que empujaba la tecnología Xen como una alternativa válida y robusta frente al sistema propietario de VMware. En la actualidad Citrix ha incorporado Xen en su gama de productos y ha prometido mejorar esta tecnología integrándola con sus sistemas líderes en entornos de escritorios remotos. Sus productos XenServer Xpress Edition (gratuita), y las versiones comerciales XenServer Standard Edition y Enterprise Edition van afianzándose con un nicho de mercado considerable en el mercado de la virtualización de aplicaciones. Además cabe destacar el acuerdo que ésta compañía ha realizado con Microsoft.

Microsoft, con sus productos Virtual PC y Virtual Server, ha estado en una tercera posición 14


bastante alejada. Las dudas internas de Microsoft por apostar o no por las tecnologías de virtualización en los últimos años ha dado alas a sus competidores y se le han escapado tecnológicamente. No obstante las diferentes soluciones de Microsoft para el concepto de virtualización en la actualidad, son las siguientes: – Virtualización de la Presentación a través de Terminal Services. – Virtualización de aplicaciones con SoftGrid. – Virtualización para entornos de prueba y testing para desarrolladores con Virtual PC. – Virtualización de Servidores con Hiper-V. – Virtualización cuando Hyper-V no sea factible, por medio de Virtual Server. Cada una de estas soluciones, posee diferentes características, y por ende, responden a diversas necesidades del mercado/negocio; siendo la gran mayoría de ellas gratuitas, o incluidas de manera nativa dentro del sistema operativo (Windows Server 2008). Por otro lado, sin importar la solución que sea utilizada, existe un entorno que facilita la administración/operación, y en general, la gobernabilidad de la infraestructura virtualizada. Esta necesidad la cubre un producto llamado System Center Virtual Machine Manager. Según un reciente sondeo de IDC, el 82% de las compañías europeas encuestadas que utilizan virtualización de servidores han optado por la virtualización de VMware. Esta investigación se produce en el momento en que, según la encuesta, el ratio de nuevos servidores que virtualizan los usuarios existentes de virtualización aumentará el 52% en 2009. Además, el 54% de las compañías encuestadas que a día de hoy no utilizan la virtualización, planean hacerlo en los próximos 12 meses. Por otra parte, Microsoft ha revelado sus planes para competir en el mercado de la virtualización, anunciando la compra de Calista Technologies, una start-up (negocio emergente) de tecnología gráfica que mejora la experiencia del usuario que accede al escritorio de Windows de forma remota desde un servidor. Además, la corporación ha ampliado su acuerdo con Citrix y prevé ampliar sus productos, pretendiendo optimizar el uso de su software de virtualización Xen en los sistemas de Microsoft. Sin embargo, para 2013, Gartner pronostica que Microsoft desafiará a VMware como el proveedor dominante en el mercado de infraestructura de virtualización del servidor, especialmente en el entorno de la pequeña y mediana empresa. En cuanto al mercado de gestión de virtualización del servidor, está totalmente abierto, con más de cien fabricantes proporcionando productos que atienden algunos de los requerimientos en el área de administración. A medida que el mercado de gestión madure, los fabricantes de infraestructura de virtualización, incluidos BMC Software, CA, HP e IBM/Tivoli, y otros proveedores de gestión, desarrollarán y adquirirán nuevas capacidades de gestión de la virtualización, favoreciendo una consolidación del mercado. Por otra parte, el entorno de proveedores de soluciones de virtualización a nivel de escritorio está muy concurrido y desorganizado, pero lleno de oportunidades.

15


6. VIRTUALIZACIÓN EN ENTORNOS CORPORATIVOS Así como se ha descrito anteriormente, la virtualización de sistemas en un entorno empresarial está básicamente orientada no sólo a reducir el número de servidores físicos en uso, sino además a la creación, simplificación y aislamiento de los distintos entornos que componen la red local de la empresa. Es por ello que habrá que definir correctamente, y desde un principio, cuales son los elementos críticos de una infraestructura informática, y determinar cuales de ellos podrían ser virtualizados. Hay que destacar que el hecho de optar por una virtualización de servidores no implica tener que virtualizar todos los elementos de la infraestructura, ya que existirán algunos que bien sea por su elevado consumo de recursos o por otro tipo de características, no deban o no puedan ser virtualizados en una máquina virtual (VM).

6.1. Definición del Entorno. El entorno sobre el cual nos vamos a basar para realizar la investigación es una pequeña empresa Pyme con 25 empleados dedicada a ofrecer servicios de Publicidad y Marketing. Todos los empleados por lo tanto usan a diario sus equipos personales que están conectados por Red Local. La empresa cuenta con 3 servidores físicos que se compraron poco tiempo atrás, en el momento de fundar la empresa. Los tres servidores están conectados junto con un router que ofrece la salida a Internet, a un switch lo suficientemente grande que permite la conexión de todos los equipos a la Red Local (LAN). La siguiente imagen muestra una idea aproximada de lo que sería la infraestructura informática de la empresa. Nota: En la imagen no se han contemplado otros elementos como podrían ser un punto de acceso inalámbrico para ofrecer conexión WiFi a la oficina.

Fuente: Propia (Gonzalo Plaza)

Como hemos comentado al principio, la empresa se fundó hace poco tiempo con lo cual los tres servidores de los que dispone son equipos relativamente nuevos y capaces de soportar una capacidad de uso mayor de la que se está utilizando actualmente. Para comprobar dicha suposición 16


se monitorizan durante un día de trabajo cualquiera y se confirma que los servidores no están aprovechando toda la capacidad para la que fueron fabricados. A continuación se muestra una tabla con la descripción de la características de los servidores y otra orientativa sobre el consumo de recursos obtenida de la supuesta monitorización. Tabla 6.1. Capacidad hardware. Fuente Propia NOMBRE

DISCO DURO

MEMORIA RAM

MICROPROCESADOR

Servidor DNS (S1)

300 GB

3 GB

2'3 Ghz Quad Core

Servidor Archivos (S2)

350 GB

2 GB

2 Ghz Dual Core

Servidor Correo (S3)

150 GB

3 GB

2'3 Ghz Dual Core

Tabla 6.2. Porcentaje de consumo de recursos. Fuente Propia NOMBRE

DISCO UTILIZADO

CONSUMO MEMORIA RAM

USO DE MICROPROCESADOR

Servidor DNS (S1)

15%

25%

20%

Servidor Archivos (S2)

35%

50%

40%

Servidor Correo (S3)

20%

30%

35%

Tras el análisis de las tablas de capacidad (6.1) y de porcentaje de consumo (6.2) podemos deducir que ninguno de los 3 servidores está utilizando toda su capacidad y que de hecho ninguno sobrepasa el 50%. Esto significa que la inversión realizada en la compra de los servidores no está siendo amortizada al menos en aprovechamiento de los recursos. A largo plazo, y sin ningún otro servicio necesario la infraestructura podrá subsistir sin ninguna ampliación de hardware, exceptuando el servidor de archivos que necesitará un aumento de espacio de almacenamiento.

6.2. Necesidad de nuevos servicios. Con el paso del tiempo, la empresa ha optado por ofrecer nuevos servicios a sus clientes, entre los que se encuentra el diseño y alojamiento de varias Webs básicas y corporativas en sus propios servidores. Para ello suponemos que la empresa ya ha contratado el correspondiente servicio de direccionamiento IP estático a una compañía proveedora de telecomunicaciones y que tiene el router configurado para tal servicio. La infraestructura ahora requiere de una ampliación o modificación ya que tal y como está diseñada la red no existe ningún servidor destinado a la publicación Web (Servidor HTTP). La única solución aparente sería la compra de un nuevo servidor físico destinado a tal efecto, con el consiguiente gasto que supondría, además de ocupar espacio y consumo eléctrico. A continuación se muestra un presupuesto aproximado y real para implantar la solución de un nuevo servidor. – Servidor estándar en el mercado, con capacidad suficiente para soportar servicios de publicación web y espacio de almacenamiento: 1500€ – Sistema Operativo edición Servidor: 400€ (si se opta por escoger un SO comercial)

17


La empresa por lo tanto tendrá que hacer frente a un gasto de unos 2000€ aproximadamente para la compra de un nuevo servidor del cual seguramente no vaya a utilizar la capacidad al completo, como sucede con los demás servidores, ya que el objetivo es almacenar Webs básicas para varios clientes. En éste punto es donde entra en juego la idea de la virtualización. La solución más factible, por lo tanto, sería aprovechar la infraestructura de servidores de la que dispone la empresa para virtualizar un nuevo servidor dedicado a la publicación Web. A continuación se detallan las modificaciones a realizar para ahorrar el coste de compra de un servidor.

6.3. Virtualización de la Infraestructura. Analizando la infraestructura de uso de los servidores de los que dispone la empresa, llegamos a la conclusión de que es posible utilizar el servidor DNS (S1) para virtualizar en él el Servidor de Correo actual, dejando libre pues S3 para utilizarlo como servidor Web. Además, en lugar de destinar toda la capacidad de S3 para su nuevo cometido, se podrá a su vez virtualizar en él otro servidor Web destinado por ejemplo a desarrollo y pruebas. El servidor de archivos S2 no dispone de la capacidad óptima para soportar una virtualización eficaz, con lo cual seguirá tal y como está. El nuevo mapa de la red ya virtualizada quedaría como se muestra a continuación:

Fuente: Propia (Gonzalo Plaza)

Como podemos apreciar en el gráfico, se ha aprovechado mejor la capacidad de uso de los servidores S1 y S3. Además, se ha aumentado la infraestructura corporativa que ahora dispone de 6 servidores, 3 físicos y 3 virtuales. En el caso de S3, se ha decidido virtualizar tanto el servidor DNS como el de Correo Electrónico, ya que de ésta manera se mantendrán asilados el uno del otro evitando conflictos en la red. Cada uno de los servidores, tanto físicos como virtuales, dispone de una dirección IP de red local, además de una IP pública en el caso del servidor web. Las nuevas proporciones de uso de los servidores físicos cambia considerablemente, a continuación se expone una tabla con los resultados de monitorización de la nueva infraestructura.

18


Tabla 6.3: Porcentaje de consumo de recursos (con virtualización). Fuente Propia NOMBRE

DISCO UTILIZADO

CONSUMO MEMORIA RAM

USO DE MICROPROC. APROXIMADO

Servidor Web (S1)

40%

67%

50%

Servidor Archivos (S2)

35%

50%

40%

Servidor (S3)

50%

55%

60%

Según la tabla, la nueva redistribución de servidores incluyendo virtualización en dos de ellos no satura por completo ninguno de los 3 servidores físicos de lo cual se puede deducir que se ha tomado una buena decisión adoptando la virtualización como solución para la infraestructura informática de la empresa. En un futuro, si el espacio de almacenamiento de los servidores, o la memoria RAM fuera insuficiente, tan sólo sería necesario aumentar la capacidad hardware de los mismos. Sólo en el caso de necesitar incluir nuevos servicios y de no disponer de capacidad de virtualización sería necesario comprar un nuevo servidor físico. El software utilizado para realizar la virtualización es VMware Server, producto gratuito que ofrece una solución de virtualización con las herramientas necesarias para crear y ejecutar las máquinas virtuales (VM) en red que se necesitan. Para convertir los servidores DNS y de Correo a máquinas virtuales se ha utilizado una herramienta de clonación de discos y se han configurado los parámetros de red necesarios para que cada máquina tenga conexión a la red y dirección IP propia. El coste aproximado final de escoger la estrategia de virtualización, sin contar con el tiempo que se invierte en realizar todas las operaciones de migración, creación y configuración de máquinas virtuales, es el siguiente: – – – –

Sistema Operativo edición Servidor: 400€ (si se opta por escoger un SO comercial) Tarjeta de red Ethernet para el servidor S3: 15€ Compra de nuevos servidores físicos: 0€ Software para la virtualización: 0€

En el caso de la empresa que hemos escogido para realizar la investigación, el ahorro ha sido de más de 1500€ (con cifras aproximadas y para éste caso concreto), quedando claro que la virtualización es efectiva siempre y cuando se den las condiciones necesarias para realizarla. Además se puede apreciar que la capacidad de los servidores físicos, una vez realizada la virtualización, se está aprovechando más eficientemente, con lo cual ahora sí se está rentabilizando la inversión que se hizo en comprarlos cuando se fundó la empresa. Como apunte final, cabe destacar que la infraestructura virtual ofrece mayor flexibilidad a la hora de la realizar backups de las máquinas virtuales, ya que éstas serán copias de los pocos archivos que contienen las máquinas virtuales (VM). En caso de que una VM deje de funcionar por cualquier motivo, será cuestión de unas pocas horas importar la copia de seguridad exacta de la misma VM y ejecutarla de nuevo en el servidor correspondiente. Para ello se pueden utilizar productos como el que analizamos durante el trabajo.

19


7. CONCLUSIONES Tras haber analizado los conceptos generales de la virtualización, así como sus principales ventajas, inconvenientes y aplicaciones, se puede llegar a la conclusión de que se trata de una técnica que no sólo puede hacer que las empresas ahorren en costes y mantenimiento, sino que además puedan simplificar y mejorar los diferentes entornos necesarios en una infraestructura informática. La virtualización por lo tanto debe plantearse como una estrategia corporativa más que ayudará a la empresa a obtener ciertas ventajas competitivas en el mercado. El hecho de establecer una planificación virtual de los servidores además supondrá una mejora constante en el desarrollo del Plan de Recuperación ante desastres, del que toda empresa debería preocuparse. Implantar una infraestructura virtualizada ofrece numerosas ventajas como se ha estudiado a lo largo de éste trabajo académico, pero no hay que olvidar que como con cualquier otra tecnología joven en el mercado, requerirá de una formación específica en los ingenieros que vayan a llevarla a cabo. Además, la planificación y orden deberá ser mayor debido a la dependencia del rendimiento de los servidores físicos, que habrá que monitorizar constantemente y predecir el límite hasta el cual son capaces de soportar la virtualización. En mi opinión, nos encontramos ante una solución a gran cantidad de problemas, con una aplicación en principio no muy compleja, dependiendo eso sí del tamaño de la infraestructura que queramos virtualizar. En cuanto al dilema de virtualizar elementos críticos de la compañía como pueden ser los servidores DNS o de correo electrónico dependerá del uso que se haga de ellos en el día a día de la empresa y de la capacidad de hardware que requieran. Lo servidores web por su parte, no cabe ninguna duda que pueden ser virtualizados eficientemente siempre que se reserve para ellos una capacidad de uso de la red de acuerdo a las necesidades de cada servidor.

20


8. BIBLIOGRAFIA - Zorraquino García, Javier. Virtualización. [disponible en: http://www.astic.es/Asociacion/DetallesBoletic/Documents/Boletic40/tecnologia/tecno_1.pdf]

[consultado 20/05/2009] - Dans, Enrique. La virtualización y el futuro. [ disponible en: http://www.enriquedans.com/2007/12/la-virtualizacion-y-el-futuro.html ] [consultado 25/05/2009] - VMware Official Site [ disponible en: http://www.vmware.com/es/overview/ ] [consultado 25/05/2009] - AJPDsoft. Virtualización con VMware Server 2.0 [ disponible en: http://www.ajpdsoft.com/modules.php?name=News&file=article&sid=385 ] [consultado 02/06/2009] - Brias, Javier. Entendiendo la Virtualización. TechWeek [ http://www.techweek.es/virtualizacion/informes/1005626005901/entendiendo-virtualizacion.1.html ]

[consultado 04/06/2009] - Gómez, Hilda. IDG [ disponible en: http://www.idg.es/dealer/actualidad.asp?id=76801 ] [consultado 01/06/2009]

21


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.