Historia de la Virtualización

La virtualización consiste en ejecutarse en un equipo host en un entorno aislado de los sistemas operativos1 -a esto se le llama virtualización de sistemas- o aplicaciones2 -a esto se le llama virtualización de aplicaciones.

Estos ordenadores virtuales se denominan servidores privados virtuales (VPS) o entornos virtuales (VE)

Historia de la Virtualizacion

Gran parte del trabajo sobre virtualización se desarrolló en el Cambridge Science Center de IBM en colaboración con el MIT, donde se desarrolló el sistema experimental CP/CMS, convirtiéndose más tarde en el (entonces llamado hipervisor) producto VM/CMS. Ver IBM 360 y 370.

Posteriormente, los mainframes pudieron virtualizar sus sistemas operativos con tecnologías propietarias específicas, tanto de software como de hardware. En 1979 se anunció, por ejemplo, en IBM 4331 y 4341 un acelerador VM opcional.

En la segunda mitad de los años ochenta y principios de los noventa, se crearon embriones de virtualización en ordenadores personales. Estas soluciones pueden ser puramente de software o combinadas con hardware adicional (adición de procesador, tarjeta de red, etc.). Y es en los ordenadores Amiga equipados con procesadores heterogéneos como el 80386 y 80486, 68xxx, y PPC que fue posible lanzar otros sistemas operativos como Windows, Mac OS, o Linux, todo en multitarea bajo AmigaOS.

Es en esta máquina de antemano que la tecnología de virtualización se ha explotado al máximo y sigue siendo inigualable hoy en día. Para PCs, había emuladores como SideCar y PC Task. En Macintosh, Emplant y ShapeShifter. Unix grande seguido de arquitecturas NUMA de HP Superdomes (PA-RISC y IA-64) y Sun E10000/E15000 (UltraSparc).

En noviembre de 2012, el ETSI creó un grupo de trabajo 7 para estandarizar el NFV (en), un nuevo enfoque de la virtualización, en el que participan numerosas empresas especializadas en tecnologías de inteligencia de red (Qosmos, Procera Networks o Sandvine) y laboratorios de investigación universitarios (Universidad de Campinos, Universidad Carlos III de Madrid, Universidad del País Vasco, Universidad de Patras, etc.).

Principios

A primera vista puede parecer extraño simular otras máquinas en una máquina anfitriona: un sistema operativo está diseñado para usar hardware que está totalmente bajo su control. La yuxtaposición de varios sistemas que no están diseñados para comunicarse entre sí puede dar lugar a temores de ineficiencias, agravadas por el hecho de que el proceso de virtualización consumirá recursos.

El panorama no es tan sombrío. Por un lado, gran parte de esta ineficiencia se evita con sólo tener diferentes discos para cada sistema y, por otro, los costes de memoria permiten que cada uno de estos sistemas permanezca residente y, a veces, con grandes secciones de código compartido. Además, tanto los microcódigos de mainframe como los de microprocesador incluyen cada vez más funciones que hacen que la virtualización sea más eficiente.

Por último, es habitual que una empresa disponga de una quincena de servidores funcionando al 15% de su capacidad, para poder hacer frente a picos de carga esporádicos. Un servidor cargado al 15% consume tanta energía como un servidor cargado al 90%, y agrupar varios servidores en la misma máquina es rentable si sus picos de carga no siempre coinciden, incluso incluyendo la carga de virtualización.

La virtualización de servidores también permite una modularidad mucho mayor en el balanceo de carga y reconfiguración de servidores en caso de una evolución temporal o fallo (plan de copias de seguridad, etc.).

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Entradas relacionadas

Comienza escribiendo tu búsqueda y pulsa enter para buscar. Presiona ESC para cancelar.

Volver arriba