Evolución de los centros de datos, historia

Evolución de los centros de datos, Historia; ¿Qué es un centro de datos? Historia, 1960-2000, 2000-2022, Hoy y más allá, El primer centro de datos de la historia, Mirando al futuro.

Evolución de los centros de datos, historia
Evolución de los centros de datos, historia

¿Qué es un centro de datos?

Los centros de datos, también conocidos como data centers, son instalaciones que proporcionan a las empresas una red de ordenadores, sistemas de almacenamiento e infraestructura informática para reunir, procesar, almacenar y difundir grandes cantidades de datos.

Las aplicaciones, los servicios y los datos contenidos en un centro de datos suelen ser fundamentales para las operaciones diarias de una empresa, lo que los convierte en un activo importante.

Además de los recursos de computación en la nube y los recursos locales, los centros de datos de las empresas integran cada vez más instalaciones para asegurarlos y protegerlos. La computación en nube hace más difícil para las empresas distinguir entre sus propios centros de datos y los centros de datos de los proveedores de la nube.  

Historia

Históricamente, los centros de datos se remontan a las enormes salas para ordenadores de los años 40, tipificadas por ENIAC, uno de los primeros centros de datos. 

Los primeros sistemas informáticos eran complejos de manejar y mantener, por lo que requerían entornos operativos especiales. Para conectar todos los componentes eran necesarios numerosos cables, y se idearon muchos métodos para acomodarlos y organizarlos, como bastidores de equipos, suelos elevados y bandejas de cables (instaladas por encima o por debajo del suelo elevado). 

Un mainframe consumía mucha energía y se refrigeraba para evitar el sobrecalentamiento. La importancia de la seguridad aumentó a medida que los ordenadores se volvían más caros y se utilizaban a menudo con fines militares. Por ello, se elaboraron las siguientes directrices para controlar el acceso a la sala de ordenadores. 

La gente empezó a desplegar ordenadores por todas partes durante el auge de la industria de los microordenadores, especialmente en la década de 1980, a menudo sin tener en cuenta los requisitos de funcionamiento. Sin embargo, a medida que las operaciones de las tecnologías de la información (TI) se hacían más complejas, las organizaciones empezaron a darse cuenta de la importancia de controlar los recursos de TI. 

Gracias a los equipos de red de bajo coste y a la introducción de nuevos estándares para el cableado estructurado, fue posible ubicar los servidores en salas específicas dentro de la empresa utilizando un diseño jerárquico. Por aquel entonces, el término «centro de datos» empezó a ganar popularidad aplicado a salas de ordenadores especialmente diseñadas. 

A raíz de la burbuja de las punto com, entre 1997 y 2000, los centros de datos se dispararon. Para desplegar sistemas y establecer una presencia en línea, las empresas necesitaban una rápida conectividad a Internet y un funcionamiento ininterrumpido. Para muchas empresas más pequeñas, estos equipos no eran viables.

El centro de datos de Internet (IDC) es una instalación de gran tamaño que proporciona capacidades mejoradas, como la copia de seguridad cruzada: «En el caso de que se cortara una línea de Bell Atlantic, podríamos pasar a … para minimizar el tiempo que duraría una interrupción».

Los centros de datos en la nube se denominan centros de datos en la nube (CDC). El coste de construir y mantener un centro de datos suele ser elevado. En los últimos años, estos términos han desaparecido casi por completo y ahora se denominan «centros de datos».

1960-2000: Evolución de los centros de datos, historia

La informática pasó de los tubos de vacío a los transistores en los años 50 y 60, que ocupaban mucho menos espacio. Sin embargo, los ordenadores centrales de la época ocupaban tanto espacio que ocupaban habitaciones enteras.

En esta época, el gobierno gestionaba muchos centros de datos, pero las empresas también empezaban a invertir en ordenadores. Los ordenadores costaban unos 5 millones de dólares en aquella época o casi 40 millones en la moneda actual. Varias organizaciones decidieron alquilar los ordenadores en su lugar debido a su elevado precio, que rondaba los 17.000 dólares al mes (131.000 dólares en la moneda actual).

La informática avanzó de forma espectacular en la década de 1970. Un año más tarde, Intel empezó a vender microprocesadores comercialmente y Xerox presentó el Alto, un miniordenador con interfaz gráfica de usuario que dio lugar al auge del PC. Además, el Chase Manhattan Bank creó la primera red de área local del mundo.

ARCnet era capaz de conectar hasta 255 ordenadores. A medida que las empresas de todo tipo se interesaban más por los diseños informáticos refrigerados por aire que podían alojarse en las oficinas, la demanda de mainframes alojados en centros de datos independientes disminuyó.

Los ordenadores se apoderaron del paisaje informático en la década de 1980. Algunas grandes empresas tecnológicas, como IBM, siguieron construyendo centros de datos para albergar superordenadores, pero la informática se trasladó en gran medida de las trastiendas a los ordenadores de escritorio.

Los péndulos volvieron a oscilar en sentido contrario en la década de 1990. Con la llegada de los modelos de computación cliente-servidor, las organizaciones volvieron a crear salas especiales para albergar algunos de sus ordenadores y equipos de red. Con el crecimiento de Internet, el término «centro de datos» pasó a ser de uso común y algunas empresas empezaron a construir grandes centros de datos para albergar todo su equipo informático.

A principios de la década de 2000 se produjo un boom en la construcción de centros de datos debido a la burbuja de las punto com.

De repente, todas las organizaciones necesitaban un sitio web, lo que significaba que necesitaban un servidor web. La aparición de empresas de alojamiento e instalaciones de coubicación hizo que miles de servidores se alojaran en centros de datos. El consumo de energía y la refrigeración de los centros de datos se convirtieron en cuestiones más importantes.

En respuesta a la tendencia hacia la computación en nube, algunas organizaciones han reducido el número de servidores en sus propios centros de datos y se han consolidado en menos instalaciones. Paralelamente, los principales proveedores de nubes públicas han construido enormes centros de datos de bajo consumo.

2000-2022 

VMware ESX se lanzó en 2001. Al principio, los productos de virtualización de servidores utilizaban hipervisores bare-metal que se ejecutaban directamente en el hardware del servidor sin sistemas operativos subyacentes adicionales.

En 2002, Amazon Web Services introdujo servicios basados en la nube que incluían almacenamiento, computación y Amazon Mechanical Turk.

A través de los servicios web, también conocidos como computación en la nube, Amazon Web Services ofrece servicios de infraestructura informática a otras industrias desde 2006.  

El centro de datos modular fue introducido por Sun Microsystems en 2007 y, en el proceso, remodeló la informática corporativa.  

En 2008-2011, las empresas empezaron a centrarse en la eficiencia energética, las tecnologías de refrigeración y la gestión de las instalaciones de los centros de datos.

En 2011, Facebook lanzó el Open Compute Project, una iniciativa para compartir las mejores prácticas y especificaciones para el desarrollo de centros de datos energéticamente eficientes y económicos.

Google invirtió 7.350 millones de dólares en gastos de capital en 2013 para construir una red mundial de centros de datos. 

Requisitos normalizados de Telcordia para los equipos y espacios de los centros de datos de telecomunicaciones. 

Con la prevalencia del perímetro de los centros de datos en 2019, ha surgido un paradigma de computación distribuida que cambia la dinámica de la industria.

Los datos se conectan a través de múltiples centros de datos, el perimetro, así como las nubes públicas y privadas. El centro de datos puede comunicarse a través de los sitios, incluidos los locales y los de la nube. 

Hoy en día y más allá

Los centros de datos modernos están pasando de un modelo de propiedad de la infraestructura, el hardware y el software a un modelo basado en la suscripción y la capacidad bajo demanda.

Para satisfacer las demandas de las aplicaciones, especialmente las de la nube, los centros de datos actuales deben estar a la altura de las capacidades de la nube. Gracias a la consolidación, el control de costes y el apoyo a la nube, todo el sector de los centros de datos está cambiando. 

La computación en nube, combinada con los centros de datos actuales, permite que las decisiones de TI se tomen «llamada por llamada» sobre cómo se accede a los recursos, pero los propios centros de datos permanecen separados e intactos.

El primer centro de datos de la historia

Los centros de datos se construyeron por primera vez para poder albergar el primer ordenador de la historia: el Electronic Numerical Integrator and Computer, o ENIAC. El ENIAC fue desarrollado en 1946 por el Laboratorio de Investigación Balística del Ejército de Estados Unidos para almacenar códigos de disparo de artillería.

Sólo se disponía de 0,05 MIPS de potencia de cálculo con 1.800 pies cuadrados de superficie y 150 KW de potencia en la máquina basada en tubos de vacío.

Ya en la década de 1940, existían los primeros sistemas informáticos, como el Electronic Numerical Integrator and Computer, o ENIAC, que se utilizaban para gestionar centros de datos. Eran complicados de mantener y operar, ya que eran utilizados por los militares. Para acomodar todo el equipo y aplicar las medidas de seguridad necesarias, se necesitaban salas de ordenadores especiales con racks, bandejas de cables, mecanismos de refrigeración y restricciones de acceso.

Sin embargo, el término centro de datos no se utilizó por primera vez hasta la década de 1990, cuando las operaciones de TI comenzaron a expandirse y se dispuso de equipos de red baratos. Surgió la posibilidad de almacenar todos los servidores necesarios de una empresa dentro de la misma. En las organizaciones, estas salas informáticas especializadas pasaron a conocerse como centros de datos. 

Debido al uso de Internet y al mantenimiento de una presencia constante en la red durante la burbuja de las punto com de finales de los 90, las empresas necesitaban instalaciones más grandes para albergar la enorme cantidad de equipos de red. El desarrollo de los centros de datos se popularizó en esta época y empezaron a parecerse a los descritos anteriormente.

Mirando hacia el futuro

A medida que la computación en la nube, el Internet de las cosas y los sistemas ciberfísicos (también llamados inteligencia artificial) sigan floreciendo, los centros de datos se convertirán en el núcleo de la economía digital.

Para satisfacer las estrictas exigencias de rendimiento, fiabilidad y seguridad, las organizaciones confían cada vez más en la colocación para sustituir las estrategias de los centros de datos locales.

Las instalaciones de colocación actuales aprovechan todas las innovaciones que se han ganado con esfuerzo durante el último medio siglo en términos de conectividad, sostenibilidad, eficiencia y resistencia. Por lo tanto, no es de extrañar que el negocio esté en auge hoy en día; según Research and Markets, se prevé que la colocación alcance los 55.310 millones de dólares estadounidenses a finales de 2021.

Es inevitable que se produzcan nuevos cambios. A pesar de que nadie sabe lo que depara el futuro, las instalaciones de colocación de última generación pueden ayudar a las organizaciones a prepararse.

Leer también: Ontología en IA

Recurso externo: siliconangle

This post is also available in: English (Inglés) Français (Francés) Deutsch (Alemán) Español Nederlands (Holandés) Svenska (Sueco)