Categorías
tecnologia

Historia de los data centers o centros de datos, resumen, evolución y cronología

Historia de los data centers o centros de datos, resumen, evolución y cronología.Los profesionales del medio hablan y leen sobre el tema con una propiedad que me exige aprender día tras día de ellos. Pero hay algo que puedo enseñarles y es ¿Cuando surgió el primer data center? ¿Cómo ha evolucionado el tema?

Esto no es casualidad ya que amo la tecnología y la historia, investigo e indago en sus entresijos con curiosidad y avidez de aprendizaje contínuo. Y sentí que faltaba material de referencia en español al respecto. Buscando llenar este vacío creé este post. Es una evolución, una mejora sustancial de un artículo que creé para HostDime Argentina.

1946

Salió a la luz pública el ENIAC, esa macro computadora de tubos de vacío, que ya pedía un espacio especial para acomodar toda su infraestructura, ya no era cualquier lugar, era uno propio que per se obligó a pensar en optimizar el mismo. Más de 167 metros cuadrados solo para ella.

1954

La primera computadora transistorizada (TRADIC) se introdujo y fue la primera máquina en utilizar transistores y diodos y no tubos de vacío.

¿Cuando surgió el concepto de data center?

¿Cuando se empezó a usar el término data center? El término centro de datos, claro, en inglés, empezó a aparecer a finales de la década de 1950. Resulta que American Airlines e IBM crearon un sistema de reservas de pasajeros centralizado y automatizado. En términos de productividad fue lo mejor. Dispuso que toda la información estuviera de forma electrónica y en tiempo real para los operadores de la aerolínea alrededor de los Estados Unidos. Eso ocurrió en 1960 y fue el inicio de esta actividad a nivel empresarial.

1960

Durante los años 60, los tubos de vacío fueron reemplazados por transistores. La compañía que puso el mayor esfuerzo en ese momento fue IBM, con su serie de mainframes System. Durante ese tiempo, se inventó la tecnología de virtualización y los mainframes comenzaron a realizar múltiples tareas.

Los sistemas comerciales serios no llegaron hasta la década de 1960, lo que llevó a mainframes como la serie IBM System a desarrollar un salto sustancial en las capacidades informáticas.

En 1964, se introdujo la primera supercomputadora. Fue el CDC 6600, con el rendimiento de 1 MFlops y pico a 3 MFlops.

1971

Intel presentó su procesador 4004, convirtiéndose en el primer procesador programable de propósito general en el mercado. Sirvió como un “bloque de construcción” que los ingenieros podían comprar y luego personalizar con software para realizar diferentes funciones en una amplia variedad de dispositivos electrónicos. ¿Cuáles son las 5 generaciones de computadoras o tecnología informática?

1973

Xerox Alto ingresó al mercado y presentó la primera interfaz gráfica de usuario. Esta computadora estaba muy adelantada a su tiempo e incluso venía con un mouse de 3 botones.

1977

En 1977, el Chase Manhattan Bank aplicó la primera LAN – ARCnet. Admitía hasta 255 computadoras y una velocidad de datos de 2.5 Mbps.

1978

Solo un año después, la compañía multinacional estadounidense de software SunGard estableció la primera recuperación comercial ante desastres.

Nota: Antes de la introducción de los servidores de PC, las decisiones de TI que giraban en torno al mainframe tenían que tomarse en una escala empresarial absoluta para todo, desde el sistema operativo, el hardware y las aplicaciones. Todas estas cosas se ejecutaron dentro de un dispositivo para toda la empresa, ofreciendo flexibilidad limitada y decisiones difíciles de TI.

1980-89

Las computadoras personales (PC) se introdujeron en 1981, lo que llevó a un auge en la industria de las microcomputadoras.

Sun Microsystems desarrolló el protocolo del sistema de archivos de red, que permite a un usuario en una computadora cliente acceder a los archivos a través de una red de manera similar a cómo se accede al almacenamiento local.

Las computadoras se instalaban a un ritmo rápido en todas partes, pero se prestaba una atención mínima a los requisitos ambientales y operativos.

Década de 1990

Principios de los noventa

Las microcomputadoras comenzaron a llenar antiguas salas de computadoras centrales como “servidores”, y las salas se conocieron como centros de datos. Luego, las empresas comenzaron a ensamblar estos bancos de servidores dentro de sus propios muros.

Mediados de los noventa

El aumento de “.com” provocó que las compañías desearan una conectividad rápida a Internet y una operación continua. Esto dio como resultado la construcción empresarial de salas de servidores, lo que condujo a instalaciones mucho más grandes (cientos y miles de servidores). El centro de datos como modelo de servicio se hizo popular en este momento.

Anotación: Gracias a las PC (servidores), las decisiones de TI comenzaron a tomarse de dos maneras distintas. Los servidores permitían decisiones basadas en aplicaciones, mientras que las decisiones de hardware (centro de datos) seguían siendo su propia decisión a nivel empresarial.

1997

Apple creó un programa llamado Virtual PC y lo vendió a través de una compañía llamada Connectix. La PC virtual, como SoftPC, permitió a los usuarios ejecutar una copia de Windows en la computadora Mac, para evitar incompatibilidades de software.

1999

VMware comenzó a vender VMware Workstation, que era similar a Virtual PC. Las versiones iniciales solo se ejecutaban en Windows, pero luego agregaron soporte para otros sistemas operativos.

Salesforce.com fue pionero en el concepto de entregar aplicaciones empresariales a través de un sitio web simple. Información complementaria en Historia del Software CRM.

2001

Se lanza VMware ESX: hipervisores de hardware que se ejecutan directamente en el hardware del servidor sin requerir un sistema operativo subyacente adicional.

2002

Amazon Web Services comienza el desarrollo de un conjunto de servicios basados en la nube, que incluyen almacenamiento, computación y algo de inteligencia humana a través de “Amazon Mechanical Turk”.

2006

Amazon Web Services comienza a ofrecer servicios de infraestructura de TI a las empresas en forma de servicios web, ahora comúnmente conocidos como cloud computing.

2007

Sun Microsystems presenta el centro de datos modular, transformando la economía fundamental de la informática corporativa.

2011

Facebook lanza Open Compute Project, una iniciativa de toda la industria para compartir especificaciones y mejores prácticas para crear los centros de datos más eficientes y económicos.

Alrededor del 72 por ciento de las organizaciones dijeron que sus centros de datos eran al menos 25 por ciento virtuales.

2012

Las encuestas indicaron que el 38 por ciento de las empresas ya estaban usando la nube, y el 28 por ciento tenía planes de iniciar o expandir su uso de la nube.

2013

Telcordia presenta requisitos genéricos para equipos y espacios de centros de datos de telecomunicaciones. El documento presenta requisitos espaciales y ambientales mínimos para los equipos y espacios del centro de datos.

Google invirtió $ 7.35 mil millones en gastos de capital en su infraestructura de Internet durante 2013. El gasto fue impulsado por una expansión masiva de la red global de centros de datos de Google, lo que representó quizás el mayor esfuerzo de construcción en la historia de la industria de centros de datos.Historia de los data centers o centros de datos, blog pcweb.info

Webgrafía consultada

Referencias

Fecha de consulta, 26 de junio 2020

Siliconangle

Cloudware

Por Angel Eulises Ortiz

Consultor en marketing online, SEO , SEM ; Blogger, curioso; amante de la tecnología, que quiere entender su entorno, la evolución de la publicidad e Internet; tel- ☎ : +573214800273