Entwicklung des Rechenzentrums, Geschichte

Entwicklung des Rechenzentrums, Geschichte; Was ist ein Rechenzentrum? Geschichte, 1960-2000, 2000-2022, Heute und darüber hinaus, Das erste Rechenzentrum in der Geschichte, Ein Blick in die Zukunft.

Entwicklung des Rechenzentrums, Geschichte
Entwicklung des Rechenzentrums, Geschichte

Was ist ein Rechenzentrum?

Datenzentren, auch Rechenzentren oder Data Center genannt, sind Einrichtungen, die Unternehmen ein Netzwerk von Computern, Speichersystemen und Recheninfrastruktur zur Verfügung stellen, um große Datenmengen zusammenzustellen, zu verarbeiten, zu speichern und zu verbreiten.

Die in einem Rechenzentrum enthaltenen Anwendungen, Dienste und Daten sind in der Regel von entscheidender Bedeutung für den täglichen Betrieb eines Unternehmens und damit ein wichtiges Gut.

Zusätzlich zu den Cloud-Computing-Ressourcen und den Ressourcen vor Ort werden in den Rechenzentren der Unternehmen zunehmend Einrichtungen zu deren Sicherung und Schutz integriert. Beim Cloud Computing ist es für Unternehmen schwieriger, zwischen ihren eigenen Rechenzentren und den Rechenzentren von Cloud-Anbietern zu unterscheiden.

Geschichte

Historisch gesehen lassen sich Rechenzentren bis zu den riesigen Räumen für Computer in den 1940er Jahren zurückverfolgen, die durch ENIAC, eines der ersten Rechenzentren, verkörpert wurden.

Frühe Computersysteme waren komplex in Betrieb und Wartung und erforderten daher spezielle Betriebsumgebungen. Um alle Komponenten miteinander zu verbinden, waren zahlreiche Kabel erforderlich, für deren Unterbringung und Organisation zahlreiche Methoden entwickelt wurden, wie z. B. Gerätegestelle, Doppelböden und Kabeltrassen (über oder unter dem Doppelboden installiert).

Ein Großrechner verbrauchte viel Strom und wurde gekühlt, um eine Überhitzung zu vermeiden. Die Bedeutung der Sicherheit nahm zu, als die Computer teurer wurden und häufig für militärische Zwecke eingesetzt wurden. Daher wurden die folgenden Leitlinien für die Zugangskontrolle zum Computerraum entwickelt.

Während des Booms der Mikrocomputerindustrie, insbesondere in den 1980er Jahren, wurden überall Computer eingesetzt, oft ohne Rücksicht auf die Betriebsanforderungen. Mit der zunehmenden Komplexität der Informationstechnologie (IT) wurde den Unternehmen jedoch bewusst, wie wichtig die Kontrolle der IT-Ressourcen ist.

Dank preiswerter Netzwerkgeräte und der Einführung neuer Standards für strukturierte Verkabelung konnten die Server in bestimmten Räumen des Unternehmens in einem hierarchischen Aufbau untergebracht werden. Etwa zu dieser Zeit wurde der Begriff „Rechenzentrum“ für speziell konzipierte Computerräume populär.

Infolge der Dot-Com-Blase zwischen 1997 und 2000 erlebten die Rechenzentren einen Boom. Für die Bereitstellung von Systemen und die Einrichtung einer Online-Präsenz benötigten die Unternehmen eine schnelle Internetverbindung und einen ununterbrochenen Betrieb. Für viele kleinere Unternehmen war eine solche Ausrüstung nicht machbar.

Das Internet-Rechenzentrum (IDC) ist eine große Einrichtung, die erweiterte Möglichkeiten bietet, wie z. B. Crossover-Backup: „Sollte eine Bell Atlantic-Leitung ausfallen, könnten wir auf … ausweichen, um die Dauer eines Ausfalls zu minimieren.“

Datenzentren in der Cloud werden als Cloud-Rechenzentren (CDCs) bezeichnet. Die Kosten für den Bau und die Wartung eines Rechenzentrums sind in der Regel hoch. In den letzten Jahren sind diese Begriffe fast vollständig verschwunden und werden jetzt als „Rechenzentren“ bezeichnet.

1960-2000: Entwicklung des Rechenzentrums, Geschichte

In den 1950er und 1960er Jahren wurde die Computertechnik von Vakuumröhren auf Transistoren umgestellt, die viel weniger Platz benötigten. Die damaligen Großrechner nahmen jedoch so viel Platz ein, dass sie ganze Räume beanspruchten.

Zu dieser Zeit betrieb die Regierung viele Rechenzentren, aber auch Unternehmen begannen, in Computer zu investieren. Die Computer kosteten damals etwa 5 Millionen Dollar, was in heutiger Währung fast 40 Millionen Dollar entspricht. Wegen der hohen Kosten von rund 17.000 Dollar pro Monat (131.000 Dollar in heutiger Währung) entschieden sich mehrere Organisationen dafür, die Computer zu mieten.

In den 1970er Jahren machte die Computertechnik enorme Fortschritte. Ein Jahr später begann Intel mit dem kommerziellen Verkauf von Mikroprozessoren, und Xerox stellte den Alto vor, einen Minicomputer mit grafischer Benutzeroberfläche, der den Aufstieg des PCs einleitete. Außerdem schuf die Chase Manhattan Bank das erste lokale Netzwerk der Welt.

Mit ARCnet konnten bis zu 255 Computer angeschlossen werden. Da Unternehmen aller Art zunehmend an luftgekühlten Rechnern interessiert waren, die in Büros untergebracht werden konnten, ging die Nachfrage nach Großrechnern, die in separaten Rechenzentren untergebracht waren, zurück.

In den 1980er Jahren eroberten Computer die Computerlandschaft. Einige große Technologieunternehmen, darunter IBM, bauten weiterhin Rechenzentren, um Supercomputer unterzubringen, aber die Datenverarbeitung verlagerte sich weitgehend von den Hinterzimmern auf die Desktops.

In den 1990er Jahren schlug das Pendel wieder in die andere Richtung aus. Mit dem Aufkommen von Client-Server-Computing-Modellen begannen Unternehmen wieder, spezielle Computerräume einzurichten, um einen Teil ihrer Computer und Netzwerkausrüstung unterzubringen.

Mit dem Wachstum des Internets wurde der Begriff „Rechenzentrum“ gebräuchlich, und einige Unternehmen begannen, große Rechenzentren zu bauen, um ihre gesamte Computerausrüstung unterzubringen.

Anfang der 2000er Jahre erlebte der Bau von Rechenzentren aufgrund der Dot-Com-Blase einen Boom. Jede Organisation brauchte plötzlich eine Website und damit auch einen Webserver. Das Aufkommen von Hosting-Unternehmen und Colocation-Einrichtungen führte dazu, dass Tausende von Servern in Rechenzentren untergebracht wurden. Der Stromverbrauch und die Kühlung von Rechenzentren wurden zu immer wichtigeren Themen.

Als Reaktion auf den Trend zum Cloud Computing haben einige Unternehmen die Anzahl der Server in ihren eigenen Rechenzentren reduziert und in weniger Einrichtungen konsolidiert. Parallel dazu haben die großen öffentlichen Cloud-Anbieter riesige, energieeffiziente Rechenzentren gebaut.

2000-2022

VMware ESX wurde im Jahr 2001 eingeführt. Ursprünglich verwendeten Servervirtualisierungsprodukte Bare-Metal-Hypervisoren, die direkt auf der Serverhardware ohne zusätzliche Betriebssysteme liefen.

Im Jahr 2002 führte Amazon Web Services Cloud-basierte Dienste ein, darunter Speicher- und Rechendienste sowie Amazon Mechanical Turk.

Über Webservices, auch bekannt als Cloud Computing, bietet Amazon Web Services seit 2006 IT-Infrastrukturdienste für andere Branchen an.

Das modulare Rechenzentrum wurde von Sun Microsystems im Jahr 2007 eingeführt und hat die Datenverarbeitung in Unternehmen neu gestaltet.

In den Jahren 2008-2011 begannen die Unternehmen, sich auf Energieeffizienz, Kühltechnologien und das Gebäudemanagement von Rechenzentren zu konzentrieren.

Im Jahr 2011 rief Facebook das Open Compute Project ins Leben, eine Initiative zum Austausch von Best Practices und Spezifikationen für die Entwicklung energieeffizienter und wirtschaftlicher Rechenzentren.

Google investierte 2013 7,35 Milliarden US-Dollar in den Aufbau eines globalen Netzwerks von Rechenzentren.

Telcordia standardisierte Anforderungen für Geräte und Räume in Telekommunikationsdatenzentren.

Mit der Verbreitung von Edge-Rechenzentren im Jahr 2019 hat sich ein Paradigma der verteilten Datenverarbeitung herausgebildet, das die Dynamik der Branche verändert.

Die Daten sind über mehrere Rechenzentren, den Edge-Bereich sowie öffentliche und private Clouds miteinander verbunden. Das Rechenzentrum kann standortübergreifend kommunizieren, sowohl vor Ort als auch in der Cloud.

Heute und in Zukunft

Moderne Rechenzentren bewegen sich weg von einem Eigentumsmodell für Infrastruktur, Hardware und Software hin zu einem abonnementbasierten und bedarfsgesteuerten Kapazitätsmodell.

Um die Anforderungen der Anwendungen, insbesondere die der Cloud, zu erfüllen, müssen die heutigen Rechenzentren den Cloud-Funktionen entsprechen. Dank Konsolidierung, Kostenkontrolle und Cloud-Unterstützung befindet sich die gesamte Rechenzentrumsbranche im Wandel.

Durch die Kombination von Cloud Computing mit den heutigen Rechenzentren können IT-Entscheidungen über den Zugriff auf Ressourcen auf einer „Call-by-Call“-Basis getroffen werden, die Rechenzentren selbst bleiben jedoch getrennt und unangetastet.

Das erste Rechenzentrum der Geschichte

Die ersten Rechenzentren wurden gebaut, um den allerersten Computer – den Electronic Numerical Integrator and Computer (ENIAC) – unterbringen zu können. ENIAC wurde 1946 vom Ballistic Research Laboratory der US-Armee entwickelt, um Codes für den Artilleriebeschuss zu speichern.

Auf einer Fläche von 1.800 Quadratmetern und mit einer Leistung von 150 Kilowatt in der auf Vakuumröhren basierenden Maschine standen nur 0,05 MIPS an Rechenleistung zur Verfügung.

Bereits in den 1940er Jahren gab es frühe Computersysteme wie den Electronic Numerical Integrator and Computer (ENIAC), die zum Betrieb von Rechenzentren verwendet wurden.

Ihre Wartung und ihr Betrieb waren kompliziert, da sie vom Militär eingesetzt wurden. Um die gesamte Ausrüstung unterzubringen und die erforderlichen Sicherheitsmaßnahmen zu ergreifen, waren spezielle Computerräume mit Racks, Kabelkanälen, Kühlmechanismen und Zugangsbeschränkungen erforderlich.

Der Begriff Rechenzentrum wurde jedoch erst in den 1990er Jahren verwendet, als der IT-Betrieb expandierte und preiswerte Netzwerkgeräte verfügbar wurden. Es entstand die Möglichkeit, alle notwendigen Server eines Unternehmens innerhalb des Unternehmens zu speichern. In den Unternehmen wurden diese spezialisierten Computerräume als Rechenzentren bekannt.

Aufgrund der Nutzung des Internets und der ständigen Präsenz im Internet während der Dot-Com-Blase Ende der 1990er Jahre benötigten die Unternehmen größere Einrichtungen, um die riesigen Mengen an Netzwerkausrüstung unterzubringen. Die Entwicklung von Rechenzentren wurde zu dieser Zeit populär und sie begannen, den oben beschriebenen zu ähneln.

Blick in die Zukunft

Mit dem weiteren Aufschwung von Cloud Computing, dem Internet der Dinge und Cyber-Physical Systems (auch künstliche Intelligenz genannt) werden die Rechenzentren zum Kern der digitalen Wirtschaft.

Um den strengen Anforderungen an Leistung, Zuverlässigkeit und Sicherheit gerecht zu werden, setzen Unternehmen zunehmend auf Colocation, um Strategien für Rechenzentren vor Ort zu ersetzen.

Die heutigen Colocation-Einrichtungen nutzen alle Innovationen, die im letzten halben Jahrhundert in Bezug auf Konnektivität, Nachhaltigkeit, Effizienz und Widerstandsfähigkeit hart erkämpft wurden. Daher ist es nicht verwunderlich, dass das Geschäft heute boomt; laut Research and Markets wird das Colocation-Geschäft bis Ende 2021 voraussichtlich 55,31 Milliarden US-Dollar erreichen.

Es ist unvermeidlich, dass weitere Veränderungen eintreten werden. Obwohl niemand weiß, was die Zukunft bringt, können moderne Colocation-Einrichtungen Unternehmen helfen, sich darauf vorzubereiten.

Lesen Sie auch: Semistrukturierte Daten: Definition, Typen, Beispiele; Was ist das Internet der Dinge?; Übergreifendes Management: Was ist das? Woraus besteht es?

Externe Quelle: siliconangle

This post is also available in: English (Englisch) Français (Französisch) Deutsch Español (Spanisch) Nederlands (Niederländisch) Svenska (Schwedisch)