Évolution du centre de données, histoire

Évolution du centre de données, histoire: Qu’est-ce qu’un centre de données ? Histoire, 1960-2000, 2000-2022, Aujourd’hui et au-delà, Le premier centre de données de l’histoire, Tourné vers l’avenir.

Évolution du centre de données, histoire
Évolution du centre de données, histoire

Qu’est-ce qu’un centre de données ?

Les centres de données, également appelés centres de données ou centres de données, sont des installations qui fournissent aux entreprises un réseau d’ordinateurs, des systèmes de stockage et une infrastructure informatique pour assembler, traiter, stocker et diffuser de grandes quantités de données. Les applications, les services et les données contenus dans un centre de données sont généralement essentiels aux opérations quotidiennes d’une entreprise, ce qui en fait un atout important.

En plus des ressources de cloud computing et des ressources sur site, les centres de données d’entreprise intègrent de plus en plus des installations pour les sécuriser et les protéger. Le cloud computing rend plus difficile pour les entreprises de faire la distinction entre leurs propres centres de données et les centres de données des fournisseurs de cloud.

Histoire

Historiquement, les centres de données remontent aux immenses salles d’ordinateurs des années 1940, caractérisées par l’ENIAC, l’un des premiers centres de données.

Les premiers systèmes informatiques étaient complexes à exploiter et à entretenir, et ils nécessitaient donc des environnements d’exploitation spéciaux. Afin de connecter tous les composants, de nombreux câbles étaient nécessaires et de nombreuses méthodes ont été imaginées pour les accueillir et les organiser, telles que des racks d’équipement, des planchers surélevés et des chemins de câbles (installés au-dessus ou sous le plancher surélevé).

Un ordinateur central consommait beaucoup d’énergie et était refroidi pour éviter la surchauffe. L’importance de la sécurité a augmenté à mesure que les ordinateurs devenaient plus chers et étaient souvent utilisés à des fins militaires. Les lignes directrices suivantes ont donc été élaborées pour contrôler l’accès à la salle informatique.

Les gens ont commencé à déployer des ordinateurs partout pendant le boom de l’industrie des micro-ordinateurs, en particulier dans les années 1980, souvent avec peu ou pas de considération pour les exigences de fonctionnement. Cependant, à mesure que les opérations de technologie de l’information (TI) devenaient plus complexes, les organisations ont commencé à réaliser l’importance de contrôler les ressources informatiques.

Grâce à des équipements réseau à faible coût et à l’introduction de nouvelles normes de câblage structuré, il a été possible de placer les serveurs dans des salles spécifiques à l’intérieur de l’entreprise en utilisant une conception hiérarchique. À cette époque, le terme «centre de données» a commencé à gagner en popularité lorsqu’il s’appliquait à des salles informatiques spécialement conçues.

À la suite de la bulle Internet entre 1997 et 2000, les centres de données ont explosé. Pour déployer des systèmes et établir une présence en ligne, les entreprises avaient besoin d’une connectivité Internet rapide et d’un fonctionnement ininterrompu. Pour de nombreuses petites entreprises, un tel équipement n’était pas réalisable.

Le centre de données Internet (IDC) est une grande installation qui offre des capacités améliorées, telles que la sauvegarde croisée : « En cas de coupure d’une ligne Bell Atlantic, nous pourrions passer à … pour minimiser la durée d’une panne. »

Les centres de données dans le cloud sont appelés centres de données cloud (CDC). Le coût de construction et de maintenance d’un centre de données est généralement élevé. Ces dernières années, ces termes ont presque complètement disparu et sont désormais appelés « centres de données ».

1960-2000 : évolution du centre de données, histoire

L’informatique est passée des tubes à vide aux transistors dans les années 1950 et 1960, qui occupaient beaucoup moins d’espace. Pourtant, les ordinateurs centraux de l’époque prenaient tellement de place qu’ils occupaient des pièces entières.

À cette époque, le gouvernement exploitait de nombreux centres de données, mais les entreprises commençaient également à investir dans les ordinateurs. Les ordinateurs coûtaient environ 5 millions de dollars à l’époque ou près de 40 millions de dollars dans la devise actuelle. Plusieurs organisations ont décidé de louer des ordinateurs à la place en raison du prix élevé, qui coûte environ 17 000 $ par mois (131 000 $ dans la devise actuelle).

L’informatique a considérablement progressé dans les années 1970. Un an plus tard, Intel a commencé à vendre des microprocesseurs dans le commerce et Xerox a présenté l’Alto, un mini-ordinateur doté d’une interface utilisateur graphique qui a conduit à l’essor du PC. De plus, la Chase Manhattan Bank a créé le premier réseau local au monde.

ARCnet était capable de connecter jusqu’à 255 ordinateurs. Alors que les entreprises de tous types s’intéressaient davantage aux conceptions informatiques refroidies par air pouvant être hébergées dans des bureaux, la demande de mainframes hébergés dans des centres de données séparés a diminué.

Les ordinateurs ont envahi le paysage informatique dans les années 1980. Certaines grandes entreprises technologiques, dont IBM, ont continué à construire des centres de données pour héberger des superordinateurs, mais l’informatique est en grande partie passée des arrière-salles aux ordinateurs de bureau.

Les pendules ont de nouveau basculé dans l’autre sens dans les années 1990. Les organisations ont recommencé à mettre en place des salles informatiques spéciales pour abriter certains de leurs ordinateurs et équipements de réseautage avec l’avènement des modèles informatiques client-serveur. Avec la croissance d’Internet, le terme « centre de données » est devenu d’usage courant et certaines entreprises ont commencé à construire de grands centres de données pour héberger tout leur équipement informatique.

Le début des années 2000 a vu un boom de la construction de centres de données en raison de la bulle Internet. Chaque organisation avait soudainement besoin d’un site Web, ce qui signifiait qu’elle avait besoin d’un serveur Web. L’émergence des sociétés d’hébergement et des installations de colocation a conduit à l’hébergement de milliers de serveurs dans des centres de données. La consommation d’énergie et le refroidissement des centres de données sont devenus des problèmes plus importants.

En réponse à la tendance vers le cloud computing, certaines organisations ont réduit le nombre de serveurs dans leurs propres centres de données et se sont regroupées en moins d’installations. En parallèle, les principaux fournisseurs de cloud public ont construit d’énormes centres de données économes en énergie.

2000-2022

VMware ESX a été lancé en 2001. Initialement, les produits de virtualisation de serveur utilisaient des hyperviseurs bare metal qui s’exécutaient directement sur le matériel du serveur sans systèmes d’exploitation sous-jacents supplémentaires.

En 2002, Amazon Web Services a introduit des services basés sur le cloud, notamment le stockage, le calcul et Amazon Mechanical Turk.

Grâce aux services Web, également appelés cloud computing, Amazon Web Services propose des services d’infrastructure informatique à d’autres industries à partir de 2006.

Le centre de données modulaire a été introduit par Sun Microsystems en 2007 et a remodelé l’informatique d’entreprise dans le processus.

Entre 2008 et 2011, les entreprises ont commencé à se concentrer sur l’efficacité énergétique, les technologies de refroidissement et la gestion des installations des centres de données.

En 2011, Facebook a lancé l’Open Compute Project, une initiative visant à partager les meilleures pratiques et spécifications pour le développement de centres de données économes en énergie et économiques.

Google a investi 7,35 milliards de dollars en dépenses d’investissement en 2013 pour construire un réseau mondial de centres de données.

Exigences normalisées de Telcordia pour les équipements et les espaces dans les centres de données de télécommunications.

Avec la prévalence des centres de données en périphérie en 2019, un paradigme informatique distribué a émergé, modifiant la dynamique de l’industrie.

Les données sont connectées entre plusieurs centres de données, la périphérie, ainsi que des clouds publics et privés. Le centre de données peut communiquer entre les sites, y compris ceux sur site et ceux dans le cloud.

Aujourd’hui et au-delà

Les centres de données modernes s’éloignent d’un modèle de propriété d’infrastructure, de matériel et de logiciels vers un modèle basé sur l’abonnement et la capacité à la demande.

Pour répondre aux demandes des applications, en particulier celles du cloud, les centres de données d’aujourd’hui doivent correspondre aux capacités du cloud. Grâce à la consolidation, au contrôle des coûts et à la prise en charge du cloud, l’ensemble de l’industrie des centres de données est en train de changer.

L’informatique en nuage combinée aux centres de données d’aujourd’hui permet de prendre des décisions informatiques « appel par appel » sur la manière d’accéder aux ressources, mais les centres de données eux-mêmes restent séparés et intacts.

Le premier centre de données de l’histoire

Les centres de données ont d’abord été construits pour que le tout premier ordinateur – l’Electronic Numerical Integrator and Computer, ou ENIAC – puisse être hébergé. ENIAC a été développé en 1946 par le laboratoire de recherche balistique de l’armée américaine pour stocker les codes de tir de l’artillerie. Seulement 0,05 MIPS de puissance de calcul était disponible avec 1 800 pieds carrés d’espace au sol et 150 KW de puissance dans la machine à tube à vide.

Dès les années 1940, les premiers systèmes informatiques, tels que l’Electronic Numerical Integrator and Computer, ou l’ENIAC, étaient utilisés pour faire fonctionner les centres de données. Ils étaient compliqués à entretenir et à exploiter puisqu’ils étaient utilisés par les militaires. Pour accueillir tous les équipements et mettre en œuvre les mesures de sécurité nécessaires, des salles informatiques spéciales étaient nécessaires avec des racks, des chemins de câbles, des mécanismes de refroidissement et des restrictions d’accès.

Cependant, le terme centre de données n’a été utilisé pour la première fois que dans les années 1990, lorsque les opérations informatiques ont commencé à se développer et que des équipements de mise en réseau peu coûteux sont devenus disponibles. La possibilité de stocker tous les serveurs nécessaires d’une entreprise au sein de l’entreprise est apparue. Dans les organisations, ces salles informatiques spécialisées sont devenues des centres de données.

En raison de l’utilisation d’Internet et du maintien d’une présence constante sur Internet pendant la bulle Internet de la fin des années 1990, les entreprises avaient besoin de plus grandes installations pour héberger l’énorme quantité d’équipements de réseautage. Le développement des centres de données est devenu populaire à cette époque et ils ont commencé à ressembler à ceux décrits ci-dessus.

Dans l’attente de l’avenir

Alors que l’informatique en nuage, l’Internet des objets et les systèmes cyber-physiques (également appelés intelligence artificielle) continuent de prospérer, les centres de données deviendront le cœur de l’économie numérique.

Pour répondre aux exigences strictes en matière de performances, de fiabilité et de sécurité, les entreprises s’appuient de plus en plus sur la colocation pour remplacer les stratégies de centres de données sur site.

Les installations de colocation d’aujourd’hui tirent parti de toutes les innovations qui ont été durement acquises au cours du dernier demi-siècle en termes de connectivité, de durabilité, d’efficacité et de résilience. Par conséquent, il n’est pas surprenant que les affaires soient en plein essor aujourd’hui ; selon Research and Markets, la colocation devrait atteindre 55,31 milliards de dollars américains d’ici la fin de 2021.

Il est inévitable que d’autres changements se produisent. Malgré le fait que personne ne sait ce que l’avenir nous réserve, des installations de colocation à la pointe de la technologie peuvent aider les organisations à se préparer.

Lire aussi : Qu’est-ce que l’histoire ?; Qu’est-ce qu’un centre de données ?; Qu’est-ce que la fragmentation en informatique ? Vidéo; Qu’est-ce que la technologie de l’information ?; Qu’est-ce qu’une information; Ontologie en sciences de l’information

Ressource externe: siliconangle

This post is also available in: English (Anglais) Français Deutsch (Allemand) Español (Espagnol) Nederlands (Néerlandais) Svenska (Suédois)