Datacenterutveckling, historia

Datacenterutveckling, historia; Vad är ett datacenter? Historia, 1960-2000, 2000-2022,Idag och därefter, Historiens första datacenter, Ser fram emot framtiden.

Datacenterutveckling, historia
Datacenterutveckling, historia

Vad är ett datacenter?

Datacenter, även kända som datacenter eller datacenter, är anläggningar som förser företag med ett nätverk av datorer, lagringssystem och datorinfrastruktur för att montera, bearbeta, lagra och sprida stora mängder data. Program, tjänster och data som finns i ett datacenter är vanligtvis kritiska för ett företags dagliga verksamhet, vilket gör dem till en viktig tillgång.

Förutom molnbaserade datorresurser och lokala resurser integrerar företagsdatacenter i allt högre grad anläggningar för att skydda och skydda dem. Cloud computing gör det svårare för företag att skilja mellan sina egna datacenter och molnleverantörernas datacenter.

Historia

Historiskt sett kan datacenter spåras tillbaka till de enorma rummen för datorer på 1940-talet, kännetecknat av ENIAC, ett av de tidigaste datacentren.

Tidiga datorsystem var komplexa att driva och underhålla, och därför krävde de speciella driftsmiljöer. För att ansluta alla komponenter var många kablar nödvändiga, och många metoder utformades för att rymma och organisera dem, såsom utrustningsställ, upphöjda golv och kabelbrickor (installerade över huvudet eller under det förhöjda golvet).

En stordator förbrukade mycket ström och kyldes för att undvika överhettning. Säkerhetens betydelse ökade i takt med att datorer blev dyrare och ofta användes för militära ändamål. Följande riktlinjer utvecklades därför för att kontrollera åtkomsten till datorsalen.

Människor började distribuera datorer överallt under mikrodatorindustrins högkonjunktur, särskilt på 1980-talet, ofta med liten eller ingen hänsyn till driftskraven. Men när IT-verksamheten blev mer komplex började organisationer inse vikten av att kontrollera IT-resurser.

Som ett resultat av billig nätverksutrustning och införandet av nya standarder för strukturerade kablar var det möjligt för servrarna att placeras i specifika rum inom företaget med hjälp av en hierarkisk design. Runt denna tid började termen ”datacenter” bli populär som tillämpas på specialdesignade datorrum.

Som ett resultat av dot-com-bubblan mellan 1997 och 2000 blomstrade datacenter. För att distribuera system och etablera en online-närvaro behövde företag snabb internetanslutning och oavbruten drift. För många mindre företag var sådan utrustning inte möjlig.

Internet-datacentret (IDC) är en stor anläggning som ger förbättrade funktioner, till exempel crossover-säkerhetskopiering: ”I händelse av att en Bell Atlantic-linje klipptes kunde vi flytta till … för att minimera den tid ett avbrott skulle pågå.”

Datacenter i molnet kallas molndatacenter (CDC). Kostnaden för att bygga och underhålla ett datacenter är vanligtvis hög. Under de senaste åren har dessa termer nästan helt försvunnit och kallas nu ”datacenter”.

1960-2000: Datacenterutveckling, historia

Datorer övergick från vakuumrör till transistorer under 1950- och 1960-talet, vilket upptog mycket mindre utrymme. Ändå tog dagens stordatorer så mycket plats att de tog upp hela rum.

Under denna tid drev regeringen många datacenter, men företag började också investera i datorer. Datorer kostade cirka 5 miljoner dollar vid den tiden eller nästan 40 miljoner dollar i dagens valuta. Flera organisationer bestämde sig för att hyra datorer istället på grund av den höga prislappen, som kostar cirka 17 000 dollar per månad (131 000 dollar i dagens valuta).

Datorer avancerade dramatiskt på 1970-talet. Ett år senare började Intel sälja mikroprocessorer kommersiellt, och Xerox introducerade Alto, en minidator med ett grafiskt användargränssnitt som ledde till datorns uppkomst. Dessutom skapade Chase Manhattan Bank världens första lokala nätverk.

ARCnet kunde ansluta upp till 255 datorer. När företag av alla slag blev mer intresserade av luftkylda datordesigner som kunde inrymmas på kontor minskade efterfrågan på stordatorer inrymda i separata datacenter.

Datorer tog över datorlandskapet på 1980-talet. Vissa stora teknikföretag, inklusive IBM, fortsatte att bygga datacenter för att hysa superdatorer, men datorer flyttade till stor del från bakrum till stationära datorer.

Pendlar svängde åt andra hållet igen på 1990-talet. Organisationer började återigen inrätta speciella datorrum för att hysa några av sina datorer och nätverksutrustning med tillkomsten av klient-serverberäkningsmodeller. Med tillväxten av Internet kom termen ”datacenter” i allmänt bruk, och vissa företag började bygga stora datacenter för att hysa all sin datorutrustning.

I början av 2000-talet skedde en boom i datacenterbyggandet på grund av dot-com-bubblan. Varje organisation behövde plötsligt en webbplats, vilket innebar att de behövde en webbserver. Framväxten av värdföretag och samlokaliseringsanläggningar ledde till att tusentals servrar var inrymda i datacenter. Strömförbrukning och kylning av datacenter blev viktigare frågor.

Som svar på trenden mot molntjänster har vissa organisationer minskat antalet servrar i sina egna datacenter och konsoliderats till färre anläggningar. Parallellt har de stora publika molnleverantörerna byggt enorma, energieffektiva datacenter.

2000-2022

VMware ESX lanserades 2001. Inledningsvis använde servervirtualiseringsprodukter hypervisorer utan operativsystem som kördes direkt på servermaskinvaran utan ytterligare underliggande operativsystem.

År 2002 introducerade Amazon Web Services molnbaserade tjänster inklusive lagring, beräkning och Amazon Mechanical Turk.

Genom webbtjänster aka cloud computing erbjuder Amazon Web Services IT-infrastrukturtjänster till andra branscher från och med 2006.

Det modulära datacentret introducerades av Sun Microsystems 2007 och omformade företagsdatorer i processen.

Under 2008-2011 började företag fokusera på energieffektivitet, kylteknik och anläggningshantering av datacenter.

2011 lanserade Facebook Open Compute Project, ett initiativ för att dela bästa praxis och specifikationer för att utveckla energieffektiva och ekonomiska datacenter.

Google investerade 7,35 miljarder USD i investeringar under 2013 för att bygga ett globalt nätverk av datacenter.

Telcordia standardiserade krav på utrustning och utrymmen i telekommunikationsdatacenter.

Med förekomsten av edge-datacenter 2019 har ett distribuerat datorparadigm uppstått, vilket förändrar branschdynamiken.

Data är anslutna över flera datacenter, gränsen samt offentliga och privata moln. Datacentret kan kommunicera mellan platser, inklusive de lokala och de i molnet.

Idag och därefter

Moderna datacenter rör sig bort från en modell för ägarskap för infrastruktur, maskinvara och programvara mot en prenumerationsbaserad modell och kapacitet på begäran.

För att uppfylla applikationskraven, särskilt de i molnet, måste dagens datacenter matcha molnfunktionerna. Tack vare konsolidering, kostnadskontroll och molnsupport förändras nu hela datacenterbranschen.

Cloud computing i kombination med dagens datacenter gör att IT-beslut kan fattas på en ”call by call” -basis om hur resurser nås, men själva datacenterna förblir separata och orörda.

Historiens första datacenter

Datacenter konstruerades först så att den första datorn någonsin – den elektroniska numeriska integratören och datorn, eller ENIAC – kunde hysas. ENIAC utvecklades 1946 av US Army Ballistic Research Laboratory för att lagra koder för att skjuta artilleri. Endast 0,05 MIPS datorkraft var tillgänglig med 1,800 kvadratmeter golvyta och 150 KW kraft i den vakuumrörbaserade maskinen.

Redan på 1940-talet fanns det tidiga datorsystem, som Electronic Numerical Integrator and Computer, eller ENIAC, som användes för att driva datacenter. De var komplicerade att underhålla och driva eftersom de användes av militären. För att rymma all utrustning och genomföra nödvändiga säkerhetsåtgärder krävdes speciella datorrum med rack, kabelbrickor, kylmekanismer och åtkomstbegränsningar.

Termen datacenter användes dock inte först förrän på 1990-talet, då IT-verksamheten började expandera och billig nätverksutrustning blev tillgänglig. Möjligheten att lagra alla ett företags nödvändiga servrar inom företaget uppstod. I organisationerna blev dessa specialiserade datorrum kända som datacenter.

På grund av användningen av internet och upprätthållandet av en konstant närvaro på internet under dot-com-bubblan i slutet av 1990-talet behövde företag större anläggningar för att hysa den enorma mängden nätverksutrustning. Utvecklingen av datacenter blev populär vid denna tidpunkt och de började likna de som beskrivits ovan.

Ser fram emot framtiden

När molntjänster, sakernas internet och cyberfysiska system (även kallad artificiell intelligens) fortsätter att blomstra kommer datacenter att bli kärnan i den digitala ekonomin.

För att uppfylla stränga prestanda-, tillförlitlighets- och säkerhetskrav förlitar sig organisationer alltmer på samlokalisering för att ersätta lokala datacenterstrategier.

Dagens colocation-anläggningar utnyttjar alla de innovationer som har vunnits hårt under det senaste halvseklet när det gäller anslutning, hållbarhet, effektivitet och motståndskraft. Därför är det inte förvånande att verksamheten blomstrar idag; enligt Research and Markets beräknas colocation nå 55.31 miljarder US-dollar i slutet av 2021.

Det är oundvikligt att ytterligare förändringar kommer att ske. Trots att ingen vet vad framtiden har att erbjuda kan toppmoderna samlokaliseringsanläggningar hjälpa organisationer att förbereda sig.

Läs också: Vad är ett datacenter?; Semi strukturerade data: definition, typer, exempel;

Extern resurs: siliconangle

This post is also available in: English (Engelska) Français (Franska) Deutsch (Tyska) Español (Spanska) Nederlands (Nederländska) Svenska