Seymour Cray og Supercomputer

Mange af os er bekendt med computere. Du bruger sandsynligvis en nu til at læse dette blogindlæg, da enheder som laptops, smartphones og tablets stort set er den samme underliggende computerteknologi. Supercomputere er på den anden side noget esoteriske, da de ofte bliver betragtet som hulkende, dyre, energisugningsmaskiner udviklet stort set til statslige institutioner, forskningscentre og store firmaer.

Tag for eksempel Kinas Sunway TaihuLight, i øjeblikket verdens hurtigste supercomputer, ifølge Top500s supercomputerrangeringer. Det består af 41.000 chips (processorerne vejer alene over 150 ton), koster omkring $ 270 millioner og har en effektkarakteristik på 15.371 kW. På plussiden er det imidlertid i stand til at udføre firedoblinger af beregninger pr. Sekund og kan gemme op til 100 millioner bøger. Og som andre supercomputere, vil det blive brugt til at tackle nogle af de mest komplekse opgaver inden for videnskabsområder, såsom vejrprognoser og stofforskning.

Når supercomputere blev opfundet

instagram viewer

Forestillingen om en supercomputer opstod først i 1960'erne, da en elektrisk ingeniør ved navn Seymour Cray begyndte på at skabe verdens hurtigste computer. Cray, der betragtes som "supercomputingens far", havde forladt sin stilling som erhvervsudviklingsgigant Sperry-Rand tiltræder i det nyoprettede Control Data Corporation, så han kan fokusere på at udvikle sig videnskabelige computere. Titlen på verdens hurtigste computer blev den gang besiddet af IBM 7030 "Stretch", en af ​​de første, der brugte transistorer i stedet for vakuumrør.

I 1964 introducerede Cray CDC 6600, som indeholdt innovationer såsom at slå Germanium-transistorer ud til fordel for silicium og et Freon-baseret kølesystem. Vigtigere er det, at det kørte med en hastighed på 40 MHz og udførte omtrent tre millioner flydende punktoperationer pr. Sekund, hvilket gjorde det til den hurtigste computer i verden. Ofte betragtet som verdens første supercomputer, CDC 6600 var 10 gange hurtigere end de fleste computere og tre gange hurtigere end IBM 7030 Stræk. Titlen blev til sidst afsat i 1969 til dens efterfølger CDC 7600.

Seymour Cray Goes solo

I 1972 forlod Cray Control Data Corporation for at danne sit eget firma, Cray Research. Efter nogen tid at skaffe kapital og finansiering fra investorer debuterede Cray Cray 1, som igen hævede søjlen for computerpræstationer med en bred margin. Det nye system kørte med en urhastighed på 80 MHz og udførte 136 millioner flydepunktoperationer pr. Sekund (136 megaflops). Andre unikke funktioner inkluderer en nyere type processor (vektorbehandling) og et hastighedsoptimeret hesteskoformet design, der minimerer længden på kredsløbene. Cray 1 blev installeret på Los Alamos National Laboratory i 1976.

I 1980'erne havde Cray etableret sig som det fremtrædende navn inden for supercomputing, og enhver ny udgivelse forventedes bredt at vælte hans tidligere indsats. Så mens Cray havde travlt med at arbejde på en efterfølger til Cray 1, udskrev et separat team hos virksomheden Cray X-MP, en model, der blev faktureret som en mere "ryddet" version af Cray 1. Det delte det samme hestesko-design, men pralede flere processorer, delte hukommelse og beskrives undertiden som to Cray 1'er, der er knyttet sammen som en. Cray X-MP (800 megaflops) var en af ​​de første "multiprocessor" design og hjalp med at åbne døren til parallel behandling, hvor computeropgaver opdeles i dele og udføres samtidigt af forskellige processorer.

Cray X-MP, der kontinuerligt blev opdateret, fungerede som standardbærer indtil den længe forventede lancering af Cray 2 i 1985. Som sine forgængere påtog Cray's seneste og største det samme hesteskoformede design og grundlæggende layout med integrerede kredsløb stablet sammen på logiktavler. Denne gang blev komponenterne imidlertid proppet så tæt, at computeren måtte nedsænkes i et flydende kølesystem for at sprede varmen. Cray 2 kom udstyret med otte processorer med en "forgrunds processor" med ansvar for håndtering af lager, hukommelse og give instruktioner til "baggrundsprocessorer", som fik til opgave at udføre den faktiske beregning. I alt pakket det en behandlingshastighed på 1,9 mia flydende punkt operationer pr. sekund (1,9 Gigaflops), to gange hurtigere end Cray X-MP.

Flere computerdesignere dukker op

Naturligvis styrede Cray og hans design supercomputerens tidlige æra. Men han var ikke den eneste, der førte feltet. De tidlige 80'ere så også fremkomsten af ​​massivt parallelle computere, drevet af tusinder af processorer, der alle arbejdede i tandem for at slå sammen om præstationsbarrierer. Nogle af de første multiprocessorsystemer blev oprettet af W. Daniel Hillis, der kom med ideen som kandidatstuderende ved Massachusetts Institute of Technology. Målet på det tidspunkt var at overvinde til hastighedsbegrænsningerne ved at have en CPU-direkte beregning blandt de andre processorer ved at udvikle et decentraliseret netværk af processorer, der fungerede på samme måde som hjernens neurale netværk. Hans implementerede løsning, der blev introduceret i 1985 som Connection Machine eller CM-1, indeholdt 65.536 sammenkoblede single-bit-processorer.

De tidlige 90'ere markerede begyndelsen på slutningen for Cray's kvælningshold på supercomputing. På det tidspunkt var den supercomputerende pioner splittet fra Cray Research for at danne Cray Computer Corporation. Ting begyndte at gå syd for virksomheden, da Cray 3-projektet, den påtænkte efterfølger af Cray 2, løb ind i en hel række problemer. En af Cray's største fejl var at vælge galliumarsenid-halvledere - en nyere teknologi - som en måde at nå sit erklærede mål om en tolv gange forbedring af behandlingshastigheden. I sidste ende endte vanskelighederne med at producere dem sammen med andre tekniske komplikationer med at forsinke projektet i årevis og resulterede i, at mange af virksomhedens potentielle kunder i sidste ende tabte interesse. Inden længe løb virksomheden tør for penge og anmodede om konkurs i 1995.

Cray's kampe ville give plads til en ændring af slagsvagten, da konkurrerende japanske computersystemer ville komme til at dominere feltet i store dele af årtiet. Tokyo-baserede NEC Corporation kom først på scenen i 1989 med SX-3 og et år senere afsløret en version af fire processorer, der overtog som verdens hurtigste computer, kun for at blive formørket i 1993. Det år blev Fujitsus numeriske vindtunnel med brute-kraften fra 166 vektorprocessorer den første supercomputer, der overgik 100 gigaflops (sidebemærkning: At give dig en idé om, hvor hurtigt teknologien skrider frem, de hurtigste forbrugerprocessorer i 2016 kan let gøre mere end 100 gigaflops, men på det tidspunkt var det især imponerende). I 1996 hævede Hitachi SR2201 ante med 2048 processorer for at nå en topydelse på 600 gigaflops.

Intel deltager i løbet

Nu, hvor var Intel? Virksomheden, der havde etableret sig som forbrugermarkedets førende chipproducent, gjorde ikke rigtig en plask i supercomputeringsområdet før i slutningen af ​​århundrede. Dette skyldtes, at teknologierne i alt var meget forskellige dyr. Supercomputere, for eksempel, var designet til at sætte så mange processorkraft som muligt, mens de var personlige computere handlede alt om at skubbe effektivitet fra minimale køleegenskaber og begrænset energiforsyning. Så i 1993 tog Intel-ingeniører endelig springet ved at tage den dristige tilgang til at gå massivt parallelt med 3.680 processor Intel XP / S 140 Paragon, der i juni 1994 var klatret op til topmødet placeringer. Det var den første massivt parallelle processor-supercomputer, der var udiskutabelt det hurtigste system i verden.

Indtil dette har supercomputing hovedsageligt været domænet for dem med den slags dybe lommer til at finansiere sådanne ambitiøse projekter. Det hele ændrede sig i 1994, da entreprenører ved NASAs Goddard Space Flight Center, som ikke havde den slags luksus, kom med en smart måde at udnytte kraften ved parallel computing ved at linke og konfigurere en række personlige computere ved hjælp af et Ethernet netværk. ”Beowulf cluster” -systemet, de udviklede, bestod af 16 486DX-processorer, der er i stand til at fungere i gigaflops-området og koste mindre end $ 50.000 til at bygge. Det sondrede også ved at køre Linux snarere end Unix, før Linux blev de valgte operativsystemer for supercomputere. Temmelig snart blev gør-det-selv-overalt overalt fulgt lignende tegninger for at oprette deres egne Beowulf-klynger.

Efter at have afgivet titlen i 1996 til Hitachi SR2201, kom Intel tilbage det år med et design baseret på Paragon kaldet ASCI Red, som bestod af mere end 6.000 200 MHz Pentium Pro-processorer. På trods af, at de flyttede væk fra vektorprocessorer til fordel for off-the-shelf-komponenter, fik ASCI Red skelnen ved at være den første computer, der brækker den ene billioner flops barriere (1 teraflops). I 1999 gjorde opgraderinger det muligt at overgå tre billioner flopper (3 teraflops). ASCI Red blev installeret på Sandia National Laboratories og blev primært brugt til at simulere atomeksplosioner og hjælpe med vedligeholdelse af landets nuklear arsenal.

Efter at Japan genindtog supercomputing lead i en periode med 35,9 teraflops NEC Earth Simulator, bragte IBM supercomputing til hidtil usete højder startende i 2004 med Blue Gene / L. Det år debuterede IBM med en prototype, der bare næppe kantede Earth Simulator (36 teraflops). Og i 2007 ville ingeniører opgradere hardwaren for at skubbe dens processorkapacitet til et højdepunkt på næsten 600 teraflops. Interessant nok var teamet i stand til at nå sådanne hastigheder ved at gå i takt med at bruge flere chips, der var relativt lav effekt, men mere energieffektive. I 2008 brød IBM igen jorden, da den tændte for Roadrunner, den første supercomputer, der overskred en drift af et kvadrillions flydepunkt pr. Sekund (1 petaflops).