Az IBM 120 petabájt fürtöt épít 200 000 merevlemezből

Merevlemez belső

Az összes ismert rekordot 10-szeres többszöröse szétveri, a kaliforniai IBM Research Almaden olyan hardver- és szoftvertechnológiákat fejlesztett ki, amelyek lehetővé teszik 200 000 merevlemez összekötését egyetlen 120 petabájtos - vagy 120 millió gigabájtos - tárolóklaszter létrehozása érdekében. Ha a meghajtó kollektíva elkészül, várhatóan egy billió fájlt - vagy Apple-ben kifejezve - kétmilliárd órányi MP3 zenét tárol.



A jelenleg név nélküli adattárat egy meg nem nevezett ügyfél számára fejlesztik - de 120PB kapacitással valószínűleg a kormány tulajdonában lévő vagy szövetségi állam által finanszírozott szuperszámítógép vagy más nagy teljesítményű számítástechnikai eszköz tárolóeszköze lesz. (HPC) alkalmazás; A 120PB az a kapacitás, amelyre szüksége van a globális időjárási modellek vagy a végtelenül részletes fegyverrendszer-szimulációk tárolásához, mindkettőt kereskedelmi érdekek ritkán hajtják végre. Alternatív megoldásként az internet nagy részét (vagy a felhasználóiról szóló adatokat) tárolhatja a Google vagy a Facebook, vagy egy másik, nagyon mély zsebbel rendelkező kliens számára. A jelenleg létező legnagyobb rendszerek általában 15 petabájt körüliek, bár 2010-től A Facebooknak 21PB Hadoop-fürtje volt , és mára valószínűleg lényegesen nagyobb.



A szoftverről és a hardverről nem ad pontos részleteket az IBM, de tudjuk, hogy az IBM General Parallel File System új és frissített verzióját tartalmazza ( GPFS ). A GPFS egy köteten átívelő fájlrendszer, amely az egyes fájlokat több lemezen tárolja - más szóval, ahelyett, hogy több terabájtos, nagy felbontású modellt olvasna 100 MB / s sebességgel egyetlen meghajtóról, ugyanaz a fájl tömegesen párhuzamosan olvasható divat több lemezről. A végeredmény az olvasási / írási sebesség a régióban másodpercenként több terabájt - és ennek következtében másodpercenként több mint 30.000 fájl létrehozásának lehetősége. A GPFS támogatja a redundanciát és a hibatűrést is: amikor egy meghajtó meghal, annak tartalmát az irányító számítógép automatikusan egy csere meghajtóra építi fel.



A dolgok merevlemez-oldala, ha 120PB-t osztunk 200 000-rel, 630 GB-ot kap - és ha egyszer figyelembe veszi a redundanciát, meglehetősen biztonságos azt feltételezni, hogy a meghajtók mind 1 TB méretűek. Azt is tudjuk, hogy a 200 000 meghajtó mindegyikét vízhűtéssel fogják feltehetően az eddigi legnagyobb és legbonyolultabb vízvezetékkel - de figyelembe véve Az IBM hajlandósága a felső kategóriás szerverek vízhűtésére , ez aligha meglepő (bár továbbra is reméljük, hogy feltöltünk egy fotót a rendszerről, ha elkészült).

A jelenlegi helyzetben a szuperszámítógépek - és nagy léptékűek tudományos kísérletek, mint az LHC - sokkal több adatot képes előállítani (és kiszámítani), mint amennyit megvalósítható módon el lehet tárolni. Remélhetőleg az IBM rendszere egy olyan adattár lesz, amely valamilyen módon áthidalja a szilícium, a Moore törvényi technológiája - és az elektromechanikus tárolás közötti szakadékot. Természetesen másrészt talán itt az ideje abbahagyni a játékot a merevlemezekkel, és el kell kezdeni a tömeges tároló tömbök kiépítését flashmemória ...



További információ itt: Technológiai Szemle , vagy kb IBM Research Almaden vagy GPFS