Studie: Big Data wird zunehmend zum Problem für Rechenzentren
Archivmeldung vom 09.06.2015
Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 09.06.2015 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.
Freigeschaltet durch Thorsten SchmittBig Data wird immer mehr zu einem Problem für Rechenzentren. Laut einer aktuellen Studie von Hostinganbieter LeaseWeb (www.leaseweb.de) gehen 77 Prozent der befragten IT-Experten davon aus, dass die wachsende globale Datenflut zu einer zunehmend großen Herausforderung für Rechenzentren wird. Tendenz steigend: Für das Jahr 2020 gehen bereits 82 Prozent der Fachleute von Problemen aus.
Diese Zahlen verwundern nicht angesichts der Geschwindigkeit, mit der Big Data derzeit voranschreitet. So rechnen die Marktforscher von IDC damit (http://bit.ly/1JG8IdS), dass sich das weltweite Datenvolumen bis 2020 verzehnfachen wird - von derzeit 4,4 auf 44 Zettabyte. Laut Benjamin Schönfeld, Geschäftsführer von LeaseWeb Deutschland, muss der stetig wachsenden Datenflut mit effizienten und innovativen Lösungen entgegengetreten werden. Einen Ausweg sieht der Speicherexperte unter anderem in nanobasierten Speichertechnologien.
Nanobasierte "Racetrack-Speicher" bis 2020 serienreif
Die Experten sind sich laut der LeaseWeb-Studie einig, dass die meisten Rechenzentren in puncto Kapazitäten (Server, Storage, Netzwerk) wachsen werden (73 Prozent). Schönfeld sieht in modernen Nanolösungen großes Potential, um den Speichermarkt und damit auch die Rechenzentrumslandschaft zu revolutionieren: "Diese innovativen Technologien ermöglichen, verglichen mit heutigen Flashspeichern, das Hundertfache der aktuell möglichen Speicherdichte und extrem kurze Zugriffszeiten." Die Datacenter Expert Group im eco - Verband der deutschen Internetwirtschaft e. V. geht davon aus, dass die ersten nanobasierten "Racetrack-Speicher" schon 2020 serienreif sein werden und dann bisherige Speicherarchitekturen kontinuierlich ablösen (http://bit.ly/1GojkgC). Dementsprechend rechnen auch 71 Prozent der von LeaseWeb befragten IT-Experten damit, dass die Nanotechnologie im Jahr 2020 das Problem des wachsenden Speicherbedarfs lösen wird.
Internet der Dinge wird Hauptverursacher für Datenflut
Der Geschäftsführer von LeaseWeb Deutschland sieht die rasch voranschreitende globale Digitalisierung als Hauptursache für die stetig und immer schneller steigende weltweite Datenmenge an. "Vor allem das Internet der Dinge und die damit verbundene zunehmende Verbreitung von vernetzten Produkten, funk- und softwarebasierten Geschäftsmodellen werden dafür sorgen, dass sich der Datenbestand künftig alle zwei Jahre verdoppeln wird", betont Schönfeld. Noch im Jahr 2002 lag die geschätzte Speicherkapazität aller Rechenzentren weltweit bei einem Petabyte (PB) (http://bit.ly/1HYMAaj). Ein PB entspricht 0,000001 ZB. Heute bewegen sich die Datenmengen bereits im Zettabyte-Bereich. Ein Zettabyte ist eine Zahl mit 21 Nullen und entspricht einer Trilliarde Byte.
Quelle: LeaseWeb Deutschland GmbH (ots)