Home Business Markttrends PIV: Bändigung der Datenflut mit neuen Speichermedien

PIV: Bändigung der Datenflut mit neuen Speichermedien

Die digitale Datenflut wächst ins schier Unermessliche, so der Photoindustrie-Verband (PIV). Nicht nur die wachsenden Qualitätsansprüche an digitale Medien, sondern auch die immer komplexeren Anwendungen wie das Internet of Things (IoT) oder autonomes Fahren sowie Computational Imaging, Virtual und Augmented Reality, Machine Vision und Künstliche Intelligenz (KI) für die Bilderkennung erfordern immer mehr digitale Informationen, immer höhere Speicherkapazitäten, immer schnellere Verarbeitungszeiten und intelligente Softwarelösungen. „Im letzten Jahr betrug die weltweit erzeugte Datenmenge bereits 16,1 Zetabytes“, so PIV-Geschäftsführer Christian Müller-Rieker (Bild). Einer Untersuchung des Festplattenherstellers Seagate zufolge soll diese Menge sich bis 2025 verzehnfachen und auf 163 Zetabytes anschwellen. Ein Zetabyte Daten entspricht einer Billion Gigabyte. Um diese enorme Datenmenge zu speichern, bräuchte man beispielsweise 31,6 Milliarden Tablets mit 32 Gigabyte Speicher. Aneinandergelegt würden die Tablets eine Fläche so groß wie Berlin ergeben oder einen Turm rund zwölfmal so hoch wie der Mont Blanc.

Ein solches Datenvolumen würde ausreichen, um über 110 Milliarden HD-Filme mit jeweils zwei Stunden Länge speichern zu können oder für einen 26 Millionen Jahre langen, ununterbrochenen Filmgenuss. Neben immer höheren Kapazitäten werden kürzere Lese- und Schreibzeiten sowie schnellere Rechner für die Verarbeitung der Daten erforderlich. „Ob bei der Aufnahme oder beim Kopieren eines digitalen Fotos ein Fehler aufgetaucht ist, lässt sich noch verhältnismäßig einfach durch das menschliche Auge auf einem zuverlässigen Monitor überprüfen“, erläutert Christian Müller Rieker. „Bei Spielfilmen und Videos mit 25 und mehr Bildern pro Sekunde und ein bis zwei Sicherheitskopien wird das nahezu unmöglich.“ Selbst mathematische Systeme des Datenabgleichs versagen hier bisher und liefern noch nicht die notwendige Sicherheit und Schnelligkeit. Hier setzt die Industrie verstärkt auf Künstliche Intelligenz, von der man sich effektive und effiziente Lösungen verspricht.

Eine aktuelle Gartner Studie hat herausgefunden, dass KI bis 2020 in nahezu jeder neuen Software zu finden sein wird. Im Laufe des noch relativ jungen, digitalen Zeitalters sind zahlreiche Datenspeicher bereits wieder von der Bildfläche verschwunden, weil sie den Anforderungen nach Schnelligkeit, Sicherheit und Zukunftsfähigkeit nicht mehr nachkommen konnten. Die Erfahrung zeigt, dass sich die Technik der Speichermedien ständig verändert und kontinuierlich neue Datenträger den Markt erobern, so dass letztlich nur eine ständige Migration wichtiger Daten vor Verlust schützen kann. Ein immer häufiger genutzter Weg, der Gefahr des Zugriffsverlustes zu begegnen, sind Cloud-Lösungen, bei denen die Daten dezentral auf unterschiedlichen Trägern gespeichert werden. Eine Software konvertiert dann nicht nur die abgerufenen Daten in das benötigte Format. Sie wählt auch die optimale, aktuelle Form der Vorhaltung. Bei diesen auch Hyper Converged Memory genannten Systemen werden ständig benötigte Daten, beispielsweise im Arbeitsspeicher, vorgehalten.

Daten auf die schnell und häufig zugegriffen werden muss, werden auf SSD-Flash-Speichern und weniger häufig benötigte Daten dann auf klassischen Festplattenspeicher abgelegt. Große Konzerne, die von Big-Data-Anwendungen abhängig sind, werden vermutlich zukünftig verstärkt auf derartige Speicherlösungen zurückgreifen. Große Hoffnung setzen Forscher zurzeit auf holographische Speicher und die Nutzung von Nanotechnologien. Bereits heute hinkt die Speicherentwicklung hinter der Leistung der Prozessoren zurück. Flaschenhals sind die Transferzeiten zum Schreiben und Lesen der Daten. Der Prozessorhersteller Intel gibt an, dass die heute genutzten Speichertechnologien ungefähr 10.000 mal langsamer seien als seine leistungsstärksten CPU-Speicher. Gemeinsam mit Micron hat Intel nun eine neue Klasse von Computerspeicher entwickelt, die dieses Problem lösen soll: Die als 3D XPoint bezeichnete Technik nutzt eine neuartige „Cross-Point-Architektur“ ohne Transistoren mit einer Struktur, die einem dreidimensionalen Schachbrett gleicht. Diese Speichertechnik ermöglicht die 10-fache Kapazität von DRAM, ist 1.000 mal so schnell wie NAND und zudem preisgünstig. www.piv-imaging.com
Newsletter
für Consumer Electronics
& Home Appliances

Das Neueste von
ce-markt.de direkt in Ihren Posteingang!