





22.Mai2025|Wiesbaden
IntegrierteKIundeininnovatives Security-Konzeptfürdas sicherehybrideDataCenter.
MehrzuDellTechnologiesStrategien undLösungenaufderTIMCONFERENCE.
Eine erfolgreiche KI lebt von den Daten, denn nur so können die Modelle arbeiten. Diese Daten müssen in riesiger Menge und mit möglichst hoher Performance an die GPUs geliefert werden. Daher ist es kein Wunder, dass immer mehr Hersteller für KI optimierte Storage-Lösungen auf den Markt bringen. Sie werden zunehmend nicht nur bei Cloud-Providern, sondern auch in den Rechenzentren der Kunden zu finden sein, da diese den Wert ihrer Daten erkennen und sie unter Kontrolle halten wollen. Davon sind auch die Distributoren überzeugt und erwarten, dass sich ITSystemhäuser und Fachhändler stärker mit dem Thema KI und dem dafür nötigen Storage auseinandersetzen.
Datenmanagement und das Data Lakehouse als hybride Datenarchitektur gewinnen im KIKontext ebenso weiter an Bedeutung wie Storage für Container. Zudem wird Storage generell zu einem wichtigen Baustein eines unternehmensweiten Sicherheitskonzepts.
In diesem Channel Guide geht es aber nicht nur um das Thema KI-Storage. Zudem erhalten Sie hier Informationen über Technologiesprünge bei SSDs und HDDs sowie über Storage-Lösungen für kleine und mittlere Unternehmen. Da längst nicht alle Unternehmen auf lokale Infrastrukturen setzen können oder wollen, berichten wir zudem über aktuelle Trends beim Managed Storage sowie beim Cloud Storage, der weit über die Angebote der Hyperscaler hinausgeht.
Ich wünsche Ihnen eine aufschlussreiche Lektüre!
klaus.laenger@vogel.de
Storage für KI, Container und darüberhinaus
Ohne Storage keine KI – denn KI-Anwendungen benötigen große Datenmengen, damit sie ihre Aufgaben erfüllen können. Das sorgt für Wachstum im Storage-Markt, aber auch in anderen Sektoren geht die Entwicklung weiter. 6
Von der Platte in die Wolke KI hat verändert, wie Unternehmen Daten speichern und beeinflusst so den Cloud-Speichermarkt. 14
Neue Dimensionen bei Speed und Kapazität
Das Datenwachstum und KI treiben die Entwicklung bei SSDs und HDDs voran. 22
Herausforderung Datenmanagement
Unternehmen stehen vor der Herausforderung, riesige Datenmengen effizient zu verwalten. 30
Storage für KI, Container und darüberhinaus 6
Ohne Storage keine KI: Das sorgt für Wachstum im Storage-Markt.
Zahlen und Fakten 10
Die Datenflut reißt nicht ab und Speicherplatz bleibt ein Wachstumsfeld.
Vom Trend zum lukrativen Geschäft 12
Im Markt für Speicherlösungen ist Bewegung und es wird noch mehr erwartet.
Von der Platte in die Wolke 14
KI beeinflusst, wie Unternehmen Daten speichern und verändert damit auch den Cloud-Speichermarkt.
Managed Storage als Maßanfertigung 18
In einer Zeit, in der das Datenaufkommen exponentiell wächst, gewinnt Managed Storage an Bedeutung.
Neue Dimensionen bei Speed und Kapazität 22
Immer größer, immer schneller: Das Datenwachstum und KI treiben die Entwicklung bei SSDs und HDDs voran.
Data Lakehouse versöhnt Datenarchitekturen 24
Im KI-Kontext werden Datenmanager vor neue Herausforderungen gestellt.
Speicher mit reichlich Reserve für KMU 28
Um die Datenflut zu bewältigen, benötigen KMU leistungsfähige, flexible und günstige Speicherlösungen.
Herausforderung Datenmanagement 30
Unternehmen müssen Daten effizient verwalten, um Sicherheit, Compliance und Produktivität zu sichern.
Verbatim passt hervorragend zur DNA von BAB. Wir sind überzeugt, dass diese Partnerschaft für beide Unternehmen von großem Nutzen sein wird.
Andreas Bajohr CEO BAB Distribution
Für KI ist schneller Storage ist essenziell. Meist werden Container genutzt.
Ohne Storage keine KI: Denn KI-Anwendungen benötigen große Datenmengen, damit sie ihre Aufgaben erfüllen können. Das sorgt für Wachstum im StorageMarkt. Aber auch in anderen Sektoren geht die Entwicklung weiter.
Eine Wachstumsratevon mehr als 24 Prozent pro Jahr von 2025 bis 2034 für Storage-Systeme, die in Verbindung mit KI-Anwendungen genutzt werden: Das sagen die Marktforscher von Precedence Research voraus und gehen davon aus, dass der weltweite Absatz von Storage für KI von fast 36 Milliarden US-Dollar in diesem Jahr auf mehr als 255 Milliarden US-Dollar klettern wird. Bei IDC sieht man ebenfalls ein Plus für den Storage-Markt durch KI, auch wenn die Gesamtausgaben für ITInfrastruktur hier zu mehr als 90 Prozent in GPUServer fließen. Immerhin ist der Absatz von Storage für KI auch laut IDC im ersten Halbjahr 2024 um 18 Prozent gewachsen, mit einem CloudAnteil von 40 Prozent.
Künstliche Intelligenz spielt laut einer Studie, die die Marktforscher von Vanson Bourne im Auftrag von Dell Technologies erstellt haben, in den Strategien deutscher Unternehmen zunehmend eine Schlüsselrolle. So glauben mit 95 Prozent fast alle Teilnehmenden aus den 150 befragten deut-
schen Unternehmen und Institutionen, dass KI und vor allem GenAI einen wichtigen Bestandteil in der Geschäftsstrategie ihres Unternehmens darstellt. Immerhin 85 Prozent geben an, dass sie ihre Daten als zu wertvoll einschätzen, um sie mit einer GenAI-Lösung zu verwenden, bei der Dritte Zugriff auf die Daten haben könnten. Zudem sind sich die IT-Verantwortlichen bewusst, dass sie ihre Daten für die KI-Nutzung vorbereiten und einen Teil ihrer IT-Infrastruktur modernisieren oder ausbauen müssen. Laut der Studie ist im Durchschnitt bei 32 Prozent der Server und bei 31 Prozent der Storage-Systeme eine Aufrüstung nötig. Dell setzt hier darauf, dass sie den Kunden sowohl passende Server als auch Storage-Systeme anbieten können. Bereits Ende 2024 hat der Hersteller daher angekündigt, seine Powerscale-Plattform für unstrukturierte Daten und deren Betriebssystem OneFS für den KI-Einsatz zu optimieren. Dabei werden laut Dell mit neuen MetadataIQ-Funktionen alle erfassten unstrukturierten Dateien automatisch mit Metadaten ver-
Dell Technologies bietet das für KI-Anwendungen geeignete All-Flash-System Powerscale F710 nun auch mit 61-TB-SSDs an. Das 1U-Gerät bietet Platz für zehn SSDs.
sehen und diese für die weitere Verarbeitung in Elasticsearch-Datenbanken exportiert.
Einige Hersteller bringen Storage-Systeme auf den Markt, die für den Einsatz in KI-Anwendungen optimiert sind. Das jüngste Beispiel ist hier Flashblade//EXA von Pure Storage. Die Lösung ist primär für Anbieter von KI-Services gedacht, die sich unterhalb der Hyperscaler bewegen, und teilweise noch für große Enterprise-Kunden oder Institutionen. Sie ist laut Hersteller nicht nur für große KI-Workloads, sondern auch für HPC-Anwendungen geeignet. Die Besonderheiten an Flashblade// EXA sind die unabhängige Skalierung von Daten und Metadaten sowie eine Leseleistung von mehr als 10 Terabyte pro Sekunde in einem einzigen Namespace, die Pure Storage verspricht. Die mit dem Compute-Cluster verbundenen FlashbladeSysteme speichern hier die Metadaten mit sehr hoher Leistung, für die Nutzdaten werden handelsübliche, ebenfalls mit dem Compute-Cluster verbundene Data Nodes von Drittanbietern verwendet. Wie Markus Grau, Principal Technologist bei Pure Storage, verrät, wird sein Unternehmen
ebenfalls ein passendes Storage-Device auf den Markt bringen, dessen Design auf den StorageServern basiert, die Meta mit Pure-Storage-Software betreibt. Der Ansatz von Pure Storage ist dabei die Schaffung einer skalierbaren Speicherplattform für KI, die den unterschiedlichen Ansprüchen unterschiedlicher KI-Workloads und Datentypen gerecht wird und dabei ein einheitliches Management bietet. Bei Flashblade//EXA sollen die separaten Metadaten-Nodes dafür sorgen, dass der Zugriff auf die beim Training übliche riesige Menge an kleinen Files schnell vonstatten geht.
Mit dem Oceanstor A800 hat auch Huawei ein für KI-Anwendungen zugeschnittenes Storage-System entwickelt: Mit 24 Millionen IOPS und 500 Gb/s Bandbreite pro Controller-Gehäuse, die das Laden von Trainingssets mit extrem vielen kleinen Dateien besonders gut bewältigen, verspricht der Hersteller. Jedes 8U-Controller-Gehäuse fasst zwei Controller mit jeweils vier Kunpeng-920-Prozessoren sowie 64 Palm-NVMe-SSDs mit einer Brutto-Kapazität von zusammen bis zu 983,4 TB.
Die Markforscher von Precedence Research sagen eine rapide steigende Nachfrage nach Storage-Systemen für KI-Anwendungen voraus.
Zudem bietet das System Steckplätze für zusätzliche DPUs für die Trennung von Daten- und Control-Schicht sowie GPUs, die Offloading-Aufgaben übernehmen können. Bis zu 512 Controller können zu einem Cluster zusammengefasst werden. Das System nutzt NPUDirect Storage (NDS) für eine direkte Kommunikation mit den GPUs in Compute-Clustern und stellt einen persistenten Key-Value-Cache bereit, der bei längeren Konversationen mit KI-Chatbots das Zwischenspeichern unterstützt. Zudem soll das schnellere Laden von beim Training erzeugten Checkpoints für eine bessere Auslastung der GPU-Server sorgen. Wie der Storage-Spezialist André Brinkmann, Professor an der Universität Mainz, anmerkt, nutzt die chinesische KI-Firma Moonshot AI mit Mooncake Store ein ähnliches Konzept eines KV-Caches für ihren Chatbot Kimi.
NetApp setzt für Künstliche Intelligenz vor allem auf die Weiterentwicklung der eigenen OntapSoftware als Basis für eine KI. So ist zunächst geplant, einen globalen Metadatenservice und eine Vektordatenbank in Ontap zu integrieren, verrät Johannes Pape, Head of AI Sales & GTM, EMEA & LATAM bei dem Hersteller. Damit soll im Zusammenspiel mit Nvidia die Nutzung von NIMs (Nvidia Ingest Microservices) für KI-Anwendungen erleichtert werden. Ziel ist der Aufbau einer Ontap-Datenplattform für KI mit einer disaggregierten Infrastruktur, bestehend aus ComputeNodes mit Ontap-Software und separaten Storage-Units, die gemeinsam einen einzelnen Storage-Pool mit Zugriff auf alle Daten und Metadaten bilden. Das System nutzt dabei NetApps WAFL für File-, Block- und Object-Storage. Unabhängige Mico-Filesystem-Instanzen sollen dafür sorgen, dass parallele Datenzugriffe mit maximaler Performance möglich sind.
Die Storage-Appliance Flashblade//EXA wird lediglich für das Speichern und Lesen von Metadaten verwendet. So wird laut Hersteller vermieden, dass hier ein Flaschenhals entsteht, der die komplette KI-Anwendung ausbremsen kann.
Damit folgen NetApp und ein Stück weit auch Pure Storage dem Ansatz von Vast Data mit Disaggregated Share Everything (DASE) mit getrenntem Compute- und Storage-Layer sowie separater Logik- und Statusschicht. Gemeinsam mit Nvidia hat Vast Data die Insight Engine aus der Taufe gehoben, bei der NIMs direkt auf den Compute-Nodes der Vast Data Platform laufen. Die Hardware stammt hier von Technologie-Partnern wie HPE, Lenovo, Cisco oder Supermicro. Hitachi Vantara hat sich dagegen mit dem Parallel-File-SystemAnbieter Weka zusammengetan und nutzt dessen WekaFS unter der Bezeichnung HCFS (Hitachi Content Software for File) in der eigenen KI-Lösung Hitachi iQ, die Nvidias DGX-Systeme oder Server mit Nvidias HGX-Plattform mit VSP One für das Storage kombiniert. Scality ist als weiterer Hersteller ohne eigene Hardware ebenfalls im Rennen um Kunden für KI-Storage-Lösungen. Der Software-Anbieter, der mit Lenovo, Supermicro, Dell und HPE kooperiert, sieht seine für KI-Anwendungen ausgelegte Objektspeicherlösung Ring XP, die sich durch sehr niedrige Latenzen beim Zugriff auf kleine Objektdaten auszeichnen soll, gemeinsam mit Ring als Komplettlösung für KI-Datenpipelines. Letzteres soll dabei als Objektspeicher für sehr große KI-Data-Lakes dienen. Auf der GTC im März hat Nvidia die AI Data Platform vorgestellt, die als Referenzdesign für StorageHersteller dienen soll und beispielsweise die Bluefield DPUs und Spectrum-X-Netzwerkkomponenten von Nvidia nutzt.
Eine wichtige Rolle für die KI-Nutzung spielen dabei Container und deren Management. So stellt Nvidia NIM die unterschiedlichen GPU-beschleunigten Inferencing-Microservices in Form von Containern bereit, die über APIs in KI-Anwendungen oder Frameworks integriert werden. Auch
sonst setzt Nvidia für KI-Anwendungen primär auf Container, um so Vorteile wie die Portabilität, die Skalierbarkeit und die Sicherheit durch Isolation zu nutzen. Auf der Nvidia GPU Cloud (NGC), seinem Portal für Enterprise-Dienste, Software und Verwaltungstools, bietet der GPU-Hersteller einem umfangreichen Katalog an GPU-beschleunigten, optimierten und getesteten KI-Containern, mit Frameworks und Bibliotheken an. Dieser Fokus auf Container eröffnet Herstellern wie NetApp oder Pure Storage mit Portworx und deren Partnern die Möglichkeit, ihren Kunden entsprechende Lösungen für das Datenmanagement auf Kubernetes zu offerieren und bei der Umsetzung zu unterstützen.
Auch jenseits von KI gibt es Neues in der Welt der Storage-Systeme. IBM unternimmt mit dem Storagesystem C200 einen weiteren Anlauf, HDDbasierte oder Hybrid-Systeme aus den Rechenzentren zu verdrängen. Das neue System nutzt das vom Storagesystem 7300 bekannte 2U-Gehäuse. Auf den beiden Controllern werden allerdings schwächere Intel-Xeon-Prozessoren mit acht Cores eingesetzt und in den 24 Laufwerksschächten sitzen QLC-SSDs mit jeweils 46 TB Kapazität, von der ein Teil als SLC-Cache verwendet wird. Allerdings nutzt IBM hier keine Standard-SSDs, sondern seine eigenen FlashCore Modules der vierten Generation. Auf ihnen sitzt jeweils ein FPGA als Controller, der zusätzliche Aufgaben wie die Datenkompression für bis zu 2,3 PB nutzbare Kapazität, die Verschlüsselung sowie die Verwaltung des Variable Stripe RAID (VSR) auf dem Modul übernimmt. IBM verspricht, dass die Module bis zu 5,5-mal mehr Schreibzyklen übersteht als herkömmliche QLC-SSDs mit gleicher Kapazität. Zudem soll der Controller auf den Modulen eine KIunterstützte Ransomware-Erkennung direkt auf SSD-Ebene ermöglichen. Der Preis pro TB liegt beim C200 allerdings um den Faktor 2,5 höher als bei Hybrid-Systemen, soll das aber durch seine höhere Effizienz und Performance wettmachen.
Die Nutzung von KI in Storage-Systemen liegt generell im Trend, allerdings auf Systemebene. So wird Machine Learning von einer ganzen Reihe von Herstellern genutzt, um abweichende Nutzungsmuster zu identifizieren, die auf einen Ransomware-Angriff hindeuten können. NetApp reklamiert für die in Ontap integrierte KI-gestützte Ransomware-Erkennung eine Trefferrate von 99 Prozent bei praktisch keinen Fehlalarmen. Sie kommt nun zusätzlich zum File- auch noch beim
Mit den drei neuen Systemen A20, A30 und A50 aus der ASA-Serie rundet NetApp sein Angebot an All-Flash-Appliances für BlockStorage nach unten ab. Die Geräte sollen einfacher und stromsparender sein als Angebote anderer Hersteller. Zudem sind die für geschäftskritische Datenbanken oder virtuelle Maschinen bestimmten Systeme laut Hersteller mit einem Startpreis von etwa 24.000 Euro um 30 bis 50 Prozent günstiger.
Die neuen Block-Storage-Systeme ASA A20, A30 und A50 von NetApp sind für kleinere Unternehmen oder Zweigstellen bestimmt.
Block-Storage zum Einsatz. Der Hersteller nutzt dafür die Rechenleistung der Sapphire-RapidsProzessoren auf den Controllern. Huawei geht hier einen anderen Weg und setzt in den neuen Storage-Systemen wie dem Oceanstore A800 oder der kommenden Oceanstor-Dorado-V7-Generation eigene Funktionsmodule in Form spezieller PCIe-Karten ein, um hier die CPUs zu entlasten. Als Erleichterung für das Management der Systeme per KI hat Pure Storage einen Chatbot angekündigt, der Zugriff auf Handbücher, SupportAnfragen und die Telemetriedaten der Systeme hat. Er soll so das IT-Personal unterstützen und viele Supportanfragen überflüssig machen. Wie Professor Brinkmann anmerkt, könnten KI-Funktionen beim Systemparameter-Tuning helfen.
Mehr zu Storage als Service: https://voge.ly/STaaS/
Autor: Klaus Länger
Die Datenmengen steigen jedes Jahr weiter an. Die Gesamtmenge der weltweit erstellten, erfassten, kopierten und verbrauchten Daten wird den Prognosen von IDC und Seagate zufolge weiterhin rasch ansteigen und im Jahr 2025 rund 182 Zettabyte erreichen. Bis zum Jahr 2028 wird das Datenvolumen demnach auf mehr als 390 Zettabytes ansteigen.
Umsatz mit Speicherlösungen
Der Umsatz mit Speicherlösungen (Server, externe Speichersysteme und Speichererweiterungssysteme) wird Statista zufolge etwa 60,1 Milliarden Euro im Jahr 2025 betragen. Es wird erwartet, dass der Umsatz eine jährliche Wachstumsrate (CAGR 2025-2029) von 11,21 Prozent aufweist, was zu einem prognostizierten Marktvolumen von 92,0 Milliarden Euro im Jahr 2029 führt.
Die Prognose von Statista für das mengenmäßige
Marktvolumen von Datenspeicher im Jahr 2029 beträgt 2,7 Milliarden Stück weltweit.
Im weltweiten Datenspeicher-Markt (HDDs, SSDs oder USB-FlashLaufwerke) soll der Umsatz im Jahr 2025 etwa 37,1 Milliarden Euro betragen. Laut Statista-Prognose wird sich das Marktvolumen bis 2029 auf 40,2 Milliarden Euro erhöhen, was einem jährlichen Umsatzwachstum von 2,05 Prozent (CAGR 2025-2029) entspricht.
Die meisten Datenspeicher verkauft weltweit Samsung (32 % Marktanteil), gefolgt von Western Digital (13 % Marktanteil) und Toshiba (8 % Marktanteil).
Wo wird gespeichert?
Im B2B-Bereich gibt es drei wesentliche Plattformtypen zum Speichern von Daten. Laut Statista speichern weltweit mehr als 27 Prozent der Unternehmen ihre Daten außerhalb einer Cloud.
Im Markt für Speicherlösungen ist Bewegung und es wird noch mehr erwartet. Neue Technologien wie KI steigern den Bedarf und gleichzeitig die Lösungsvielfalt. Das bekommt der Channel und die Distribution zu spüren.
Der weltweite Umsatz im Speicherlösungs-Markt soll Statista Market Insights zufolge in diesem Jahr etwa 60 Milliarden Euro betragen. Was Speicherlösungen anbelangt, ist man zuversichtlich und prognostiziert ein Wachstum von 11,23 Prozent bis 2029. Distributoren, die genau solche Lösungen im Portfolio führen, können sich also entspannt zurücklehnen? Nicht unbedingt, denn auch in diesem Segment kristallisieren sich klare Trends heraus, die es rechtzeitig zu erkennen gilt. Steigende Nachfrage muss beachtet und mögliche Neuheiten im Auge behalten werden. So ist Rocco Frömberg, Leiter Vendor Development & Operations bei TIM, überzeugt, dass Data Center Storage derzeit die wichtigste Plattform für die Speicherung sensibler Informationen darstellt. „Daraus ergeben sich neu priorisierte Leistungskriterien für Data Center Storage, wie die Möglichkeiten der Zugriffssteuerung, Verschlüsselung, Monitoring sowie Schnittstellen zu SecuritySoftware, zur Aufbereitung der geloggten Daten und zur nahtlosen Kombination mit weiteren Quellen“, sagt er über Anforderungen und gleichzeitig über mögliche Marktchancen.
Auf einen essenziellen Aspekt geht Frömberg dabei ein: Sicherheit. Dabei ist es nicht nur entscheidend, Storage als System mit wertvollen Daten zu schützen. „Andererseits ist er gleichzeitig ein aktiver Teil eines unternehmensweiten, stabilen Sicherheitskonzepts.“ Frömberg erkennt einen klaren Trend darin, „Security mit modernen Data-Center-Technologien zu verknüpfen und da-
mit Technologie-Brücken für Kunden zu bauen, die Datenintegrität, Verfügbarkeit und Vertraulichkeit gewährleisten“.
Auch intelligente Speicherlösungen sind derzeit präsent. Sie halten einige Vorteile für IT-Dienstleister bereit wie „automatisierte Datenplatzierung, Kapazitätsoptimierung, Reduzierung von manuellem Aufwand, Skalierbarkeit, sowie verbesserte Datenverwaltung“, zählen Viktor Martens, Produktmanager für Server-Lösungen, und Stephan Teinert, stellvertretender Vertriebsleiter bei Wortmann, auf. Weiter nennt Tanja Link, Director Business Unit Huawei Enterprise & HCS bei Acondistec, einen effizienteren und preiswerteren Betrieb und spricht zudem das „OnStorage Process Handling“ an. „Viele Prozesse wie Datenordnung oder -analyse kann der Storage heute schon vorbereiten oder selbst ausführen. Das entlastet das Netzwerk aber auch die gesamte IT-Landschaft“, geht sie genauer darauf ein.
Der Einzug von KI in Storage-Systeme wird laut Link gravierende Veränderungen mit sich bringen. „Der Speicher rückt stärker ins Zentrum. Denn warum sollten Daten erst über das Netzwerk transportiert werden, wenn der Storage sie direkt verarbeiten kann“, begründet sie. Sie prognostiziert zudem, dass in Zukunft verschiedene Speicherarchitekturen abgelöst oder vereinheitlicht werden, wie File-, Block- oder S3-Storage, „weil ein intelligentes Storagesystem alle Technologien beherrscht“. Und schließlich nimmt das Daten-
volumen stark zu – und das bereits jetzt. „Alle Daten, die KI generiert sind, sind Nutzerdaten, die Unternehmen vorhalten und speichern müssen. Zumindest temporär. Und wir stehen bei KI noch ganz am Anfang.“
Trotz dieser Prognose und Vorteile vermelden Martens und Teinert eine geringe Nachfrage. „Dies wird noch viel Zeit in Anspruch nehmen, da ITSystemhäuser und Fachhändler sich erst einmal selbst mit dem Thema stärker auseinandersetzen und unter anderem ihre Mitarbeiter qualifizieren müssen“, begründen sie. Doch gibt es klare Treiber auf Kundenseite, die den Bedarf an intelligenten Speicherlösungen erhöhen. „Personalmangel in der IT, immer mehr fachspezifische Anwendungen erfordern eine eigene Speichersteuerung sowie die Konsolidierung heterogener Speicherlandschaften“, nennt Link.
Ein klareres Bild ergibt sich bei klassischen HDDs. Sie werden den Wortmann-Experten zufolge „vor allem für Archivspeicher verwendet, da sie kostengünstig viel Kapazität bereitstellen.“ In Produktivumgebungen setze man hingegen vermehrt auf Enterprise-SSDs. Der Anteil an NVMe-SSDs nehme dabei zwar zu, bei On-Premises-Lösungen dominieren aber noch SATA-RAID-SSDs. Neue Formfaktoren wie EDSFF seien hingegen noch nicht besonders populär, da sie kaum verfügbar sind. Der Grund: „Server und Storage-Gehäuse sind größtenteils auf den klassischen Standard ausgelegt.“ Martens und Teinert sind dennoch überzeugt, dass EDSFF in Zukunft an Bedeutung
gewinnen wird, „da über diesen Formfaktor performantere Laufwerke mit höheren Kapazitäten abbildbar sein werden.“ Der Einschätzung von Acondistec zufolge, sind heute 90 Prozent aller Primärspeichersysteme Flash-basiert. „Hohe Betriebssicherheit, geringe Ausfallquoten und eine stabile Performance“, zählt Link als Gründe hierfür auf und fügt hinzu, dass Flash mittlerweile ebenso in Backup-Systemen und Archiven Einzug erhält. „Denn mit verstärkter Datennutzung tritt der Aufbewahrungsaspekt zunehmend in den Hintergrund. Auch die archivierten Daten müssen für Analysen schnell verfügbar sein.“
Solche und weitere Entwicklungen gilt es also zu erkennen, zu verfolgen und gegebenenfalls darauf zu reagieren. Bei Wortmann passe man daher das Produktportfolio der aktuellen Nachfrage und Anforderungen an. Trends würden beobachtet und bei der Planung neuer Produkte beachtet. Mit dem Fokus auf Huawei sieht sich Acondistec ebenfalls gut aufgestellt. „Durch seine Stärke in der Forschung und Entwicklung ist Huawei heute einer der Hersteller, der die Storage-Trends mitgestaltet“, erklärt Link. Und welche neuen Trends, Technologien und Veränderungen wohl in den nächsten Jahren im Storage-Segment aufwarten? Das haben die Distributoren im besten Fall schon frühzeitig im Blick.
Mehr unter: https://voge.ly/vgl0EAf/
Autor:
Mihriban Dincel
STORAGE AS A SERVICE ETABLIERT SICH IMMER MEHR
Bei Storage as a Service (STaaS) benötigen Anwender keine eigene Storage-Infrastruktur, sondern können Speicherplatz nach Bedarf buchen. Diese Flexibilität ist laut Wortmann aus folgenden Gründen gefragt: „Zum einen bieten immer mehr Softwarelösungen und NAS Systeme Schnittstellen zur einfachen Anbindung von STaaS und zum anderen steigt das Sicherheitsempfinden.“ Daneben ist kein großes Investment notwendig. Doch würden Mehrwerte erst generiert, wenn STaaS einfach, wie ein lokaler Speicher verwendet werden kann, so Martens und Teinert. Dass der STaaS-Markt wächst, kann Link bestätigen, sagt aber offen: „Die Vorteile des Modells liegen für die Kunden in der Flexi-
bilität und nicht im Preis. Denn kein Anbieter oder Finanzierer kann den Kunden alle Veränderungsrisiken abnehmen. Die sind immer eingepreist.“ Auch ist die Integration nicht unkompliziert. So würden sich Kunden häufig bei der Festlegung ihres Speicherbedarfs schwer tun. „Hier ist Beratung durch die Partner gefragt.“ Weiter birgt die heterogene Speicherlandschaft Herausforderungen, denn die müssten Kunden vor der STaaS-Nutzung konsolidieren und definieren, „welche Anforderungen die Lösung technisch abbilden muss“, konkretisiert Link das Problem. Trotzdem würden oftmals die Vorteile einer flexiblen Lösung überwiegen, was die steigende Nachfrage erklärt.
KI hat die Spielregeln im Cloud-Speichermarkt völlig neu definiert – von der Art, wie Unternehmen Daten verwalten, bis hin zu den Geschäftsmodellen der Anbieter. Doch Achtung: Wer den passenden Cloud-Speicher wählt, sollte nicht nur den Einsatzzweck im Blick haben, sondern auch die Preismodelle genau prüfen –sonst schnappt die Kostenfalle zu.
Gerade für das Training von KIModellen mit nicht sicherheitskritischen Daten kann die Public Cloud eine sinnvolle Wahl sein. Besonders in Unternehmen mit stark schwankendem Speicherbedarf ermöglicht die Cloud eine effiziente Storage Planung und Anpassung an aktuelle Anforderungen. Große Hyperscaler wie AWS, Azure, Google Cloud sowie zahlreiche kleinere CloudAnbieter bieten eine breite Palette an Speicheroptionen – von Objekt über Block bis hin zu Dateispeichern – für unterschiedlichste Anwendungsfälle an. Die Nachfrage nach sicheren und skalierbaren Speicherlösungen wird auch in Zukunft weiter steigen, was den Markt für CloudStorage weiter wachsen lässt.
Durch den Einsatz von Künstlicher Intelligenz wird auch das Management von Speichersystemen auf ein neues Niveau gehoben. Routinetätigkeiten in der Speicherverwaltung lassen sich automatisieren, während KIgestützte Analysen Datenmuster erkennen und zukünftige Speicher
Laut Global Cloud Storage Index 2025 von Wasabi Technologies setzen 40 Prozent der europäischen Unternehmen bei der Storage Wahl auf eine Kombination aus Public Cloud und OnPremisesLösungen. In Deutschland liegt dieser Wert bei 36 Prozent, während 45 Prozent weiterhin ausschließlich auf OnPremises setzen. Der Trend zu einem hybriden CloudStorage Modell hält also weiterhin an. Nur 19 Prozent der deutschen Unternehmen verfolgen eine „Cloudfirst“Strategie, deutlich weniger als in Großbritannien oder den Niederlanden (jeweils 41 %).
Ein zentrales Problem sind unerwartete Gebühren, die ITBudgets strapazieren. Die Studie zeigt, dass 50 Prozent aller Speicherkosten in der EMEARegion auf Datenzugriffs und Nutzungsgebühren statt auf Speicherkapazität entfallen. 66 Prozent der deutschen Unternehmen hätten nach ihren Angaben ihr CloudBudget überschritten, ein weltweit führender Wert. Die Hauptkostenpunkte sind Egress-Gebühren sowie unerwartete Zusatzkosten für Datenvorgänge wie Replikation
DasThema Sicherheit wird beiuns großgeschrieben,deshalb setzen wirauf unsere Always-private-Strategie.
Jede InfrastrukturbeinhalteteineFirewall, sodass ein privates Kundennetzwerk inklusive VLAN undIPzugrundeliegt.
IHRDATENSPEICHERINDEUTSCHLAND
•RevisionssichereAufbewahrung
•Hohe Verfügbarkeit, Zuverlässigkeit& Skalierbarkeit
•EinfacheIntegration &einfaches Management überdas TechnicalCenter
•Qnap und Synology Schnittstelle
•Veeam Backupziel perAPI
Mehr Informationenzum S3 StorageUpdate!
Unseren TERRA CLOUD Vertrieberreichen Sieunter: Telefon: +495744.944 188 |E-Mail:cloud@wortmann.de www.wortmann.de |www.terracloud.de
Die HDD hat noch lange nicht ausgedient. Auch in der Cloud stellt sie nach wie vor eine günstige und verlässliche Möglichkeit für viele Workloads dar.
oder Objekt-Tagging. „Wettbewerbsfeindliche Praktiken wie hohe Egress-Kosten und komplexe Preismodelle benachteiligen Unternehmen, die ihre Daten nutzen oder transferieren möchten. Das bremst letztlich die Innovation aus, denn Daten sind der Schlüssel, um das volle Wachstumspotenzial auszuschöpfen.
Hier muss sich der Cloud-Markt ändern“, fordert Kevin Dunn, Vice President und General Manager EMEA bei Wasabi. Um diesen Problemen entgegenzuwirken, setzt der Anbieter auf ein vereinfachtes Pay-as-you-go-Preismodell sowie auf Wasabi AiR. Diese intelligente Medienspeicherlösung kombiniert den Hot Cloud Storage mit KIgestütztem Metadaten-Tagging, mehrsprachiger Transkription und einer intuitiven Suchoberfläche. Dadurch können Unternehmen große Medienarchive effizient durchsuchen – ohne zusätzliche Gebühren für KI-Analysen, ausgehenden Traffic oder API-Anfragen. Die einfache Handhabung und Preisgestaltung scheint gut anzukommen. Vor kurzem konnten mit Bechtle und TIM zwei wertvolle Partner für den Vertrieb der Lösungen in Deuutschland, Österreich und der Schweiz gewonnen werden.
Doch nicht nur die Cloud-Anbieter profitieren von dem wachsenden Storage-Bedarf. Auch die Hersteller klassischer Festplatten wünschen sich eine Fortsetzung des Cloud-Booms mit KI. Eine aktuelle Studie von Seagate zeigt, dass, fast zwei Drittel der Unternehmen, die ihre Daten hauptsächlich in der Cloud speichern, in den nächsten drei Jahren mit einer Verdoppelung ihres Speicherbedarfs rechnen. HDDs bleiben dabei unverzichtbar, da sie große Datenmengen kosteneffizient speichern können. Etwa 89 Prozent der von führenden Cloud-Anbietern gespeicherten Daten befinden sich auf HDDs. Zudem sind 90 Prozent der Unternehmen überzeugt, dass eine längere Datenspeicherung die Qualität der KI-Ergebnisse verbessert. Daten bleiben das neue Gold – doch nur mit der richtigen Storage-Strategie lassen sich in der KI-Ära daraus echte Schätze heben.
Autor: Alexander Siegert
Die Kosten für Cloud-Speicher variieren je nach Speicherdauer und Zugriffsfrequenz. Echtzeitdaten, wie sie beispielsweise im Streaming oder bei IoT-Projekten anfallen, erfordern schnelle Speichermedien, die jedoch mit hohen Gebühren verbunden sind. Da diese Daten oft nur kurzfristig benötigt werden, lohnt sich eine gezielte Speicherverwaltung und eine detaillierte Kostenkontrolle.
Im Gegensatz dazu sind Daten, die über einen langen Zeitraum gespeichert, aber nur selten abgerufen werden, deutlich günstiger in der Cloud abzulegen. Cloud Service Provider bieten in der
Regel spezielle Tools an, mit denen Nutzer die Speicherdauer und die Zugriffshäufigkeit ihrer Daten genau analysieren und überwachen können. Auch ein kluges Tiering kann Kosten sparen. In der AWS-Cloud gibt es beispielsweise mit Amazon S3 Intelligent-Tiering eine Speicherklasse, die entwickelt wurde, um Speicherkosten zu optimieren, indem Daten automatisch basierend auf ihren Zugriffsmustern zwischen verschiedenen Zugriffsebenen verschoben werden. Die Speicherklasse eignet sich besonders für Daten mit unbekannten, wechselnden oder unvorhersehbaren Zugriffsmustern.
In einer Zeit, in der das globale Datenaufkommen exponentiell wächst und der Speichermarkt bis 2029 ein Volumen von über 100 Milliarden Dollar erreichen soll, gewinnt Managed Storage zunehmend an Bedeutung. Führende Anbieter positionieren sich mit innovativen Lösungen, die Unternehmen dabei unterstützen, ihre Datenspeicherung effizient und sicher zu gestalten.
So wie sich die IT-Landschaft ausweitet, so expandiert auch der Storage-Bedarf. Längst ist es oftmals rentabler, Speicherplatz auszulagern, als diesen selbst vorzuhalten, zu sichern und zu warten.
Doch auch bei Managed Storage gilt es, sich Gedanken darüber zu machen, welche Daten man auslagert, wohin man diese auslagert und welche Art von Managed Storage dafür am besten geeignet ist. Je nach Anbieter variieren die Benefits sowie die Service-Leistungen. Als einer der größten Infrastruktur-Dienstleister bietet Kyndryl drei zentrale Storage-Technologien in einer hybriden Multi-Cloud-Umgebung an. Hier sprechen wir von:
• 1. Block Storage, das sich für Datenbanken, virtuelle Maschinen oder containerisierte Anwendungen eignet,
• 2. File Storage für Architekturen, die eine gemeinsame Nutzung von Dateien über mehrere Server oder Benutzer hinweg erfordern und
• 3. Object Storage, das Daten als Objekte mit Metadaten und Identifikatoren speichert und sich somit für hoch skalierbare Speicherlösungen eignet.
Object Storage hat auch der Dienstleister SVA in seinem Portfolio und hostet dieses im Rechenzentrum in Deutschland. Der Schutz vor Ransomware und Datenverlust, anwendbar für jede Software, die eine S3-Schnittstelle hat, und Compliance-gerecht nach DSGVO, BSI C5 und ISO27001 ist – das sind für Kunden wichtige Argumente.
Eine weitere Storage-Variante hat OVHCloud im Portfolio – das Cold Archive, das sich für Langzeitarchivierung großer Datenmengen auf Magnetbandtechnologie anbietet und dadurch eine kosteneffiziente Lösung ist.
Für Kunden sind die zentralen Fragestellungen bei der Wahl eines Managed Storage:
„OVHclouds Cloud-Storage-Angebot für die Public Cloud umfasst unterschiedliche Optionen, die jeweils auf verschiedene Anforderungen zugeschnitten sind: Object Storage, Block Storage sowie Cold Archive.“
OVHcloud bietet Lösungen für die Public Cloud und die Private Cloud, Shared Hosting und Dedicated Server in 140 Ländern auf allen Kontinenten. OVHcloud wurde 1999 gegründet und ist ein französisches Unternehmen.
STORAGE-TECHNOLOGIEN
„Die Betreuung unserer Kunden erstreckt sich über die gesamte Wertschöpfungskette – von der strategischen Beratung über die Implementierung bis hin zum reibungslosen Betrieb der Plattformen.“
Kyndryl ist ein Unternehmen im Bereich der IT-Infrastruktur, das im September 2021 aus der Abspaltung eines großen Teils der bisherigen IBM entstand. Das Unternehmen ist in mehr als 60 Ländern aktiv und beschäftigt rund 90.000 Mitarbeiter.
• Skalierbarkeit und Flexibilität
• Kostenoptimierung
• Sicherheit und Zuverlässigkeit
„Unsere Managed-Storage-Services passen sich an die Bedürfnisse unserer Kunden an. Das ist durch unsere breite Palette an Speichertechnologien möglich. Durch den Einsatz synchron gespiegelte Systeme in mehreren Rechenzentren gewährleisten wir eine hohe Verfügbarkeit und eine robuste Datensicherung“, erläutert Raphael Bächle, Geschäftsführer Telemaxx.
Da die Wahl des richtigen Systems für Laien nicht so einfach ist, braucht es neben des Storage-Angebots selbst ergänzende Leistungen. Klaus Stephan, Cloud Practice, Kyndryl Deutschland: „Die Betreuung erstreckt sich über die gesamte Wertschöpfungskette, von der strategischen Beratung über die Implementierung bis hin zum Betrieb der Plattformen.“ Fähigkeiten, die
auch bei SVA im Mittelpunkt stehen. Ruben Meichsner, Cloud Architect Managed Services bei SVA: Unsere SVA Professional Services können auch vor Ort direkt bei der technischen und organisatorischen Anbindung unterstützen. So wird Managed Storage für Kunden jeglicher Größe attraktiv. Auch Stefan Schäfer, Head of International Product Marketing bei OVHCloud, betont: „Die gemanagten Storage-Angebote werden oft von Großkunden und großen Unternehmen wahrgenommen. Allerdings richtet sich die Produktpalette auch an kleinere Tech-Unternehmen, Startups und Mittelständler. Wir bieten Speicherlösungen für strukturierte und unstrukturierte Daten, die in Buckets, Dateien oder Blöcken gespeichert werden.“
Eine zentrale Rolle kommt den SicherheitsMaßnahmen zu. „Wir implementieren fortschrittliche Sicherheitsprotokolle, um Daten im Ruhezustand (Data at Rest) zu schützen. Außerdem unterstützen wir die Verwendung von Self-Encrypting Drives
„Mit garantierten Betriebszeiten und einem engagierten Support-Team stellen wir sicher, dass die Kundendaten jederzeit verfügbar sind.“
Die Telemaxx Telekommunikation GmbH ist Betreiber von vier Hochsicherheitsrechenzentren in der Region Karlsruhe. Telemaxx ist darauf spezialisiert, individuelle Rechenzentrumsflächen, Housing- sowie Managed-Service-Lösungen für die Anforderungen unserer Geschäftskunden zu realisieren.
Ruben Meichsner,
„Object Storage von SVA kann für alle Anwendungsfälle mit S3-kompatibler Schnittstelle eingesetzt werden wie Backup, Archivierung, SaaS, IoT und Big-Data-Analysen. Dabei bietet SVA die Möglichkeit, in Schritten von 1 TB, flexibel sowohl ein Upscaling als auch ein Downscaling vorzunehmen.“
SVA ist ein deutscher IT-Dienstleister und beschäftigt mehr als 3.300 Mitarbeiter an 28 Standorten.
(SED), die eine Hardware-basierte Verschlüsselung bieten“, führt Bächle aus. „Zusätzlich können Kunden weitere Maßnahmen ergreifen, beispielsweise die Implementierung von Firewalls.“
Reversibilität nennt Schäfer von OVHCloud als einen weiteren wichtigen Punkt: „Kunden können jederzeit mit ihren Daten in die Cloud hinein, aber auch wieder herausgehen und sie beispielsweise in eine andere Cloud exportieren. Damit werden Vendor-Lock-in-Effekte vermieden und Kunden behalten die Wahlfreiheit.“ Kyndryl nennt als Alleinstellungsmerkmal die Kyndryl Bridge. Diese offene Integrationsplattform soll vollständige Transparenz der IT-Umgebung bieten. Hier werden alle relevanten Informationen und Berichte gebündelt, wodurch Managed Services flexibel angepasst werden können. Falls es doch einmal hakt, helfen SLAs. Bei SVA erhält beispielsweise jeder Kunde seinen eigenen Ansprechpartner, und ein ITIL-konformer Servicedesk steht 24x7 zur Verfügung.
Als Bezahlmodi haben sich flexible Modelle durchgesetzt. OVHCloud bietet ein Pay-as-yougo-System, ebenso wie die Telemaxx, die das „Pay for what you get“ nennt. Und Kyndryl erläutert:
„Durch den Einsatz Opex- statt Capex-basierter Modelle werden Fixkosten reduziert, indem nur für die tatsächlich genutzte Storage-Infrastruktur gezahlt wird.
Fazit: Managed Storage entwickelt sich zu einem strategischen Enabler für die Digitale Transformation. Die Kombination aus Sicherheit, Flexibilität und Kosteneffizienz macht diese Lösungen für Unternehmen aller Größenordnungen attraktiv. Dabei zeigt sich: Der Erfolg liegt nicht nur in der technologischen Exzellenz, sondern auch in der Fähigkeit, maßgeschneiderte Lösungen anzubieten, die sich nahtlos in bestehende Infrastrukturen integrieren lassen. Die Anbieter reagieren auf diese Anforderungen mit innovativen und zukunftsorientierten Konzepten und Services, die über die reine Speicherbereitstellung hinausgehen. Für Unternehmen bedeutet dies: Sie haben die Wahl zwischen verschiedenen qualifizierten Anbietern, die jeweils eigene Stärken in die Waagschale werfen.
Machen Sie Ihre Kunden NIS2-Ready mit ESET Technologien aus der Europäischen Union
eset.de/nis2
Immer größer, immer schneller: Das anhaltende Datenwachstum und die Nachfrage nach immer schnellerem Storage, vor allem für KI, treibt die Entwicklung bei SSDs und HDDs voran. Das sind die aktuellen Technologietrends.
Bis zu 150 Petabyte an Daten werden in großen Unternehmen im Schnitt gespeichert, so eine Studie von Hitachi Vantara. Bis 2026 soll sich diese Datenmenge noch verdoppeln. KI-Anwendungen sind ein wesentlicher Treiber für dieses Datenwachstum. Um dieser Datenflut Herr zu werden, sind vor allem Speichermedien mit sehr hoher Kapazität nötig, denn ständig neue Rechenzentren zu bauen, ist auf Dauer keine Option. Aber die Entwickler von Speichermedien wie SSDs und auch HDDs stellen sich dieser Herausforderung.
Einige Hersteller von Storagesystemen wie Pure Storage und neuerdings auch IBM läuten der HDD bereits das Totenglöckchen. Tatsächlich erleben HDDs durch die Cloud und auch den KI-Boom gerade einen Höhenflug, da SSDs bei den Kosten pro TB immer noch um ein Vielfaches teurer sind und die HDD-Performance für einen großen Teil des Datenbestands gut ausreicht. Allerdings muss die Kapazität bei Festplatten weiter wachsen, damit sie im Rennen bleiben können. Eine wichtige Entwicklung ist dabei HAMR (Heat Assisted Magnetic Recording). Seagate hat diese HAMR mit der Mozaic-3+-Technologie inzwischen in die Serienfertigung gebracht und erreicht bei SMR-
Platten aktuell 3,6 TB pro Platter. Im Labor laufen bei dem Hersteller bereits Magnetscheiben mit einer Kapazität von mehr als sechs TB, so Seagate. Western Digital hat bisher betont, dass die Zeit für HAMR noch nicht reif sei und stattdessen auf ePMR und OptiNAND für die Kapazitätssteigerung setze. Inzwischen ist HAMR auch hier auf der Roadmap: Ende 2026 sollen die ersten HDDs serienreif sein und mit UltraSMR bis 44 TB erreichen. Bei CMR-Platten peilt der Hersteller bis zu 36 TB an. Auch organisatorisch zeigt sich bei Western Digital, dass man an die Zukunft der Festplatte glaubt: Seit Ende Februar ist man wieder ein reiner HDD-Hersteller. Die bisherige Tochter Sandisk übernimmt als wieder eigenständiger Hersteller das Flash-Geschäft. Toshiba, der dritte Hersteller von HDDs, plant bereits dieses Jahr die Produktion von HAMR-HDDs als Samples. Bisher nutzte die Firma FC-MAMR mit Microwellen statt Laser für eine höhere Speicherdichte.
Mehr als 100 TB Kapazität soll ab 2030 die HDMRTechnologie (Heat Dot Magnetic Recording) ermöglichen, an der sowohl Western Digital als auch Seagate arbeiten. Sie kombiniert das Laser-unterstützte Schreiben der Daten bei HAMR mit BPM
Die Weiterentwicklung der HAMR-Technologie Mozaic 3+ von Seagate ermöglicht nun Exos-Festplatten mit 36 TB Kapazität bei 10 Plattern. In der Entwicklung laufen bereits Platter mit 6 TB für 60-TB-Festplatten.
(Bit Patternd Media). Dabei werden die Daten nicht mehr in einem Film aus unregelmäßigen Magnetpartikeln gespeichert, sondern in einer regelmäßigen Struktur aus sogenannten Inseln, die mit einem lithografischen Verfahren auf der Oberfläche der Platter erzeugt werden. Das soll die Flächendichte dramatisch steigern, erfordert aber präzisere Laser.
Eine höhere Kapazität bei SSDs wird derzeit primär über zusätzliche Lagen mit Speicherzellen erreicht. Auf der International Solid-State Circuits Conference (ISSCC) haben Kioxia und Sandisk ihre zehnte TLC-3D-NAND-Generation mit 332 Layern vorgestellt. Durch die zusätzlichen Layer und eine höhere planbare Dichte der Speicherzellen will man die Bitdichte gegenüber BiCS 8 mit 218 Layern um insgesamt 59 Prozent gesteigert haben. Zum Einsatz kommt dabei, wie schon bei BiCS 8, die von beiden Unternehmen entwickelte CBA-Technologie (CMOS directly Bonded to Array). Zudem soll die NAND-Schnittstellengeschwindigkeit um 33 Prozent auf nun 4,8 Gbps zugelegt haben. Samsung will diese Werte mit der ebenfalls auf der ISSCC präsentierten VNAND-V10-Technologie noch deutlich übertreffen. Das Unternehmen zeigte auf der Konferenz einen TLC-NAND-Speicher mit mehr als 400 Layern und einem nochmals höheren Datendurchsatz. Laut ZDNet Korea soll Samsung dafür
ein Hybrid-Bonding-Patent des chinesischen Herstellers YMTC nutzen. Sowohl Kioxia als auch Samsung haben sich 3D-NAND mit 1.000 Lagen als Ziel gesetzt. QLC-NAND kommt durch die Bit pro Zelle mit weniger Lagen aus und ist damit günstiger. Allerdings sind QLC-SSDs konstruktionsbedingt langsamer und weniger haltbar. Etliche Hersteller von Storage-Systemen wie IBM und Pure Storage nutzen die Speicher trotzdem für Appliances mit hoher Kapazität, da sie die Nachteile durch ein intelligentes Management der Speicherzellen ausgleichen können. PLC-Flash (Penta Level Cell) kann noch höhere Speicherdichten erreichen. Allerdings hört man von PLC zuletzt weniger, da eine hohe Haltbarkeit und Performance hier noch schwieriger zu erreichen sind.
Mehr unter: https://voge.ly/mozaic3+/
Autor: Klaus Länger
SCHNELLERE SSDS MIT PCIE GEN6
Gerade bei SSDs kommt es nicht nur auf die Kapazität, sondern auch auf die Performance an. Denn sie werden als Datenträger für Speichersysteme verwendet, die für Anwendungen genutzt werden, die einen sehr hohen Datendurchsatz und eine minimale Latenz benötigen. Ein wichtiger Faktor dafür ist die Schnittstellengeschwindigkeit. Micron hat im August 2024 die erste DatacenterSSD mit PCIe-Gen6-Interface präsentiert, die seinerzeit laut dem Hersteller beim sequenziellen Lesen bis zu 26 GB/s erreichen sollte, doppelt so viel wie bei den schnellsten PCIe-Gen-5-Modellen. Auf der DesignCon 2025 Anfang März in Santa Clara zeigte Micron die PCIe-Gen6-SSD gemeinsam mit
Astera Labs in Aktion. Dabei wurden zwei MicronSSDs mittels eines Scorpio P-Series Fabric Switch von Astera mit einem CPU-Host und einer Nvidia-H100-GPU verbunden. Mittels GPUDirect Storage (GDS), einem Teil von Nvidias MagnumIO-Software-Stacks für das Datacenter, wurde ein direkter Datenpfad zwischen den SSDs und der H100-Karte aufgebaut und mit einer Leseperformance von rund 27 GB/s die von Micron genannte Performance sogar noch übertroffen. PCIExpress 6.0 ermöglicht auf 16 Lanes einen bidirektionalen Durchsatz von bis zu 256 GB/s und ist damit der Schlüssel zu noch schnelleren KISystemen mit zukünftigen CPUs und GPUs.
Im KI-Kontext werden Datenmanager vor neue Herausforderungen gestellt. Gerne wird auf eine Reihe von Open-Source-Technologien zurückgegriffen, um die Vorteile eines Data Lakes mit dem eines Data Warehouses zu verknüpfen.
Unstrukturierte Daten sind auf dem Vormarsch. Sie sind der Stoff, aus dem die vielzitierte „Datenflut“ besteht. Darunter fallen Daten, die nicht in normalisierter Datenstruktur vorliegen, wie beispielsweise Datensätze von Bestandskunden. Vielmehr sind damit Texte, Bilder oder Audio- und Videodateien gemeint. Im Big-Data-Umfeld gilt die Faustregel, im Zweifel nicht zu löschen, denn was noch alles für Schätze aus den Daten gezogen werden kann – sei es durch GenAI oder KIgestützte Business Intelligence mit einem größeren Fokus auf Zahlen – ist nach gängiger Meinung unter den Data Scientists noch nicht absehbar.
„Halbstrukturierte Daten“ spielen auch noch eine große Rolle. Das sind Datensätze, die nicht in Zellen oder Spalten gegliedert vorliegen, jedoch Elemente enthalten, die beim Auswerten das Trennen von Feldern und Datensätzen erleichtern. Dies können Kommas, Doppelpunkte oder andere Separatorenzeichen sein, die zu diesem Zweck eingefügt wurden.
Diese Daten zu managen und zu orchestrieren, ist eine wichtige Aufgabe, wenn mit ihnen – beispielsweise in einem KI-Kontext – gearbeitet wer-
den soll. Eine möglichst granulare Verwaltung unstrukturierter Dateien und Metadaten ist dabei hilfreich und vor diesem Hintergrund gewinnen Konzepte rund um Data Lakes, Data Warehouses und hybride Formen wie „Data Lakehouses“ an Bedeutung unter Datenbankverantwortlichen.
Künstliche Intelligenz benötigt unstrukturierte und halbstrukturierte Daten, da diese nicht nur für das Training von Modellen essenziell sind, sondern auch für die Analyse, das Erkennen von Mustern und die Generierung neuer Erkenntnisse. Textdokumente, Bilder, Videos oder Sensordaten enthalten oft wertvolle Informationen, die klassische Datenbanken nicht erfassen können. Halbstrukturierte Formate wie JSON, XML oder Log-Dateien bieten zudem eine flexible Grundlage für automatische Zusammenfassungen, Anomalieerkennung und datengetriebene Entscheidungsfindung.
Data Warehouses sind für strukturierte Daten optimiert, wodurch sie für viele KI-Anwendungsfälle zu eingeschränkt sind. Data Lakes speichern große Mengen heterogener Daten, jedoch oft ohne klare Strukturen oder effiziente Abfrage-Me -
KI ist der Grundstein für unsere nächste Ära. Grundlage für KI sind Daten und Grundlage für gute Daten sind vertrauenswürdige Datenspeicher.
Massenspeichersysteme: skalierbare und sichere Datenaufbewahrung.
Die Endlosschleife der KI-Daten.
6 DATEN WIEDERVERWENDEN
Quell-, Modell- und Inferenzdaten sind der Ausgangspunkt für die nächsten Anstrengungen.
Arbeitsspeicher- und Speichertechnologien wie DRAM, Festplatten und SSDs spielen im gesamten KI-Datenworkflow eine entscheidende Rolle. Jeder Schritt erfordert eine optimierte Kombination dieser Geräte, um die Leistungs- und Skalierbarkeitsanforderungen der jeweiligen Workload zu erfüllen.
DATEN BESCHAFFEN
Am Anfang steht das Definieren, Finden und Aufbereiten der Daten.
INHALTE SPEICHERN
Bei der Iteration entstehen neue, validierte Daten, die gespeichert werden müssen.
DATEN SICHERN
Replizierte Datensätze werden über Regionen und Umgebungen hinweg aufbewahrt.
Nutzen Sie das volle Potenzial Ihrer Daten
Lyve Cloud Object Storage: Immer verfügbar. Immer sicher.
MODELLE TRAINIEREN Als Nächstes lernt das Modell durch Training mit gespeicherten Daten.
Lyve Mobile: Daten nach Belieben speichern und transportieren
Seagate hat mehr als 45 Jahre Erfahrung im Bereich Speicherlösungen und -Services. Sie bieten die notwendige Kapazität, Sicherheit und Effizienz, um die wachsenden Anforderungen datengetriebener Prozesse zu erfüllen. Mit Seagate entfalten Daten ihr volles Potenzial – weil leistungsfähiger Speicher die Basis für die Zukunft ist seagate.com
chanismen. Das Data Lakehouse kombiniert die Skalierbarkeit von Data Lakes mit der strukturierten Verwaltung und Abfrageleistung von Data Warehouses.
Durch ACID-Transaktionen (Atomicity, Consistency, Isolation, Durability), Schema-Management und optimierte Abfrage-Engines ermöglichen Lakehouse-Architekturen KI-gestützte Analysen in Echtzeit. KI kann dabei Muster erkennen, Daten automatisiert kategorisieren, Trends vorhersagen und wertvolle Erkenntnisse für Unternehmen generieren, wodurch datengetriebene Prozesse erheblich verbessert werden.
Insbesondere im KI-Kontext spielt das Data Lakehouse als hybride Datenarchitektur die Vorteile eines Data Lakes und eines Data Warehouses kombiniert aus. Die da wären: Während ein Data Lake eine hochskalierbare, kosteneffiziente Speicherung von Rohdaten in verschiedenen Forma-
Der Begriff ACID (Atomicity, Consistency, Isolation, Durability) beschreibt Regeln und Eigenschaften zur Durchführung von Transaktionen in Datenbankmanagementsystemen. Hält die Transaktion das ACID-Prinzip ein, sind die Daten konsistent.
GenAI beziehungsweise Generative KI ist jede Art von Künstlicher Intelligenz, die in der Lage ist, eigenständig neuen Inhalt zu erstellen.
Apache Iceberg ist ein Open-Source-Tabellenformat. Es wurde ursprünglich von Netflix entwickelt, um Herausforderungen großer Datenmengen in Apaches Hive-Hadoop-Projekt zu bewältigen.
Auf Open-Source-Basis können Datenmanager ein Data Lakehouse realisieren.
ten ermöglicht, bietet ein Data Warehouse optimierte Strukturen für analytische Abfragen und Geschäftslogik.
Das Lakehouse-Konzept adressiert die Herausforderungen klassischer Data Lakes, insbesondere die mangelnde Datenkonsistenz und Abfrageperformance, indem es ACID-Transaktionssicherheit, Schema-Enforcement und Indexierung integriert. Dadurch können strukturierte, semi-strukturierte und unstrukturierte Daten in einem einzigen System verwaltet werden, ohne auf die Vorteile der Architekturtypen verzichten zu müssen.
Moderne Lakehouse-Implementierungen basieren oft auf Open-Source-Technologien wie Apache Iceberg, Delta Lake oder Apache Hudi und nutzen skalierbare Cloud-Storage-Systeme. Sie ermöglichen SQL-basierte Analysen, Machine Learning und Streaming-Datenverarbeitung direkt auf den Rohdaten, ohne aufwendige ETL-Prozesse in ein separates Warehouse. Dies führt zu geringeren Latenzen, reduzierten Kosten und einer flexibleren Datenverwaltung für analytische Workloads.
Beides ist das neue Entweder-oder: Aus einem Data Lake und einem Data Warehouse wird das Data Lakehouse.
Autor: Dr. Stefan Riedl
Delta Lake ist eine optimierte Speicherschicht, die eine Grundlage für Tabellen in einem Lakehouse auf Databricks bietet.
Apache Hudi ist der Name eines Open-SourceFrameworks zum Speichern und Managen von Daten großer Data Lakes im Petabyte-Bereich.
Extract, Transform, Load (ETL) ist ein Prozess, bei dem Daten aus mehreren, gegebenenfalls unterschiedlich strukturierten Datenquellen in einer Zieldatenbank vereinigt werden. Das Verfahren gibt einen Prozess zur Informationsintegration beim Austausch von Daten vor.
Kapazitäten
1 TB - 24 TB
Big Data geht einher mit einem erhöhten Bedarf an verteiltem lokalem und Cloud-Speicher, daher müssen die Server- und Speichersysteme in Unternehmen auf bewährten Lösungen basieren. Die Enterprise Capacity Hard Drive – MG Series von Toshiba bietet eine formatierte Kapazität von bis zu 24 TB und als Schnittstellenoptionen SATA und SAS. Die Geräte sind für den durchgängigen Betrieb ausgelegt, bei einem Workload von 550 TB pro Jahr. Damit eignet sich die MG-Serie für Speicher-Arrays der Enterprise-Klasse sowie industrielle Server- und Speichersysteme. Mit ihrer Kapazität und hochmodernen Technologie erfüllt sie die besonderen Anforderungen von Rechenzentren und Infrastrukturen der Cloud-Klasse.
Top Features Für
3,5‘‘-Festplatte (SATA oder SAS)
7.200 rpm
„Persistent Write Cache“-Technologie
Workload: 550 TB/Jahr
Flexibel bei der Blockgröße
24/7-Betrieb
5 Jahre Garantie
Enterprise Server
Enterprise Storage
Cloud-Systeme und hyperskalierbare Speichersysteme
Archive Systeme
Industrielle Server- und Speichersysteme
Rasantes Datenwachstum durch KI-Anwendungen beflügelt den Storage-Markt. Um die Datenflut zu bewältigen, benötigen Unternehmen leistungsfähige, flexible und kostengünstige Speicherlösungen.
Dank Künstlicher Intelligenz werden heute mehr Daten generiert als je zuvor. So soll, nach einer Schätzung der International Data Corporation, das digitale Datenvolumen bis 2027 auf 284 Zettabyte steigen. Und allein in Deutschland soll nach Schätzungen von Statista der Umsatz mit Speicherlösungen 2025 rund 2,5 Milliarden Euro betragen. Ein Großteil der Storage-Systeme entfällt auf die Cloud. Wer als Unternehmen seine Daten aber lieber in einer Private Cloud oder bei kleineren Datenmengen lieber lokal speichert, kann zu einem Network Attached Storage System (NAS) greifen.
Für kleine Unternehmen, Handwerksbetriebe oder Soloselbstständige bieten NAS-Systeme Vorteile. Wer zum Beispiel als Influencer laufend Videos produziert und schnell darauf zugreifen will, ist mit einem NAS gut bedient. Schließlich zeichnen sie sich durch schnelle Zugriffszeiten und hohe Bandbreite aus – dank 10-Gigabit-Ethernet-Anschluss. Denkbar sind auch unterschiedliche hybride Modelle, die sowohl lokale als auch Cloudbasierte Ressourcen kombinieren. Sie punkten dank Cloud-Anbindung durch hohe Flexibilität, nahezu unbegrenzte Skalierbarkeit und Sicherheit. Allerdings glauben laut einer Bitkom-Studie Dreiviertel der befragten Unternehmen, die Cloud
sei zu teuer. Für 64 Prozent der Studienteilnehmer stellt die Cloud ein Sicherheitsrisiko dar.
Das QNAP TS-433eU ist für KMU konzipiert, die nach erschwinglichen Speicher- und Sicherheitslösungen suchen. Das ARM-basierte Speichersystem mit NPU-Beschleunigung (Neural Processing Unit) belegt nur eine Höheneinheit im Rack und hält vier Einschübe bereit. Als Basis dient die 64-Bit-CPU ARM Cortex A55 mit 2 Gigahertz Taktfrequenz und integrierter Mali-G52-GPU sowie Unterstützung für AES-Hardware-Verschlüsselung. Als Hauptspeicher sind 4 GB RAM verbaut, die nicht erweitert werden können. Weitere 4 GB sind als Flash-Speicher an Bord, die dank zweier Partitionen ein Failover des Betriebssystems ermöglichen.
In den vier Hot-Swap-fähigen Einbauschächten finden 2,5- oder 3,5-Zoll-SATA-Festplatten oder -SATA-SSDs Platz. Anschluss findet das NAS über zwei eingebaute 2,5-Gigabit-Ethernet-Ports, die SMB-Multichannel und Portbündelung gestatten. Zwei USB-3.2-Gen1-Typ-A-Ports erlauben den Anschluss weiterer Speichergeräte. Laut Hersteller verbraucht das Gesamtsystem rund 80 Prozent weniger Energie als vergleichbare x86-basierte NAS-Modelle. Mit einer Tiefe von nur 29,2 cm eig-
net sich das NAS auch für Umgebungen mit begrenztem Platzangebot. Zum Funktionsumfang zählen unter anderem Backups verschiedener Quellen, Fernsicherungen auf andere Systeme oder in die Cloud, Snapshots oder der Betrieb von DockerContainern.
Für kleine Büros oder Privatnutzer ist die BeeStation von Synology gedacht. Die Speicherlösung soll die Lücke zwischen den Produktlinien BeeDrive und DiskStation schließen. In der BeeStation werkelt ein Realtek-RTD1619B-Prozessor mit 1,7 Gigahertz Taktfrequenz und vier Kernen. Als Arbeitsspeicher ist ein GB DDR4-RAM an Bord. Ebenfalls integriert ist eine 4-Terabyte-Festplatte. Und mit 8 Terabyte arbeiten soll die auf der CES 2025 vorgestellte BeeStation Plus. Anschluss findet das System per Gigabit-Ethernet oder via USB-C- und USB-A-Port. An Browsern werden Chrome, Firefox, Edge und Safari unterstützt. Desktop-Systeme sind ab Windows 10 oder macOS 12.3 kompatibel. Mobile Apps stehen für iOS und Android bereit. Der 148 mm x 62,6 mm x 196,3 mm (H x B x T) große Speicher wiegt weniger als ein Kilogramm (820 g).
Mit der NASync iDX6011 und der NASync iDX6011 Pro hat Ugreen auf der CES 2025 die ersten Geräte der KI-NAS-Reihe vorgestellt. Dank integrierter Large Language Models (LLM) unterstützen sie die Verarbeitung natürlicher Sprache und die unterschiedlichsten KI-gesteuerten interaktiven Funktionen. Angetrieben wird das NASync iDX6011 von dem Core-Ultra-5-Prozessor 125H von Intel, der über 14 Kerne, 18 Threads und eine Turbofrequenz von 4,5 GHz verfügt. Dazu gibt es bis zu 64 GB DDR5 RAM. Laut Ugreen verfügt die NAS über ausreichend Leistung auch für datenintensive Anwendungen wie Videobearbeitung oder umfangreiche Sicherungen oder Multitasking. Über die beiden Thunderbolt-4-Anschlüsse sind theoretische Übertragungsraten von bis zu 40 Gbps pro Anschluss verfügbar. Große Video- oder Design-Dateien sollen so im Handumdrehen übertragen werden. Das beschleunige und vereinfache Arbeitsabläufe. Ebenfalls verfügbar sind zwei 10GbE-Netzwerk-
anschlüsse mit maximalen Übertragungsraten von bis zu 2500 MB/s. Mit der integrierten KI-Chat-Funktion ist es darüber hinaus möglich, per Sprachbefehl Dateien auf dem NAS einfach aufzustöbern. Erkannt werden zum Beispiel Bilder über eine Beschreibungen wie „Partybilder“.
Als Festplatte in NAS-Umgebungen konzipiert ist darüber hinaus die 26TB WD Red Pro HDD von Western Digital. Die bis zu 26 TB große Festplatte ist für den 24-Stunden-Betrieb auch für anspruchsvollen Workloads ausgelegt. Für mehr Effizienz kommt dabei die OptiNAND-Technologie des Herstellers zum Einsatz. Zudem soll die Festplatte zuverlässig arbeiten und eine MTBF (Mean Time Between Failures) von 2,5 Millionen Stunden bieten. Das Workload-Rating liegt bei 550 Terabyte pro Jahr. Dabei arbeitet das Laufwerk mit 7.200 Umdrehungen pro Minute und verfügen über 512 Megabyte Cache-Speicher. Die Übertragungsraten der 3,5-Zoll-SATAPlatte liegen bei bis zu 272 MB/s.
Die BeeStation von Synology arbeitet mit einer 8 Terabyte großen Festplatte.
NAS-Geräte lohnen sich vor allem für kleinere Unternehmen, die schnell auf ihre Daten zugreifen wollen.
Autor: Margrit Lingner
Die Menge digitaler Daten wächst exponentiell und Unternehmen stehen vor der Herausforderung, diese riesigen Datenmengen effizient zu verwalten, um Sicherheit, Compliance und Produktivität zu gewährleisten.
Über Jahrzehnte hinweg haben sich viele Unternehmen unstrukturierte Datenbestände angelegt. Die Suche nach relevanten Informationen kostet laut einer Studie von SearchYourCloud Mitarbeitende im Schnitt 30 Minuten pro Tag. Dies führt nicht nur zu Frustration, sondern auch zu ineffizienten Arbeitsprozessen.
Zudem stellen Regularien wie die DSGVO und die NIS-2-Richtlinie hohe Anforderungen an die Datensicherheit. Unübersichtliche Datenbestände mit ungeklärten Zugriffsrechten erhöhen Sicherheitsrisiken und erschweren die Einhaltung gesetzlicher Vorgaben. Zudem entstehen durch unstrukturierte Daten speicher- und verwaltungstechnische Herausforderungen, die hohe Kosten verursachen. Fehlende Transparenz führt zu ineffizienter Nutzung vorhandener Ressourcen und kann sogar zu Rechtsverstößen führen.
„Um dem Datensumpf langfristig entgegenzuwirken, hilft es nur, alle unternehmensbezogenen Informationen und Fileserver von Grund auf zu strukturieren und ein ganzheitliches Datenmanagement zu implementieren“, so Thomas Gomell, Enterprise Architect bei migRaven. Doch wie geht man eine solche Mammutaufgabe richtig und vor allem langfristig nachhaltig an? Gomell rät zu folgenden Maßnahmen:
• Fileserver-Analyse: Unternehmen sollten ihre Datenbestände und Berechtigungen durchleuchten. Dabei lassen sich Sicherheitslücken aufdecken und Verantwortlichkeiten klären.
• Datenbereinigung/Clean-up: Mithilfe von Automatisierungs-Tools können irrelevante, doppelte oder veraltete Daten (sogenannte ROTDaten) identifiziert und archiviert oder gelöscht werden.
• Strukturierte Datenverwaltung: Die Implementierung klar definierter Zugriffsrechte und Archivierungsprozesse verbessert die Effizienz und die Sicherheit.
• Etablierung eines einheitlichen Datenstandards: Unternehmen profitieren von einheitlichen, gut dokumentierten Standards für die Datenerfassung und -speicherung. Dies erleichtert nicht nur den Zugriff, sondern stellt auch sicher, dass unterschiedliche Abteilungen nahtlos zusammenarbeiten können.
Laut einer Studie des Digitalverbands Bitkom schöpfen 60 Prozent der Unternehmen hierzulande ihre Daten kaum oder gar nicht aus. Laut Bitkom-Präsident Dr. Ralf Wintergerst ein alarmierendes Zeichen: „Daten und ihre Nutzung sind entscheidend für die künftige Wettbewerbsfähigkeit. Zukunftstechnologien wie Künstliche Intelligenz entfalten erst dann Wirkung, wenn sie die nötigen Daten verwenden können.“ Besonders für Künstliche Intelligenz ist eine systematische Datenstrategie essenziell, da deren Leistungsfähigkeit direkt von der Datenqualität abhängt.
Ein Problem dabei ist der sogenannte „DatenDrift“, also die Veränderung von Datenverteilun-
Du hast die DSX verpasst?
Dann sei am 24.9.2025 digital dabei!
Jetzt kostenfrei anmelden: www.dsxconference.de/anmeldung
Wer beispielsweise in der KI-Ära erfolgreich sein will, muss seine Daten gut verwalten.
gen im Laufe der Zeit. Dies kann die Genauigkeit von KI-Modellen beeinträchtigen. Um dem entgegenzuwirken, sollten Unternehmen kontinuierliche Überwachungssysteme einrichten, die Abweichungen in der Datenverteilung frühzeitig erkennen, rät Ekk-Cierniakowski, Senior Manager für Artificial Intelligence & Machine Learning bei SoftwareOne.
Außerdem können Unternehmen durch die gezielte Analyse ihrer Daten verborgene Muster und Trends erkennen, um Geschäftsprozesse zu optimieren und fundierte Entscheidungen zu treffen. Beispielsweise ermöglichen datenbasierte Einblicke eine präzisere Vorhersage von Kundenbedürfnissen und Marktveränderungen, was die Wettbewerbsfähigkeit steigert.
Ein weiteres Problem ist die mangelnde Abstimmung zwischen IT- und Fachabteilungen. Unterschiedliche Prioritäten und Kommunikationsbarrieren führen zu ineffizienten Prozessen und
FAZIT:
Ein intelligentes Datenmanagement optimiert Arbeitsabläufe, verbessert die Datensicherheit und erhöht die Innovationsfähigkeit. Unternehmen, die ihre Daten effektiv nutzen und sichern, schaffen nicht nur die Grundlage für gesetzeskonforme Prozesse, sondern gewinnen auch einen entscheidenden Wettbewerbsvorteil. Die Kombination aus technischer Innovation, durchdachter Strategie und einer starken Sicherheitskultur stellt sicher, dass Unternehmen langfristig erfolgreich bleiben und sich in einem zunehmend datengetriebenen Markt behaupten können.
Sicherheitsrisiken. Die Konsolidierung von Datenplattformen und ein unternehmensweiter Sicherheitsansatz können helfen, diese Kluft zu überwinden. „Eine umfassende Zusammenarbeit zwischen IT- und Fachbereichen ist der Dreh- und Angelpunkt, um gleichzeitig den Datenschutz zu stärken und neue Wege für Innovation und Wachstum zu finden“, so Benjamin Bohne, Group Vice President Sales CEMEA bei Cloudera.
Der Aufbau funktionsübergreifender Teams, die sowohl IT- als auch Geschäftsanforderungen berücksichtigen, ist ein essenzieller Schritt, um diese Zusammenarbeit zu verbessern. Durch regelmäßige Workshops und klare Kommunikationsstrukturen lassen sich Missverständnisse im Team minimieren und gemeinsame Strategien für ein nachhaltiges Datenmanagement entwickeln.
Darüber hinaus sollten Unternehmen eine Sicherheitskultur etablieren, die Schulungen und eine abteilungsübergreifende Zusammenarbeit umfasst. „Die Basis hierfür ist die Förderung einer offenen Kommunikation und eines abteilungsübergreifenden Wissensaustauschs“, so Bohne. „Nur auf diese Weise steht das kollektive Fachwissen sowohl der IT- als auch der Fachabteilungen für alle bereit, um Sicherheitsbedrohungen wirksam zu begegnen. Funktionsübergreifende Sicherheitsteams, die Experten aus verschiedenen Abteilungen vernetzen, können weitaus schlagkräftiger Schwachstellen ermitteln, Präventivmaßnahmen umsetzen und allgemein auf Sicherheitsvorfälle reagieren.“
Mehr unter: https://voge.ly/dm-KI/
Autor: Heidi Schuster
Vogel IT-Medien GmbH
Max-Josef-Metzger-Straße 21, 86157 Augsburg
Tel. 0821/2177-0, Fax 0821/2177-150
eMail: it-business@vogel.de
www.it-business.de
Geschäftsführer:
Tobias Teske, Günter Schürger
Co-Publisher: Lilli Kos (-300), (verantwortlich für den Anzeigenteil)
Chefredaktion: Sylvia Lösel (sl)
(V.i.S.d.P. für redaktionelle Inhalte)
Chef vom Dienst: Heidi Schuster (hs), Ira Zahorsky (iz)
Leitende Redakteure:
Margrit Lingner (ml), Dr. Stefan Riedl (sr)
Redaktion: Mihriban Dincel (md), Klaus Länger (kl), Alexander Siegert (as)
Account Management:
Besa Agaj, David Holliday, Stephanie Steen
eMail: media@vogel.de
Anzeigendisposition:
Mihaela Mikolic (-204), Denise Falloni (-202)
Grafik & Layout: Carin Boehm, Johannes Rath, Udo Scherlin
Titelbild: Yeti Studio– stock.adobe.com / [M] Carin Boehm
EBV: Carin Boehm
Anzeigen-Layout:
Carin Boehm, Johannes Rath, Udo Scherlin
Leserservice / Abo: it-business.de/hilfe oder E-Mail an vertrieb@vogel.de mit Betreff „IT-BUSINESS“. Gerne mit Angabe Ihrer Kundennummer vom Adressetikett: *CS-1234567*
Zentrale Anlaufstelle für Fragen zur Produktsicherheit
Frank Schormüller, frank.schormueller@vogel.de, Tel. 0931/418-2184
Unsere Papiere sind PEFC-zertifiziert
Druck:
Vogel Druck- und Medienservice GmbH Leibnizstr. 5, 97204 Höchberg
Haftung: Für den Fall, dass Beiträge oder Informationen unzutreffend oder fehlerhaft sind, haftet der Verlag nur beim Nachweis grober Fahrlässigkeit. Für Beiträge, die namentlich gekennzeichnet sind, ist der jeweilige Autor verantwortlich.
Copyright: Vogel IT-Medien GmbH. Alle Rechte vorbehalten. Nachdruck, digitale Verwendung jeder Art, Vervielfältigung nur mit schriftlicher Genehmigung der Redaktion.
Manuskripte: Für unverlangt eingesandte Manuskripte wird keine Haftung übernommen. Sie werden nur zurückgesandt, wenn Rückporto beiliegt.
Vogel IT-Medien, Augsburg, ist eine 100prozentige Tochtergesellschaft der Vogel Communications Group, Würzburg, einem der führenden deutschen Fachinformationsanbieter mit 100+ Fachzeitschriften, 100+ Webportalen, 100+ Business-Events sowie zahlreichen mobilen Angeboten und internationalen Aktivitäten. Seit 1991 gibt Vogel IT-Medien Fachmedien für Entscheider heraus, die mit der Produktion, der Beschaffung oder dem Einsatz von Informationstechnologie beruflich befasst sind. Dabei bietet er neben Print- und Online-Medien auch ein breites Veranstaltungsportfolio an.
Die wichtigsten Angebote des Verlages sind IT-BUSINESS, eGovernment, Healthcare Digital, BigData-Insider, CloudComputing-Insider, DataCenter-Insider, Dev-Insider, IP-Insider, Security-Insider und Storage-Insider.
Kosten
Sie, welche Chancen sich für den
SANDISK PORTABLE SSDs
Mit bis zu 2000 MB/s schneller, robuster und energieeffizienter als vergleichbare portable Festplatten.
> Sandisk Extreme Pro Portable SSD
> Sandisk Extreme Portable SSD
©2025 Sandisk Corporation und Tochterunternehmen. Alle Rechte vorbehalten.