WEKA stellt WEKApod-Geräte der nächsten Generation vor, die die Wirtschaftlichkeit von KI-Speichern neu definieren
|
EQS-News: WEKA
/ Schlagwort(e): Produkteinführung
WEKApod Prime basiert auf AlloyFlash und bietet eine bahnbrechende Kosteneffizienz mit einem um 65 % besseren Preis-Leistungs-Verhältnis. WEKApod Nitro bietet eine beispiellose Leistungsdichte mit doppelt so hohen Geschwindigkeiten für anspruchsvolle KI-Workloads ST. LOUIS und CAMPBELL, Kalifornien, 19. November 2025 /PRNewswire/ -- Von SC25: WEKA, das KI-Speicherunternehmen, hat die nächste Generation seiner WEKApod™-Geräte angekündigt, die den traditionellen Kompromiss zwischen Leistung und Kosten auf den Kopf stellen sollen. Das komplett überarbeitete WEKApod-Prime-Gerät erzielt eine um 65 % bessere Preis-Leistungs-Bilanz, indem es Daten intelligent über gemischte Flash-Konfigurationen verteilt und so bahnbrechende Wirtschaftlichkeit ohne Kompromisse bietet. WEKApod Nitro verdoppelt die Leistungsdichte mit aktualisierter Hardware und ermöglicht es Unternehmen, Innovationen im Bereich KI und High-Performance-Computing (HPC) zu beschleunigen, die GPU-Auslastung zu maximieren und mehr Kunden zu bedienen. Durch sein Design mit höherer Dichte eignet es sich auch ideal für große Objektspeicher-Repositorys und KI-Data-Lakes, die kompromisslose Leistung erfordern. ![]() WEKApod-Geräte sind die einfachste und schnellste Möglichkeit, NeuralMesh™ von WEKA zu implementieren und zu skalieren, das weltweit einzige Speichersystem, das speziell für die Beschleunigung von KI in großem Maßstab entwickelt wurde. WEKApod bietet die softwaredefinierte Flexibilität von NeuralMesh in einsatzbereiten, vorab validierten Konfigurationen mit einem deutlich verbesserten Setup-Dienstprogramm und Plug-and-Play-Funktionalität. Unternehmen können mit nur acht Servern beginnen und bei wachsenden Bereitstellungen auf Hunderte skalieren, wodurch komplexe Integrationsarbeiten entfallen und gleichzeitig auf den kompletten Funktionsumfang von NeuralMesh zugegriffen werden kann – einschließlich verteilter Datensicherung, sofortiger Snapshots, Multi-Protokoll-Zugriff, automatisierter Tiering, Verschlüsselung und Hybrid-Cloud-Funktionen.
Die Krise der Infrastruktureffizienz
Die WEKApod-Familie der nächsten Generation geht diese geschäftlichen Herausforderungen direkt an. WEKApod Prime beseitigt den Zwang, zwischen Leistung und Kosten abzuwägen, und bietet eine um 65 % bessere Preis-Leistungs-Bilanz durch intelligente Datenplatzierung, die die Platzierung automatisch anhand der Workload-Eigenschaften optimiert – so wird sichergestellt, dass Schreibvorgänge ihre volle Leistung beibehalten und gleichzeitig bahnbrechende Wirtschaftlichkeit erzielt wird. Jetzt brauchen KI-Entwickler und Cloud-Anbieter keinen Kompromiss zwischen Leistung und Kosten mehr einzugehen WEKApod Prime: bietet einen einzigartigen Ansatz für die Mixed-Flash-Technologie, indem es TLC- und eTLC-Flash-Laufwerke intelligent in Konfigurationen kombiniert, die bis zu 20 Laufwerke in einem 1U-Rack oder 40 Laufwerke in einer 2U-Rack-Konfiguration unterstützen. Im Gegensatz zu herkömmlichen mehrstufigen Speicherlösungen, die Cache-Hierarchien, Datenbewegungen zwischen den Ebenen und Einbußen bei der Schreibgeschwindigkeit mit sich bringen, bietet AlloyFlash von WEKApod eine konsistente Leistung bei allen Vorgängen – einschließlich voller Schreibgeschwindigkeit ohne Drosselung – und erzielt dabei bahnbrechende Wirtschaftlichkeit. Keine Kompromisse, keine Einbußen bei der Schreibgeschwindigkeit, keine Cache-Hierarchien. WEKApod Prime wird bereits von führenden Pionieren im Bereich der KI-Cloud wie dem Danish Centre for AI Innovation (DCAI) eingesetzt. Das Ergebnis ist eine außergewöhnliche Dichte, die direkt auf die Ressourcenbeschränkungen von Rechenzentren eingeht: 4,6-mal bessere Kapazitätsdichte, 5-mal bessere Schreib-IOPS pro Rack-Einheit (im Vergleich zur vorherigen Generation), 4-mal bessere Leistungsdichte bei 23.000 IOPS pro kW (oder 1,6 PB pro kW) und 68 % weniger Stromverbrauch pro Terabyte bei gleichbleibender extremer Leistung, die KI-Workloads erfordern. Für schreibintensive KI-Workloads wie Training und Checkpointing bedeutet dies, dass der Speicher ohne Leistungseinbußen Schritt hält, die teure GPUs während kritischer Vorgänge ungenutzt lassen können. WEKApod Nitro: speziell für KI-Fabriken mit Hunderten oder Tausenden von Grafikprozessoren entwickelt wurde, bietet es eine doppelt so hohe Leistung und ein 60 % besseres Preis-Leistungs-Verhältnis durch verbesserte Hardware, darunter NVIDIA ConnectX-8 SuperNIC mit einem Durchsatz von 800 Gb/s und 20 TLC-Laufwerken in einem kompakten 1U-Formfaktor. Als schlüsselfertige NVIDIA DGX SuperPOD und NVIDIA Cloud Partner (NCP)-zertifizierte Geräte ersparen beide WEKApod-Konfigurationen wochenlange Integrationsarbeiten, sodass Unternehmen Kundenservices innerhalb von Tagen statt Monaten auf den Markt bringen können und gleichzeitig sicherstellen, dass die Speicherinfrastruktur mit den Beschleunigern der nächsten Generation Schritt hält. Messbare geschäftliche Auswirkungen von KI-Implementierungen
Anbieter von KI-Infrastrukturen sehen bereits direkte geschäftliche Auswirkungen dieser Innovationen: „Platz und Strom sind die neuen Grenzen der Innovation in Rechenzentren. Die außergewöhnliche Speicherdichte von WEKApod ermöglicht es uns, einen Datendurchsatz und eine Effizienz auf Hyperscaler-Niveau bei optimiertem Platzbedarf zu erzielen – und so mehr KI-Leistung pro Kilowatt und Quadratmeter freizusetzen", sagte Nadia Carlsten, CEO des Danish Centre for AI Innovation (DCAI). „Diese Effizienz verbessert direkt die Wirtschaftlichkeit und beschleunigt die Bereitstellung von KI-Innovationen für unsere Kunden." „KI-Investitionen müssen einen ROI nachweisen. WEKApod Prime bietet eine um 65 % bessere Preis-Leistungs-Bilanz ohne Einbußen bei der Geschwindigkeit, während WEKApod Nitro die Leistung verdoppelt, um die GPU-Auslastung zu maximieren. Das Ergebnis: Schnellere Modellentwicklung, höherer Inferenzdurchsatz und bessere Renditen für Investitionen in Rechenleistung, die sich direkt auf die Rentabilität und die Markteinführungszeit auswirken", so Ajay Singh, Chief Product Officer bei WEKA. „Netzwerke sind für die KI-Infrastruktur von entscheidender Bedeutung und verwandeln KI-Rechen- und Speicherkapazitäten in eine Denkplattform, die Token digitaler Intelligenz in großem Maßstab generiert und bereitstellt", sagte Kevin Deierling, Senior Vice President Networking bei NVIDIA. „Mit NVIDIA Spectrum-X Ethernet und NVIDIA ConnectX-8-Netzwerken als Grundlage für WEKApod unterstützt WEKA Unternehmen dabei, Datenengpässe zu beseitigen – was für die Optimierung der KI-Leistung von entscheidender Bedeutung ist." Verfügbarkeit WEKApod-Geräte der nächsten Generation sind jetzt verfügbar. Organisationen können mehr erfahren unter weka.io/wekapod oder WEKA auf der SuperComputing 2025, Stand Nr. 2215 besuchen. Informationen zu WEKA WEKA verändert die Art und Weise, wie Unternehmen KI-Workflows aufbauen, betreiben und skalieren – mit NeuralMesh™ by WEKA®, seinem intelligenten, adaptiven Mesh-Speichersystem. Im Gegensatz zu herkömmlichen Dateninfrastrukturen, die mit steigender Arbeitslast langsamer und anfälliger werden, wird NeuralMesh mit zunehmender Skalierung schneller, leistungsfähiger und effizienter. Es passt sich dynamisch an KI-Umgebungen an und bietet so eine flexible Grundlage für Unternehmens-KI und agentenbasierte KI-Innovationen. NeuralMesh genießt das Vertrauen von 30 % der Fortune-50-Unternehmen und unterstützt führende Unternehmen, KI-Cloud-Anbieter und KI-Entwickler dabei, GPUs zu optimieren, KI schneller zu skalieren und Innovationskosten zu senken. Erfahren Sie mehr auf www.weka.io oder verbinden Sie sich mit uns bei LinkedIn und X. WEKA und das W-Logo sind eingetragene Marken von WekaIO, Inc. Andere hier genannte Markennamen können Marken der jeweiligen Eigentümer sein. ![]() Foto - https://mma.prnewswire.com/media/2825279/PR_Next_Gen_WEKAPod_launch_ID_3f30ac2ba733.jpg
![]()
19.11.2025 CET/CEST Veröffentlichung einer Corporate News/Finanznachricht, übermittelt durch EQS News - ein Service der EQS Group. |
2232958 19.11.2025 CET/CEST



