Gpus Zur Beschleunigung Des Nvme Speichers Im Raid Modus

GPUs zur Beschleunigung des NVMe-Speichers im Raid-Modus

Das Start-up Graid Technology nutzt die Rechenleistung von GPU-Karten der Einstiegsklasse für Workstations und beschleunigt Speicherressourcen auf Basis von NVMe-SSDs dank seiner dedizierten Software.

Live aus Palo Alto – Veteranen werden sich sicherlich an sehr spezialisierte Anbieter wie Matrox für Multi-Monitor-Management oder Adaptec für die Unterstützung von Raid-Systemen mit Festplatten im SCSI- oder IDE-Modus erinnern. Die Technologien haben sich weiterentwickelt und die Speicherkapazitäten sind explodiert, aber die Beschleunigung und der Wiederaufbau von Speicherressourcen ist immer noch von entscheidender Bedeutung für das Geschäft. Auch wenn der Einzug von SSDs und der NVMe-Schnittstelle die Performance von SANs und anderen NAS verzehnfacht hat, stehen das Performance-Management und ggf. die Rekonstruktion von Raid-Volumes immer noch im Mittelpunkt der Sorgen vieler Betreiber und Administratoren.

„Unternehmen geben viel Geld für SSDs aus, viel mehr, als sie am Ende für Streaming-Medien ausgeben würden, und sie können aufgrund des Drosselungsengpasses nicht die Leistung erzielen, die die Anbieter behaupten“, erklärte Tom Paquette, Vice President Americas und EMEA bei Graid Technology. Dieses 2020 von Leander Yu (CEO) mitgegründete Start-up hat einen Fuß in Taiwan (F&E) und den anderen im Silicon Valley in Santa Clara. „Bei einer herkömmlichen Raid-Karte – die einen ASIC nutzt – und nehmen wir an, vier NVMe-SSDs, die alle mit 7 Gb/s bewertet sind, muss der Datenfluss durch die Raid-Karte fließen, und letztere wird zu einem Engpass (max. 12 Gb/s). Es gibt keine Möglichkeit für eine herkömmliche Raid-Karte, die globale Bandbreite zu übernehmen und neu zu verteilen.“ Um dieses sehr spezifische Problem anzugehen, hat Graid eine Raid-Karte (0 bis 10) entwickelt, die auf Standard-Nvidia-GPUs für Workstations basiert, die mit den NVMe- und NVMe-over-Fabric-Protokollen arbeiten. “. Wir machen absolut nichts mit diesem Board, außer diese kleine Metallplatte darauf zu legen und die IO-Ports auf der Rückseite einzustecken. Wir nehmen die Leistung von dieser GPU und verwenden auch den KI-Chip innerhalb der GPU. Und wir schaffen es, 19 Millionen IOPS auf unserer PCI 4.0-Karte mit NVMe-SSDs zu verarbeiten, eingebettet in einen Server, der mit einem Xeon-Chip der dritten Generation ausgestattet ist.

Die A2000-Karte von Nvidia wird von Graid wiederverwendet, um im Raid-Modus (0 bis 10) mit NVMe-SSDs zu arbeiten. (Kredit-SL)

Broadcom und Intel als Konkurrenten

Bis zu 32 NVMe-SSDs werden von Graid-Karten unterstützt, dem SupremeRAID SR-1000 (basierend auf Nvidia T1000) auf der PCI 3.0-Schnittstelle ($2.500 HT) und dem SR-1010 (basierend auf A2000) mit PCI 4.0 ($3.995 exkl. MwSt.) . Ein Preis, der die Nvidia-GPU-Karte und die vom Start-up entwickelte Software (Dauerlizenz) beinhaltet. Eine PCI 5.0-Version wird für 2023 mit Unterstützung für das CXL-Protokoll und einer Öffnung für Composable Infrastructures erwartet. „Überlegene Software ist unsere geheime Zutat, die auf einer GPU sitzt und alle E/A ohne CPU-Eingriff verarbeitet. Es verbraucht also keine CPU-Zyklen. Wir nennen es Prüfpfad. Und wenn Sie speziell in der Wiedergabefunktion darüber nachdenken, sind wir ein Verkehrspolizist innerhalb des Servers und nutzen die gesamte GPU-Leistung – die aufgrund der Anzahl der Recheneinheiten, die diese haben, wirklich nicht ausgelastet ist (ca. 50 %). Karten haben“, stellte Leander Yu klar.

Graid liefert schmeichelhafte Ergebnisse, die durch unabhängige Tests verifiziert werden müssen. (Kredit-SL)

Zu den Konkurrenten von Graid gehören der Gigant Broadcom und sein ASIC-basiertes MegaRaid-Board, das ursprünglich für Festplatten entwickelt wurde. Es bietet 200.000 IOPS und unterstützt maximal vier NVMe-SSDs. Intel seinerseits bietet eine VROC-Softwarelösung für seine Motherboards an: Laut Tests von StorageReview erreicht sie 21.900 IOPS. Graid hebt eine Leistung von 750.000 IOPS für seine SR-1000-Karte und 1,5 Millionen für die SR-1010 (in Raid 5) hervor. „Wir verwalten die lokalen SSDs auf dem Server, aber wir können auch über das Netzwerk gehen und es ist uns egal, ob es sich um InfiniBand, Ethernet oder Fibre Channel handelt“, vervollständigt der Manager. Auf die Konkurrenz mit Karten befragt, die mit FPGA-Schaltkreisen oder DPUs ausgestattet sind, meint Tom Paquette, dass „Erste sehr teuer und sehr schwierig zu programmieren sind und Letztere für unseren Einsatz nicht leistungsfähig genug sind. Wir entwickeln nur Software und verwenden handelsübliche GPUs wie die von NVidia.“ Es laufen auch Gespräche mit Intel und AMD, um ihre GPUs zu nutzen. „Wir haben ausführlich mit Intel über ihre GPU gesprochen, falls es jemals dazu kommt. Wir werden unsere Software definitiv auf Intels GPU portieren, um Teil ihres Ökosystems zu sein. Wir denken, dass dies ein wichtiger Schritt für uns als Unternehmen ist. Wir haben auch mit AMD gesprochen, der wirklich an unserer Technologie interessiert war und was wir mit einer GPU machen können. Und sie stimmten zu, an einer massiven GPU zu arbeiten, die sie in eine HPC-Umgebung einbauen wollen.“

Arrow und Tech Data als Partner

Alle sechs bis sieben Monate veröffentlicht Graid ein Update seiner Software und fügt von Kunden gewünschte Funktionen hinzu. „Unsere Lösung ist viel flexibler als die auf ASIC- oder FPGA-Basis, weil die Rotation dieser Schaltungen keine leichte Aufgabe ist. Und wir werden bald bereit für die native Cloud sein, irgendwann im Jahr 2023. Ein französischer Player, OVH, ist an der Lösung interessiert. Equinix tut das auch, aber sie machen die Dinge ein wenig anders, da sie eine Vielzahl von Kunden bedienen. Noch im Rechenzentrumsteil werden 2023 Kubernetes und VMware unterstützt, und auch eine grafische Oberfläche für Windows ist weit fortgeschritten (nicht vor 2024). „Für Linux ist es nicht wirklich notwendig, weil die Leute unsere Befehlszeile mögen“, sagte uns Tom Paquette.

Composable ready, Graid wartet auf die Ankunft des CXL-Protokolls, um alle Ressourcen der PCI 5.0-Schnittstelle zu nutzen. (Kredit-SL)

Um seine Lösung zu verkaufen, arbeitet Graid mit Partnern wie Arrows und Anbietern wie WD und Gigabyte zusammen, das auch zu den Investoren des Start-ups gehört. „Wir sind Teil des Co-Marketing-Programms von WD und auch Teil von Intels: Network Builders. Arrows seinerseits begleitet uns in den USA, aber auch in Europa.“ Und Tech Data ist gerade Arrows beigetreten. „Wir werden mit ihnen sofort in Nordamerika beginnen. Wir haben letzte Woche buchstäblich bei ihnen unterschrieben. Und wir durchlaufen das Onboarding. Jetzt werden die Teilenummern in ihrem System angelegt. Wenn also jemand unsere Produkte kaufen möchte, kann er das tun.“ Andere Gespräche sind schwieriger, zum Beispiel mit HPE, während Lenovo mehr Interesse hat.

Ähnliche Beiträge