banner
Heim / Blog / Google Cloud bringt A3-Supercomputer und benutzerdefinierte ASICs für KI auf den Markt
Blog

Google Cloud bringt A3-Supercomputer und benutzerdefinierte ASICs für KI auf den Markt

Jul 22, 2023Jul 22, 2023

Artikel / Nachrichten

Google Cloud stellte auf seiner Flaggschiff-Veranstaltung Next neue Verbesserungen der Cloud-Infrastruktur vor, die die steigende Nachfrage nach künstlicher Intelligenz (KI) unterstützen. Zu den Infrastrukturaktualisierungen gehören die neueste Generation von Tensor Processing Units (TPU) des Hyperscalers, die bevorstehende Verfügbarkeit seines A3-Supercomputers mit Nvidia H100-GPUs, Google Kubernetes Engine (GKE) für Unternehmen und eine neue globale Netzwerkplattform.

„In den letzten zwei Jahrzehnten stand Google wirklich an der Spitze der KI-Innovation – deren Grundlage natürlich unsere Infrastruktur ist“, sagte Mark Lohmeyer, Google Cloud VP und GM für Compute- und Machine-Learning-Infrastruktur, einer Gruppe von Teilnehmern Reporter. KI sei weiterhin ein wichtiger Mieter der Workload-optimierten Infrastrukturstrategie des Cloud-Anbieters, erklärte Lohmeyer.

KI-Workloads erfordern „einen integrierten und optimierten Software-Stack“, der in Verbindung mit „speziell angefertigter Hardware“ arbeitet, um „das völlig neue Niveau an Rechenanforderungen, das wir sehen“, zu unterstützen, sagte er und wies darauf hin, dass die Einführung von KI ein „ einmaliger Wendepunkt in der Informatik.“

Bis dahin pries Lohmeyer das umfangreiche Partner-Ökosystem von Google Cloud – und insbesondere die Zusammenarbeit mit Nvidia – als Möglichkeit des Hyperscalers, „das umfassendste KI-Infrastrukturportfolio aller Clouds“ bereitzustellen.

Google stellte seinen A3-Supercomputer mit Nvidia H100-GPUs erstmals im Mai vor und gab heute bekannt, dass A3-VMs nächsten Monat allgemein verfügbar sein werden. Laut Lohmeyer trainiert, optimiert und bedient A3 „unglaublich anspruchsvolle und skalierbare generative KI-Workloads und große Sprachmodelle [LLMs]“ mit der dreifachen Geschwindigkeit und der zehnfachen Netzwerkbandbreite von Googles früherem Supercomputer A2.

A3 integriert eine Reihe von Google-Tools, darunter Netzwerktechnologien wie das Offloaden von Infrastruktur-Verarbeitungseinheiten, um „den enormen Umfang und die Leistung zu unterstützen, die diese Arbeitslasten erfordern“, fügte Lohmeyer hinzu.

Um den Kunden „noch mehr Auswahl“ zu bieten, stellte Google Cloud außerdem seine Cloud-TPU v5e vor, die laut Lohmeyer „die bisher kosteneffizienteste und zugänglichste Cloud-TPU“ ist. TPUs nennt Google seine benutzerdefinierten ASICs, die darauf ausgelegt sind, KI- und ML-Arbeitslasten zu beschleunigen. Das Unternehmen gibt an, dass sein TPU v5e im Vergleich zur Vorgängergeneration die doppelte Trainingsleistung pro Dollar und die zweieinhalbfache Inferenzleistung pro Dollar bietet.

„Wir konzentrieren uns wirklich darauf, dies zu einer skalierbaren Lösung zu machen“, fügte Lohmeyer hinzu. „Wir entwerfen Dinge software- und hardwareübergreifend. In diesem Fall ermöglichen wir unseren Kunden durch die Magie dieser Software [und] Hardware im Zusammenspiel mit neuen Softwaretechnologien wie Multi-Slice, ihre KI-Modelle problemlos über die physischen Grenzen eines einzelnen TPU-Pods oder eines einzelnen GPU-Clusters hinaus zu skalieren ," er erklärte. „Mit anderen Worten: Eine einzelne, große KI-Arbeitslast kann sich jetzt über mehrere physische TPU-Cluster erstrecken und auf buchstäblich Zehntausende Chips skaliert werden – und das sehr kostengünstig.“

GKE ist ein weiteres beliebtes Tool, das Google Cloud-Kunden für die Bereitstellung und Verwaltung cloudnativer KI- oder ML-Anwendungen nutzen. Der Hyperscaler stellte heute neue Funktionen für die GKE Enterprise Edition vor, die zusätzlich zu den vorhandenen automatischen Skalierungs-, Workload-Orchestrierungs- und automatischen Upgrade-Funktionen der Kubernetes-Orchestrierungsplattform für allgemeine Rechenzwecke die horizontale Multi-Cluster-Skalierung unterstützen.

Die neuen GKE-Funktionen sind für Cloud-GPUs und TPUs verfügbar und Kunden sehen dadurch erhebliche Verbesserungen. Lohmeyer nannte Produktivitätssteigerungen von bis zu 45 % und eine Verkürzung der Zeit für die Softwarebereitstellung um bis zu 70 %.

Der Hyperscaler hat außerdem eine neue Plattform namens Cross-Cloud Network eingeführt, die sich auf die Vereinfachung sicherer Konnektivität für immer häufiger vorkommende Hybrid- oder Multi-Cloud-Umgebungen konzentriert. Die Plattform zielt darauf ab, die betrieblichen Anforderungen beim Betrieb komplexer Umgebungen zu erleichtern und Kunden dabei zu helfen, sich auf die Ausführung ihres Geschäfts und ihrer Anwendungen zu konzentrieren, anstatt ihr separates Cloud-Netzwerk zu betreiben.

Lohmeyer behauptete, dass die Multi-Cloud-Netzwerkplattform die Netzwerklatenz um bis zu 35 % reduziert, die Gesamtbetriebskosten um bis zu 40 % senkt und im Vergleich zu „anderen Umgebungen“ eine 20-mal höhere Wirksamkeit beim Schutz vor Bedrohungen bietet.