350.000 Nvidia-Chips: Metas 10-Milliarden-Dollar Plan

0
444

In einem neu veröffentlichten Instagram-Video hat Meta Platforms CEO Mark Zuckerberg eine der größten Investitionen in die Entwicklung von künstlicher Intelligenz aller Zeiten angekündigt. Bis Ende 2024 will das Unternehmen hinter Facebook und Instagram nicht weniger als 350.000 Hochleistungs-GPUs des Typs Nvidia A100 anschaffen. Zusammen mit bereits vorhandener Rechenpower wird Meta dann über eine Kapazität von rund 600.000 GPUs dieses Typs verfügen.

Künstliche Generalintelligenz als nächstes großes Ziel

Der Kauf der 350.000 Nvidia-Chips ist Teil von Metas strategischer Ausrichtung auf die Erforschung von künstlicher Generalintelligenz (AGI). Darunter versteht man Systeme, die mit Hilfe von Machine Learning und neuronalen Netzen menschenähnliche kognitive Fähigkeiten entwickeln können.

Im Gegensatz zu schwacher KI, die für bestimmte eng begrenzte Aufgaben trainiert wird, zielt AGI darauf ab, KI zu erschaffen, die flexibel ganz unterschiedliche Herausforderungen meistern kann. AGI gilt als nächste große Grenze in der KI-Forschung und als Voraussetzung für viele Zukunftsvisionen.

Meta sieht die Entwicklung von AGI als essenziell für die nächste Generation an Produkten und Dienstleistungen des Unternehmens. Laut Zuckerberg wird AGI beispielsweise eine wichtige Rolle spielen für leistungsfähige digitale AssistentenAR-Brillen und andere bahnbrechende Innovationen.

Nvidia A100: Spezial-Chips für Training von Sprachmodellen

Um das ehrgeizige Ziel der menschenähnlichen KI zu erreichen, investiert Meta jetzt einen geschätzten zweistelligen Milliardenbetrag in die Anschaffung der Nvidia A100 GPUs. Dabei handelt es sich um Hochleistungs-Chips, die speziell auf das Training von großen Sprachmodellen wie GPT-3 ausgelegt sind.

Mit ihrer massiv parallelen Rechenarchitektur sind die A100 perfekt geeignet, um die unzähligen Parameter in den neuronalen Netzen der Sprachmodelle zu trainieren. Allein in diesem Jahr wird Meta schätzungsweise über 10 Milliarden Dollar für die mehr als 350.000 GPUs ausgeben. Selbst mit Rabatt ist pro Chip mit Kosten zwischen 25.000 und 35.000 Dollar zu rechnen.

Trainieren der firmeneigenen KI-Modelle Llama

Meta hat bereits damit begonnen, die Rechnerleistung für die Weiterentwicklung der hauseigenen KI-Modelle der Llama-Familie einzusetzen. Laut Zuckerberg ist die dritte Generation Llama 3 aktuell in Arbeit. Zudem stellte er eine Roadmap mit weiteren KI-Modellen für die Zukunft in Aussicht.

Anders als Konkurrenten wie OpenAI möchte Meta die Llama-Modelle als Open Source veröffentlichen. Dadurch sollen die Technologien möglichst vielen Menschen zugänglich gemacht werden. Dies erfordert allerdings auch umfangreiche Vorkehrungen, um Missbrauch vorzubeugen.

Wettrüsten um leistungsfähigste KI-Systeme

Metas Investition ist ein deutliches Zeichen im Wettlauf der Tech-Konzerne um die leistungsstärkste KI-Technologie. Auch Microsoft, Google und Amazon haben 2022 bereits jeweils rund 50.000 bis 150.000 Nvidia A100 Chips erworben. Mit seinen jetzt geplanten 350.000 GPUs setzt Meta allerdings noch einmal deutlich einen drauf.

Sowohl die exorbitant hohe Stückzahl als auch die schiere Summe von über 10 Milliarden Dollar unterstreichen, welchen Stellenwert die Entwicklung von künstlicher Intelligenz für die Big Player der Tech-Branche hat. Von einem „KI-Wettrüsten“ ist bereits die Rede.

Ob und wann Meta mit seiner massiven Investition in Rechenleistung tatsächlich einen Durchbruch in Richtung general intelligence erreichen kann, ist unklar. Doch der Schritt zeigt den großen Ehrgeiz und die Entschlossenheit, mit der Meta sich als einer der wichtigsten Player im KI-Bereich positionieren möchte. Die kommenden Jahre versprechen also spannende Entwicklungen, bei denen Meta eine prägende Rolle einnehmen will.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein