Symbolbild: Pixabay

Der US-Software-Gigant Microsoft unterstreicht seine Ambitionen im Bereich Künstlicher Intelligenz (KI) mit der Entwicklung eigener Prozessoren für KI-Software. Der Windows-Konzern mit Zentrale in Redmond im US-Bundesstaat Washington könnte damit unabhängiger vom Halbleiter-Markt agieren und zugleich Geräte besser auf seine KI-Programme abstimmen. Microsoft-Angaben zufolge soll der Chip mit dem Namen Azure Maia 100, der jetzt im Rahmen der Tech-Konferenz Ignite in Seattle vorgestellt wurde, unter anderem die Erstellung von KI-Inhalten effizienter machen. Er soll vom kommenden Jahr an Microsoft-Kunden in Rechenzentren des Konzerns zur Verfügung stehen.

Azure Maia 100 sei gemäss den Redmondern entwickelt worden, um "KI-Lasten wie etwa OpenAI-Modelle, Bing, Github Copilot und ChatGPT" zu beschleunigen. Diese Produkte werden im Microsoft-Angebot immer wichtiger. Für die Branche ist es nicht verwunderlich, dass sich der Konzern auf spezielle KI-Chips konzentriert.

Im neuen Jahr soll zudem noch ein zweiter bei Microsoft entwickelter Chip bereit stehen, der für allgemeine Aufgaben in Rechenzentren gedacht ist. Von diesem Prozessor namens Azure Cobalt 100 ist bekannt, dass es sich um Server-CPUs auf ARM-Basis handelt. Diese sollen laut Microsoft besonders energie- und kosteneffizient arbeiten. ARM-Chips werden von vielen grossen Anbietern genutzt. So setzt Amazon Web Services beispielsweise auf AWS Graviton mit ARM-Kernen. Die Architektur stellt sich in der Praxis als gut skalierbar und energieeffizient heraus und eignet sich deshalb im Cloudbetrieb für mehrere Anwendungsfälle.

Bei den Cobalt-Chips sowie dem Azure-Maia-Boards handelt es sich um komplette Neuentwicklungen seitens Microsoft. Der Redmonder Konzern musste die passenden Serverracks laut eigenen Aussagen deshalb von Grund auf neu bauen, da die Maia-100-Boards mehr Platz benötigen. Sie bekommen zudem dedizierte Wasserkühlungen an die Seite gestellt, intern "Sidekicks" genannt.

Microsoft setzt stark auf Künstliche Intelligenz und ging zu diesem Zweck auch einen milliardenschweren Pakt mit den ChatGPT-Erfinder OpenAI ein, um dessen Technologie in die eigenen Produkte zu integrieren. Bei Chips für Anwendungen mit Künstlicher Intelligenz sind aktuell Systeme des Halbleiter-Spezialisten Nvidia das Mass der Dinge, was zu einer aufgeheizten Nachfrage nach ihnen führte.