Azure OpenAI Service: Hintergründe, Leistungen und Vorteile gegenüber OpenAI
Die leistungsstarken KI-Modelle von OpenAI, allen voran GPT-4 und ChatGPT, sind auch in Microsoft Azure verfügbar. Was bedeutet das für Azure-Kunden? Was sind die Hintergründe und welche Vorteile haben Unternehmen davon, KI-Services von Azure und nicht direkt vom OpenAI zu beziehen? Das erfahren Sie in diesem Beitrag.
Wer ist OpenAI?
OpenAI, das Unternehmen hinter den GPT-Sprachmodellen und ChatGPT, gehört zu den weltweit führenden Playern bei der Entwicklung künstlicher Intelligenz (KI). Gegründet 2015 als spendenfinanzierte Non-Profit-Organisation, veröffentlichte OpenAI bald seine ersten KI-Lösungen: 2016 folgte OpenAI Gym, ein Toolkit mit Simulationsumgebungen für die Entwicklung von Algorithmen für maschinelles Lernen (Verstärkungslernen). 2017 folgte OpenAI Five, bei dem KI-Agenten in einem komplexen Computer-Spiel (DOTA 2) in Fünferteams kooperieren und dabei in einer vereinfachten Spielversion auch schon menschliche Profi-Spieler besiegen konnten.
Ab 2018 erschienen dann die GPT-Sprachmodelle (Generative Pre-Trained Transformer), sogenannte große Sprachmodelle (Large Language Models, LLMs). Mit diesen LLMs, insbesondere mit GPT-3 von 2020 und ChatGPT von 2022, erregte OpenAI große Aufmerksamkeit und trieb die Forschung zu generativer KI und der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) wesentlich voran.
Partnerschaft mit Microsoft
Aber renommierte KI-Forscher kosten Geld und das Training umfangreicher KI-Modelle fordert extrem viel Rechenleistung. Auch wenn Microsoft und AWS in den Anfangsjahren für mindestens 800.000 Dollar Cloud-Services unentgeltlich zur Verfügung stellten, reichten Spenden nicht aus, um den Betrieb von OpenAI sicherzustellen – 2018 musste OpenAI 30 Millionen Dollar für Cloud-Computing aufwenden. 2019 gab das Unternehmen die Non-Profit-Beschränkung auf und akzeptierte, dass Microsoft eine Milliarde Dollar in OpenAI investierte.
Seitdem laufen die Systeme von OpenAI auf High-Performance-Computing-Rechnern in Azure. Microsoft lizenzierte 2020 exklusiv die GPT-3-Modelle und startete ein Jahr später mit Azure OpenAI einen Service, der sie Azure-Kunden zur Verfügung stellte. 2023 kündigte Microsoft weitere milliardenschwere Investitionen in OpenAI an und wird im Gegenzug die Modelle von OpenAI umfassend in seine Produkte integrieren.
Im Rahmen von Azure KI, Microsofts Cloud-Portfolio für KI-Anwendungen, geschieht das mit Azure OpenAI Service, der seit Anfang 2023 allgemein verfügbar ist. Damit können Azure-Kunden die Funktionen der neuesten OpenAI-Modelle einschließlich ChatGPT und GPT-4 direkt in ihrem Azure-Abonnement nutzen.
Azure OpenAI Service
Azure OpenAI Service stellt Azure-Kunden die Funktionen aktueller OpenAI-Modelle in einer für die Unternehmensnutzung optimierten Weise zur Verfügung. Der Zugriff auf die Modelle erfolgt über REST-APIs, das webbasierte Azure OpenAI Studio oder per SDK (Software Development Kit).
Stand August 2023 sind in Azure OpenAI diese KI-Modellfamilien für neue Bereitstellungen verfügbar (aktuelle Infos):
- GPT-3.5-Turbo: Familie von LLMs, die natürliche Sprache sowie Code verarbeiten und generieren können (Weiterentwicklung von GPT-3).
- GPT-4: Weiterentwicklung von GPT-3.5 / GPT-3.5-Turbo, die „multimodal“ konzipiert ist, also prinzipiell auch Bilder als Input akzeptieren kann (noch nicht verfügbar).
- Einbettungen: LLM-Modelle, die Texte zur Weiterverarbeitung in eine numerische Darstellung (Vektoren konvertieren können. Damit können Beziehungen zwischen zwei Textstücken ermittelt werden, zum Beispiel semantische Ähnlichkeit.
- DALL·E: Modelle, die nach Anweisungen in natürlicher Sprache Bilder generieren können (derzeit DALL·E 2).
Im Azure OpenAI Studio können Sie neue Ressourcen erstellen und verwalten. Ist das geschehen, können Sie das entsprechende Modell per API-Calls in eigenen Anwendungen nutzen. Außerdem können Sie über den „Playground“ in Azure OpenAI Studio eigenen Code ausprobieren.
Zudem ist es möglich, Modelle gezielt für Anwendungen zu optimieren, also mit eigenen Daten zu trainieren. Derzeit können das allerdings nur Bestandskunden mit Legacy-GPT-3-Modellen; OpenAI will die Feinabstimmung bald auch für neuere Modelle ermöglichen. Neu ist seit Juni 2023 die Möglichkeit, eigene Daten mit Azure Open AI zu verbinden und darauf aktuelle Modelle auszuführen, ohne sie zusätzlich trainieren oder optimieren zu müssen.
Vorteile von Azure OpenAI gegenüber OpenAI
Was sind nun die Vorteile oder auch Nachteile, OpenAI-Modelle in Azure zu nutzen und nicht über die API (bzw. den Playground oder andere Weboberflächen) von OpenAI?
Auf den ersten Blick sind die Services sehr ähnlich: Es sind (fast) die gleichen Modelle verfügbar, und die APIs bieten Ihnen die gleichen Funktionen: Sie können damit beispielsweise Dokumente oder Computercode schreiben, Fragen beantworten, Texte analysieren, Chatbots erstellen, übersetzen oder eine Sprachschnittstelle für Anwendungen bereitstellen. Zahlenden Kunden bietet OpenAI auch diverse Supportkanäle an. Auch die Preise per 1k Token sind in beiden Diensten gleich.
Der große Vorteil von Azure OpenAI ist die stringente Ausrichtung von Azure auf Unternehmenskunden und die Anforderungen von Produktionsumgebungen etwa in Bezug auf Verfügbarkeit, Sicherheit, Datenschutz und Compliance.
Verfügbarkeit und Zuverlässigkeit
Azure OpenAI Service läuft in der globalen Azure-Infrastruktur mit mehr als 60 Azure-Regionen. Zudem bietet Azure zahlreiche Features für Hochverfügbarkeit, Überwachung, Notfallwiederherstellung und Sicherung mit diversen Redundanzoptionen, zum Beispiel Verfügbarkeitszonen und -gruppen.
Damit bietet Azure theoretisch auch für OpenAI-Modelle eine hohe Verfügbarkeit und Leistung genau in den Regionen, in denen Sie aktiv sein möchten. In der Praxis sollten Sie das aber vorab prüfen, weil noch nicht alle Modelle in allen Regionen verfügbar sind (aktuelle Infos darüber finden Sie ebenfalls in der Modell-Dokumentation).
Sicherheit, Datenschutz & Compliance
Azure verfügt über zahlreiche Sicherheitsfunktionen, zum Beispiel Rechteverwaltung mit rollenbasierter Zugriffssteuerung, starke Verschlüsselung für Ihre Daten (sowohl gespeichert als auch bei der Übertragung), mehrschichtige Sicherheitsvorkehrungen für Rechenzentren, Cloud-Infrastrukturen und Prozesse in Azure sowie Threat Intelligence. OpenAI kann da nicht mithalten, auch wenn die OpenAI-Systeme grundsätzlich sicher sind, weil sie in Azure gehostet werden.
Besonders wichtig im Unternehmenseinsatz sind Datenschutz und Compliance. Bei OpenAI kann nicht ausgeschlossen werden, dass der Anbieter bei Nutzung seiner Weboberflächen (wie ChatGPT, DALL-E) die übermittelten Daten zum Training seiner Modelle nutzt. Damit verbietet sich die Verwendung personenbezogener Daten.
In Azure ist dagegen sichergestellt, dass niemand außer dem Kunden selbst Zugriff auf seine Daten hat, auch nicht Microsoft selbst. Azure OpenAI unterstützt isolierte und abgesicherte virtuelle Netzwerke sowie Private Link für sichere Verbindungen. Außerdem besitzt Microsoft über 100 Compliance-Zertifizierungen für eine Vielzahl von Branchen und Regionen, darunter ISO 27001, ISO 27018, SOC 1, 2 und 3, C5, DSGVO u.v.a.
KI-Inhaltsfilterung
Einzigartig sind auch die Funktionen zu KI-Inhaltefilterung und Missbrauchsüberwachung in Azure KI als Teil der Bemühungen Microsofts um eine verantwortungsvolle KI-Nutzung. Denn die OpenAI-Modelle wurden mit großen Datenmengen aus dem Internet trainiert, sodass unvermeidlich auch gesellschaftliche Vorurteile und andere unerwünschte Inhalte in das Training einflossen. Das kann sich im Output von Sprachmodellen widerspiegeln. Deshalb bietet Azure KI Funktionen, um die Inhalte von Eingaben und Outputs auf schädliche Inhalte zu filtern und zu moderieren sowie auf missbräuchliche Verwendung durch Benutzer zu überwachen
Fazit
Wer sich mit den Möglichkeiten der OpenAI-Modelle vertraut machen oder die neuesten Beta-Versionen ausprobieren möchte, findet bei OpenAI viele spannende Möglichkeiten. Auf keinen Fall aber sollten dabei personenbezogene oder unternehmenskritische Daten an OpenAI übertragen werden.
Für den produktiven Unternehmenseinsatz ist daher der Azure OpenAI Service die Lösung der Wahl. Integriert in Microsoft Azure, bietet er die nötige Verfügbarkeit und Sicherheit, unterstützt Kunden auch bei Datenschutz und Compliance und macht zudem die Integration der OpenAI-Funktionen in eigene Anwendungen besonders einfach.
Sie möchten mehr über die Themen Künstliche Intelligenz, maschinelles Kernen, KI-Sprachmodelle, Azure KI und Azure OpenAI Service erfahren?
Dann legen wir Ihnen diese beiden Whitepapers ans Herz:
Finden Sie heraus, wie Sie KI erfolgreich in Ihrem Unternehmen einsetzen können!
Wenn Sie an unserem SoftwareOne Internal Knowledge Management & AI Workshop teilnehmen, erhalten Sie das Wissen und die strategischen Einblicke, die Sie benötigen, um KI erfolgreich in Ihrem Unternehmen einzusetzen. Gemeinsam werden wir die Grundlagen von Big Data und KI erkunden und Ihnen konkrete Schritte und Best Practices für den Einsatz von KI als wertvolles Werkzeug zur Steigerung der Unternehmensleistung an die Hand geben.
Finden Sie heraus, wie Sie KI erfolgreich in Ihrem Unternehmen einsetzen können!
Wenn Sie an unserem SoftwareOne Internal Knowledge Management & AI Workshop teilnehmen, erhalten Sie das Wissen und die strategischen Einblicke, die Sie benötigen, um KI erfolgreich in Ihrem Unternehmen einzusetzen. Gemeinsam werden wir die Grundlagen von Big Data und KI erkunden und Ihnen konkrete Schritte und Best Practices für den Einsatz von KI als wertvolles Werkzeug zur Steigerung der Unternehmensleistung an die Hand geben.