Die Entwicklung von ChatGPT: Von GPT-3.5 zu GPT-4 Turbo

Die öffentlich verfügbare Version von ChatGPT basierte zunächst auf GPT-3.5. Allerdings brachte OpenAI fast ein Jahr später GPT-4 auf den Markt, eine deutlich weiterentwickelte Iteration des Modells, das seitdem weiter auf GPT-4 Turbo aufgerüstet wurde.

Als ChatGPT auf GPT-4 umgestellt wurde, war der Zugriff ausschließlich über das ChatGPT Plus-Abonnement möglich. Dennoch hatten Benutzer weiterhin die Möglichkeit, die kostenlose Version von ChatGPT weiterhin zu verwenden, die weiterhin auf GPT-3.5 basierte.

ChatGPT

Gemäß einer Vereinbarung zwischen OpenAI und MicrosoftChatGPT wurde über Bing kostenlos zur Verfügung gestellt. Zunächst war die GPT-3.5-Version integriert, später wurde sie um GPT-4 erweitert. Mit der Einführung von GPT-4 Turbo waren die Benutzer jedoch neugierig, wann Bing Chat (jetzt bekannt als Copilot) angepasst wird, um diese neueste Version des OpenAI-Sprachmodells zu unterstützen.

Im Gegensatz zu früheren Updates steht die Integration von GPT-4 Turbo in Bing Chat noch aus. Mikhail Parakhin, der Leiter des Webs und Windows Experiences-Team gab bekannt, dass sich das Unternehmen aufgrund des plötzlichen Abgangs von Panos Panay vor einigen Wochen für die Konsolidierung verschiedener Teams entschieden hat.

Dies liegt zum Teil auch daran, dass GPT-4 Turbo nur auf API-Ebene genutzt werden kann und somit ausschließlich Entwicklern zugänglich ist. Bis Microsoft seinen Umstrukturierungsprozess abschließt, der durch Panays Wechsel zu Amazon ausgelöst wurde, gibt es keinen festen Zeitplan für die Implementierung von GPT-4 Turbo in Bing Chat.

Wenn Sie den neuen GPT-4 Turbo nutzen möchten, müssen Sie sich daher als Entwickler auf der OpenAI-Website registrieren, Ihr Konto mit mindestens 1 US-Dollar aufladen und einen Client verwenden, der die API-Nutzung ermöglicht, um Abfragen mit diesem erweiterten Algorithmus zu senden.

GPT-4 vs. GPT-4 Turbo:

Mit der Einführung von GPT-4 markierte OpenAI einen bedeutenden Fortschritt in den Fähigkeiten von ChatGPT. In GPT-4 wurden die Trainingsdaten des Modells erheblich erweitert und seine Fähigkeit, Antworten auf längere Abfragen zu generieren, verbessert.

Das erste Update, das GPT-4 erhielt, war GPT-4 32K, eine leichte Verbesserung gegenüber dem ursprünglichen GPT-4. Mit der Einführung von GPT-4 Turbo, oft auch als „128K“ bezeichnet, wurde das Kontextverständnis des Modells jedoch weiter erweitert. Diese Verbesserung ermöglicht die Analyse von ChatGPT und die Bereitstellung längerer und präziserer Antworten.

Darüber hinaus sind die Trainingsdaten von GPT-3.5 Turbo im Gegensatz zu GPT-4 auf dem Stand von April 2023, während die kostenlose Version von ChatGPT nur auf Daten bis September 2021 angewiesen ist.

Im Wesentlichen ermöglicht diese neue Version Benutzern die Eingabe und Berücksichtigung längerer Texte beim Verfassen von Eingabeaufforderungen oder Fragen, auf die sie Antworten suchen. Folglich kann ChatGPT nun komplexere Details und Daten berücksichtigen und so genauere und umfassendere Antworten generieren.

ChatGPT arbeitet mit Token, und obwohl es keine Eins-zu-eins-Äquivalenz zwischen Token und Wörtern gibt, sind sie ähnlich. GPT-3.5 könnte bis zu 4,096 Token verarbeiten, was etwa 3,000 Wörtern zum Generieren einer Antwort entspricht.

Als GPT-4 bei 32K eingeführt wurde, konnte es bis zu 32,000 Token verarbeiten. Mit der Veröffentlichung von GPT-4 Turbo kann diese neue Version jedoch bis zu 128,000 Token analysieren und bei der Generierung einer Antwort berücksichtigen. Dadurch können Nutzer wesentlich komplexere Fragen mit einer Fülle von Daten und Details formulieren, was zu deutlich vollständigeren und präziseren Antworten führt.