Vier Dinge, die Sie über GPT-4 wissen sollten

Veröffentlicht: 2023-03-18

Am Dienstag, dem 14. März, veröffentlichte OpenAI sein neuestes Modell für maschinelles Lernen, GPT-4. Obwohl es die Welt nicht sofort so erschüttert hat wie ChatGPT, liegt das hauptsächlich daran, dass es keine glänzende neue Schnittstelle gab, die dazu passte. Vertrauen Sie uns – es ist immer noch unglaublich spannend. Hier sind vier Dinge, die Sie jetzt über GPT-4 wissen sollten.

Inhaltsverzeichnis

Sache Nr. 1: Multimodalität ist noch nicht da

Vor dem Start drehte sich ein Großteil des Hypes um GPT-4 darum, dass es multimodal ist oder sowohl Text als auch Bilder als Eingabe akzeptieren kann. Derzeit testet OpenAI diese Multimodalität nur mit einem einzigen Partner, Be My Eyes. Für alle anderen akzeptiert GPT-4 weiterhin nur Texteingaben.

Sache Nr. 2: GPT-4 kann viel größere Eingaben akzeptieren

In Ermangelung von Multimodalität besteht einer der offensichtlichsten Unterschiede zwischen GPT-4 und GPT-3.5 darin, dass es viel größere Eingaben akzeptieren kann (und größere Ausgaben erzeugen kann, aber das wird nicht auf die gleiche Weise nützlich sein).

Mit GPT-3.5 können Sie maximal 4.096 Token gleichzeitig verwenden. Mit dem Basismodell von GPT-4 verdoppelt sich dieses Maximum auf 8.192 Token – und es gibt sogar ein zweites GPT-4-Modell, das bis zu 32.768 Token verarbeiten kann.

Was bedeutet das in der Praxis?

Für den Anfang bedeutet dies, dass ich den gesamten technischen Bericht von GPT-4 OpenAI (abzüglich der Anhänge) zu GPT-4 zum Lesen geben kann. (Das sind über 5.000 inhaltliche Wörter.) Ich bat ihn, den Bericht zusammenzufassen und fehlende wichtige Informationen hervorzuheben.

Hier war die Antwort von GPT-4:

Aufforderung: Fassen Sie die Hauptpunkte dieser Forschungsarbeit zusammen. Welche wichtigen Informationen fehlen? (gefolgt vom vollständigen Text des GPT-4 Technical Report von OpenAI)

Dieser technische Bericht fasst die Entwicklung von GPT-4 von OpenAI zusammen, einem groß angelegten, multimodalen Modell, das Bild- und Texteingaben akzeptiert, um Textausgaben zu generieren. GPT-4 demonstriert Leistung auf menschlicher Ebene bei verschiedenen professionellen und akademischen Benchmarks, wie z. B. bei einer simulierten Anwaltsprüfung unter den besten 10 % zu landen. Es ist ein Transformer-basiertes Modell, dessen Leistung durch den Ausrichtungsprozess nach dem Training verbessert wurde.

Zu den Hauptfunktionen von GPT-4 gehören:

1. Verarbeitung von Bild- und Texteingaben mit möglichen Anwendungen in Dialogsystemen, Textzusammenfassung und maschineller Übersetzung.

2. Gutes Abschneiden bei Prüfungen, die für Menschen konzipiert sind, mit einer Leistung bei einer simulierten Anwaltsprüfung unter den besten 10 % der Testteilnehmer.

3. Übertreffen früherer Sprachmodelle und hochmoderner Systeme bei traditionellen NLP-Benchmarks und starke Leistung bei den übersetzten Versionen von MMLU in 24 von 26 betrachteten Sprachen.

Der Bericht hebt auch die Entwicklung von Deep-Learning-Infrastrukturen und Optimierungsmethoden hervor, die sich über eine Reihe von Skalen hinweg vorhersagbar verhalten. Dies ermöglichte es den Forschern, basierend auf kleineren Modellen, die mit 1/1.000stel Rechenleistung trainiert wurden, genaue Vorhersagen zur Leistung von GPT-4 zu treffen.

GPT-4 weist jedoch mehrere Einschränkungen auf, z. B. nicht vollständig zuverlässig zu sein, ein begrenztes Kontextfenster zu haben und nicht aus Erfahrung zu lernen. Seine Fähigkeiten und Einschränkungen stellen neue Sicherheitsherausforderungen dar, wobei Voreingenommenheit, Desinformation, übermäßiges Vertrauen, Datenschutz und Cybersicherheit zu den identifizierten Risiken gehören.

Der Bericht verzichtet aufgrund von Wettbewerbsbedenken und Auswirkungen auf die Sicherheit auf eine detaillierte Erörterung der Architektur, der Hardware, der Trainingsberechnung, des Datensatzaufbaus oder der Trainingsmethoden von GPT-4.

Insgesamt stellt die Entwicklung von GPT-4 einen bedeutenden Fortschritt auf dem Gebiet der KI dar und zeigt ein beträchtliches Potenzial für transformative Anwendungen in der Verarbeitung natürlicher Sprache, während sie gleichzeitig die Notwendigkeit einer kontinuierlichen Verfeinerung und Berücksichtigung von Sicherheitsherausforderungen betont.

Das Forschungspapier offenbart keine spezifischen Details über die Hardware, die Architektur, den Datensatzaufbau oder die Trainingsmethoden von GPT-4. Weitere Informationen zu diesen technischen Aspekten wären hilfreich für Forscher, die die Arbeit von GPT-4 replizieren oder darauf aufbauen möchten.

Bei GPT-3.5 und früheren Modellen konnten Sie keinen so langen Input wie einen ganzen technischen Bericht geben. Dies ist eine wirklich coole Weiterentwicklung, da Sie dem Modell jetzt viel mehr Informationen als Kontext zur Verfügung stellen können.

Diese Funktion ist besonders nützlich, da das Modell nicht mit dem Internet verbunden ist. Die einzige Möglichkeit, neue Informationen zu erhalten, besteht darin, dass Sie sie bereitstellen – und Sie können jetzt viel mehr bereitstellen.

Wenn ich dagegen frage, was GPT-4 ist, ohne den technischen Bericht bereitzustellen, bekomme ich Folgendes:

Aufforderung: Was ist GPT-4?

GPT-4 ist der hypothetische Nachfolger von GPT-3 von OpenAI, dem hochmodernen Sprachmodell, das bei einer Vielzahl von Aufgaben zur Verarbeitung natürlicher Sprache bemerkenswerte Ergebnisse erzielt hat. Obwohl GPT-4 derzeit nicht verfügbar ist, wird erwartet, dass es die Fähigkeiten von GPT-3 weiter verbessert und möglicherweise eine noch menschenähnlichere Textgenerierung und ein noch menschenähnlicheres Verständnis ermöglicht.

Als Sprachmodell wäre das Ziel von GPT-4, menschenähnlichen Text basierend auf dem Kontext der bereitgestellten Eingabe zu generieren. Um zu verstehen, wie es funktionieren könnte, lassen Sie uns in einige reale Szenarien eintauchen, in denen die Leistungsfähigkeit von GPT-4 genutzt werden könnte.

Angenommen, Sie sind Schriftsteller

…usw.

Soweit GPT-4 bekannt ist, ist GPT-4 immer noch ein hypothetischer Nachfolger von GPT-3. Was sinnvoll ist, da es offensichtlich nicht mit Text aus einer Welt trainiert werden konnte, in der GPT-4 bereits existierte. Bei allen Inhalten, die das Modell gesehen hat, ist GPT-4 immer noch eine zukünftige Entwicklung.

Das bedeutet jedoch, dass wir jetzt viel bessere Ergebnisse von GPT-4 bei Dingen wie neuen Ereignissen oder extrem tiefgehenden Themen erzielen können, indem wir viel mehr Informationen in der Eingabeaufforderung bereitstellen.

Abgesehen davon, was diese Verbesserung ermöglicht, ist es auch wirklich interessant, sie vom Standpunkt der Architektur aus zu betrachten. Um mehr Token zu akzeptieren, kann das Modell Informationen über ein viel größeres Fenster abrufen und synthetisieren. Wurde dazu einfach ein größeres Modell mit mehr Schichten und Parametern erstellt, oder wurden grundlegende Änderungen an der Verarbeitung und Speicherung von Informationen vorgenommen?

Leider bringt uns das Fehlen jeglicher Antwort auf diese Frage zu unserem dritten Punkt.

Sache Nr. 3: OpenAI ist nicht mehr ganz so…offen…

Eine faszinierende Sache an GPT-4 hat absolut nichts mit seinen Fähigkeiten zu tun. Aus dem Forschungsbericht von OpenAI dazu:

Dieser Bericht konzentriert sich auf die Fähigkeiten, Einschränkungen und Sicherheitseigenschaften von GPT-4. GPT-4 ist ein Modell im Transformer-Stil, das vortrainiert ist, um das nächste Token in einem Dokument vorherzusagen, wobei sowohl öffentlich verfügbare Daten (z. B. Internetdaten) als auch von Drittanbietern lizenzierte Daten verwendet werden. Das Modell wurde dann mithilfe von Reinforcement Learning from Human Feedback (RLHF) verfeinert. Angesichts sowohl der Wettbewerbslandschaft als auch der Sicherheitsimplikationen von großen Modellen wie GPT-4 enthält dieser Bericht keine weiteren Details über die Architektur (einschließlich Modellgröße), Hardware, Trainingsberechnung, Datensatzkonstruktion, Trainingsmethode oder ähnliches.

(Hervorhebung von mir)

Keine weiteren Details zu Modellgröße, Datensatz, Training … irgendetwas?

Das ist wild nicht offen. Es ist auch eine große Abkehr von OpenAIs öffentlicher Forschung zu früheren GPTs.

Es ist auch erwähnenswert, wie widersprüchlich diese beiden Gründe für die Geheimhaltung sind: die Wettbewerbslandschaft und die Sicherheitsimplikationen von Großmodellen. „Auswirkungen auf die Sicherheit“ erfordern Vorsicht und Umsicht, aber eine „Wettbewerbslandschaft“ erfordert volle Kraft voraus, um alle anderen zu schlagen.

Unabhängig davon wurden am selben Tag wie GPT-4 zwei weitere wichtige KI-Fortschritte veröffentlicht: das Claude-Modell von Anthropic und die PaLM-API von Google.

Sache Nr. 4: KI wird zum Starschüler (lügt aber immer noch)

Eine der am häufigsten geteilten Grafiken der Markteinführung zeigt die Leistung von GPT-4 bei verschiedenen Tests. Es ist fast so, als ob OpenAI immer noch der Illusion unterliegt, die von leistungsstarken Highschoolern überall geteilt wird, dass standardisierte Testergebnisse in irgendeiner Weise mit dem Erfolg in der realen Welt korrelieren.

Lol.

Erwähnenswert ist jedoch, dass GPT-4 nicht speziell für die Durchführung dieser Tests ausgebildet wurde. Dies ist nicht der Fall, wenn ein KI-Modell speziell darauf trainiert wird, Go zu spielen und schließlich den besten menschlichen Spieler zu schlagen; Vielmehr repräsentiert seine Fähigkeit, diese Tests zu bestehen, eine „emergierende“ Intelligenz.

Frühere Modelle wie GPT-3 wurden auch nicht für bestimmte Tests trainiert, aber wie Sie sehen können, hat sich die Leistung von GPT-4 gegenüber GPT-3 erheblich verbessert:

aus dem GPT-4 Technical Report von OpenAI

Wenn Sie sich nicht für die Fähigkeit von KI interessieren, standardisierte Tests durchzuführen, und nur wissen möchten, wie gut sie das tun wird, was Sie wollen, sind dies immer noch gute Nachrichten. Aus dem Bericht:

GPT-4 verbessert sich gegenüber früheren Modellen erheblich in der Fähigkeit, Benutzerabsichten zu folgen. Bei einem Datensatz von 5.214 Eingabeaufforderungen, die an ChatGPT und die OpenAI-API gesendet wurden, wurden die von GPT-4 generierten Antworten gegenüber den von GPT-3.5 generierten Antworten bei 70,2 % der Eingabeaufforderungen bevorzugt.

GPT-4 bietet Ihnen also eher das, wonach Sie suchen, als GPT-3.5. Das ist großartig. Es ist jedoch wichtig zu bedenken, dass das neue Modell trotz seiner verbesserten Leistung immer noch dieselben Einschränkungen aufweist, die wir von unseren bestehenden KI-Freunden kennen und lieben.

Noch ein Zitat aus dem Bericht:

Trotz seiner Fähigkeiten hat GPT-4 ähnliche Einschränkungen wie frühere GPT-Modelle: Es ist nicht vollständig zuverlässig (z. B. kann es unter „Halluzinationen“ leiden), hat ein begrenztes Kontextfenster und lernt nicht aus Erfahrung. Bei der Verwendung der Ausgaben von GPT-4 ist Vorsicht geboten, insbesondere in Kontexten, in denen Zuverlässigkeit wichtig ist.

Tatsächlich könnten Halluzinationen zu einem noch größeren Problem werden, denn je besser die KI wird, desto leichter wird es ihr zu glauben, was sie sagt. Bei GPT-3 und GPT-3.5 sind sich die Leute bewusst, dass das Modell alles erfinden wird, weil es so häufig vorkommt. Da neuere und bessere Modelle dies seltener tun, besteht ein größeres Risiko, dass wir es möglicherweise nicht bemerken oder überprüfen, wenn sie halluzinieren .

Also bleibt wachsam, Freunde. Aber es sind auch sehr aufregende Zeiten.


PS Sache Nr. 5: Wenn Sie GPT-4 verwenden möchten, können Sie dies entweder über ChatGPT Plus oder über die API tun. Es gibt eine Warteliste für die API, aber ich habe nur zwei Tage gebraucht, um Zugang zu bekommen. Ein Hinweis bezüglich der API ist, dass auf GPT-4 über die ChatCompletion-Funktion (wie gpt-3.5-turbo) zugegriffen werden kann, nicht über die Completion-Funktion, die Sie möglicherweise mit text-davinci-003 oder anderen früheren Modellen verwendet haben. Mehr zu den Unterschieden zwischen diesen beiden später.