Chat GPT 4
HeimHeim > Blog > Chat GPT 4

Chat GPT 4

Mar 10, 2023

OpenAI hat gerade GPT-4 angekündigt. Die Zukunft ist vielleicht noch nicht da, aber sie ist sehr nah. Ist das wirklich der Durchbruch für KI?

GPT-4 ist die nächste Version des von OpenAI erstellten Large Language Model. GPT-3 hat für ziemlich viel Aufsehen gesorgt und GPT-4 scheint die Aufregung fortzusetzen. Was GPT-4 von 3 unterscheidet, ist, dass es jetzt „multimodal“ ist – es funktioniert mit Bildern und Text.

OpenAI scheint realistisch zu sein, was seine Neuschöpfung angeht:

„...obwohl er in vielen realen Szenarien weniger leistungsfähig ist als Menschen, zeigt er bei verschiedenen beruflichen und akademischen Benchmarks eine Leistung auf menschlichem Niveau.“

Bei diesen Benchmarks schneidet es deutlich besser ab als GPT-3:

„Zum Beispiel besteht es eine simulierte Anwaltsprüfung mit einer Punktzahl, die bei den besten 10 % der Testteilnehmer liegt; im Gegensatz dazu lag die Punktzahl bei GPT-3.5 bei etwa den unteren 10 %.“

Es wurde keine spezielle Schulung für die Prüfungen angeboten und dies ist ein Hinweis darauf, was GPT-4 über die Welt weiß. Angesichts der Tatsache, dass beide Systeme den gleichen Gesamtansatz verfolgen, ist dies ein beachtlicher Erfolg. OpenAI erkennt jedoch an, dass der Unterschied in einem allgemeineren Kontext subtil ist:

„In einem lockeren Gespräch kann der Unterschied zwischen GPT-3.5 und GPT-4 subtil sein. Der Unterschied kommt zum Vorschein, wenn die Komplexität der Aufgabe einen ausreichenden Schwellenwert erreicht – GPT-4 ist zuverlässiger, kreativer und kann viel mehr bewältigen.“ differenziertere Anweisungen als GPT-3.5.

Das ist nicht allzu überraschend – ein Experte, der über alltägliche Dinge spricht, verrät nicht viel über sein Fachwissen.

Aus Sicht von OpenAi ist ein wichtiger Fortschritt die Fähigkeit, vorherzusagen, wie viel besser ein Modell nach einem bestimmten Trainingsumfang sein wird.

Was ist mit dem visuellen Input? GPT 4 kann Eingabeaufforderungen in Form von Text, Bildern oder einer Kombination akzeptieren. Anhand der angegebenen Beispiele sieht es beeindruckend aus:

Panel 1: Ein Smartphone mit einem VGA-Anschluss (ein großer, blauer 15-poliger Anschluss, der normalerweise für Computermonitore verwendet wird), der an den Ladeanschluss angeschlossen ist.

Panel 2: Die Verpackung für den „Lightning Cable“-Adapter mit einem Bild eines VGA-Anschlusses darauf.

Panel 3: Eine Nahaufnahme des VGA-Anschlusses mit einem kleinen Lightning-Anschluss (zum Aufladen von iPhones und anderen Apple-Geräten) am Ende.

Der Humor in diesem Bild kommt von der Absurdität, einen großen, veralteten VGA-Stecker an einen kleinen, modernen Smartphone-Ladeanschluss anzuschließen.

Abgesehen von diesem Beispiel verrät OpenAI nicht viel über die Visionsaspekte von GPT 4, das erst später allgemein verfügbar gemacht wird. Wenn man sich am Verhalten von Googles PaLM LLM orientieren kann, könnte dies der interessanteste Teil von GPT 4 sein.

Da GPT 4 auf demselben Modell basiert, weist es natürlich alle Probleme von GPT 3 und ähnlichen auf:

„Trotz seiner Fähigkeiten hat GPT-4 ähnliche Einschränkungen wie frühere GPT-Modelle. Am wichtigsten ist, dass es immer noch nicht völlig zuverlässig ist (es „halluziniert“ Fakten und macht Argumentationsfehler). Bei der Verwendung von Sprachmodellausgaben ist große Vorsicht geboten, insbesondere in Kontexte mit hohem Risiko, wobei das genaue Protokoll (z. B. menschliche Überprüfung, Begründung mit zusätzlichem Kontext oder vollständige Vermeidung von Verwendungen mit hohem Risiko) den Anforderungen eines bestimmten Anwendungsfalls entspricht.

Obwohl versucht wird, die Ausgaben korrekt zu halten, stellt dies eine echte Einschränkung von GPT 4 und ähnlichen Modellen dar. Es fällt ihr schwer zu vermeiden, Dinge auszuwählen, die zwar falsch, aber statistisch plausibel sind. Dies ist die Herausforderung, der sich spätere Modelle stellen müssen, wenn sie außerhalb von Situationen nützlich sein sollen, in denen es einfach nur amüsant oder unwichtig ist, falsch zu liegen.

OpenAI plant, GPT4 so schnell wie möglich verfügbar zu machen:

ChatGPT Plus-Abonnenten erhalten GPT-4-Zugriff auf chat.openai.com mit einer Nutzungsbeschränkung. Wir werden die genaue Nutzungsobergrenze je nach Bedarf und praktischer Systemleistung anpassen, gehen jedoch davon aus, dass die Kapazität stark eingeschränkt sein wird (obwohl wir in den kommenden Monaten skalieren und optimieren werden).

Es gibt auch eine API, die Gebühren im Bereich von 0,03 $ pro 1.000 Prompt-Tokens und 0,06 $ pro 1.000 vollständigen Tokens berechnet.

Das Zeitalter der allgemeinen KI ist noch nicht erreicht, aber es rückt immer näher. Wie sehr Sie mir zustimmen, hängt davon ab, wie Sie GPT-ähnliche Modelle sehen. Handelt es sich nur um hochentwickelte Maschinen zur automatischen Vervollständigung oder erfassen sie etwas tief in der Struktur der Sprache? Ich weiß, welches meiner Meinung nach die Antwort ist, aber selbst wenn ich recht habe, müssen wir einen Weg finden, LLMs ehrlich und wahr zu halten.

Wenn ich recht habe, frage ich mich, wie lange es dauern wird, bis die Informationen durchsickern. Wir spekulieren manchmal über die psychologischen Auswirkungen der Begegnung mit Außerirdischen – wir sind nicht allein und nicht einzigartig. Die Begegnung mit einer allgemeinen Intelligenz, die auf den statistischen Eigenschaften der Sprache basiert, sollte ebenso beunruhigend sein. Wir sind nicht mehr als sie (es) ...

https://openai.com/research/gpt-4

Das große Sprachmodell von Google übernimmt die Kontrolle

Durchschlagender Erfolg von ChatGPT

Open AI und Microsoft – aufregende Zeiten für KI

Die unangemessene Wirksamkeit von GPT-3

KI hilft bei der Generierung von fehlerhaftem Code

Die Roboter kommen – AlphaCode kann programmieren!

Die unangemessene Wirksamkeit von GPT-3

Stellt das neuronale GPT-2-Netzwerk von OpenAI eine Bedrohung für die Demokratie dar?

Um über neue Artikel zu I Programmer informiert zu werden, abonnieren Sie unseren wöchentlichen Newsletter, abonnieren Sie den RSS-Feed und folgen Sie uns auf Twitter, Facebook oder Linkedin.

Dieses Video, das die Geschichte und Entwicklung des MicroMouse-Wettbewerbs schildert, zusammen mit einer Erläuterung der Strategien zur Suche nach dem kürzesten Weg, beginnt mit Filmmaterial aus dem neuesten Al [ ... ]

AWS Lambda-Funktionen können jetzt alle neuen und nützlichen Sprachfunktionen sowie Leistungsverbesserungen nutzen, die in Java 17 als Teil der Amazon Corretto JDK-Implementierung eingeführt wurden.

Machen Sie einen Kommentar oder zeigen Sie vorhandene Kommentare mit Disqus an

oder senden Sie Ihren Kommentar per E-Mail an: [email protected]