person nutzt chatgpt oder gpt-4o von openai auf dem smartphone
person gibt prompt für ki ein
Ein Sendemast in einer ländlichen Gegend, in der eine Straße durch einen Wald führt.

GPT-4o von OpenAI: Das musst Du zum neuen KI-Modell wissen

Am 13. Mai hat das Tech-Unternehmen Ope­nAI mit GPT-4o sein neues und verbessertes KI-Mod­ell vorgestellt. Was die Erweiterung von Chat­G­PT kann und warum der Launch von Ope­nAIs GPT-4o für Auf­se­hen gesorgt hat, erfährst Du bei uns. 

Dir ste­ht ein Vorstel­lungs­ge­spräch bevor. Dein Klei­der­schrank gibt nicht beson­ders viel her und auch Dein:e Mitbewohner:in ist nicht da, um Dir Feed­back zu geben. Sitzen die Haare? Sollte es lieber ein aus­ge­fal­l­en­er Blaz­er oder doch ein schlichter Pul­li sein? Die Lösung von Ope­nAI ist: Kam­era an und GPT-4o fra­gen.

Über medi­ale Gren­zen hin­weg verbindet das neue KI-Mod­ell Text, Bild und Audio und inter­agiert auf verblüf­fend men­schlich­er Ebene mit Dir. Siehe selb­st, wie die Vor­bere­itung auf ein Vorstel­lungs­ge­spräch mit GPT-4o ausse­hen kann:

Bitte akzeptieren Sie die Nutzung von Drittanbieter-Einbindungen mit einem Klick auf den folgenden Button:

Doch das ist noch lange nicht alles, was GPT-4o von Ope­nAI kann. Mehr Details zum neuen KI-Mod­ell liest Du jet­zt.

GPT-4o kommuniziert multimodal: Das macht ChatGPTs kleiner Bruder anders 

Bes­timmt fragst Du Dich, was sich hin­ter dem „o“ in der Beze­ich­nung des neuen KI-Mod­ells ver­birgt. Dem Buch­staben liegt der lateinis­che Begriff „omni“ zugrunde, was so viel wie „alles“ heißt. Der bedeu­tend­ste Fortschritt von GPT-4o liegt näm­lich in sein­er Mul­ti­modal­ität. Das heißt, dass das Mod­ell über nur eine einzige Benutze­r­ober­fläche Infor­ma­tio­nen aus Sprache, Text und Bildern ver­ste­hen und darauf reagieren kann. GPT-4 ist bere­its einen Schritt in diese Rich­tung gegan­gen – hier hat sich die Anwen­dung jedoch nur auf die Analyse von Bildern beschränkt.

Während Du bei den vorheri­gen GPT-Ver­sio­nen den Kon­text Deines Prob­lems nur text- und bild­basiert eingeben kon­ntest, hast Du jet­zt zum Beispiel die Möglichkeit, Deine Kam­era einzuschal­ten und GPT-4o Dein Prob­lem in Echtzeit zu zeigen. Kannst Du Deine Kam­era nicht nutzen, kom­mu­nizierst Du über reines Audio mit der KI.

Egal, ob Du einen Text analysieren, ein Bild inter­pretieren oder eine Unter­hal­tung führen willst – alles soll naht­los kom­biniert und ver­ar­beit­et wer­den. GPT-4o eröffnet Dir damit ganz neue Anwen­dungs­bere­iche und kreative Möglichkeit­en der Nutzung.

Tipp: Probier’s doch mal aus – denn GPT-4o ist für alle frei nutzbar!

GPT-4o: Diese Neuheiten hat OpenAI im Gepäck

Mit den fol­gen­den Funk­tio­nen über­holt GPT-4o nun Chat­G­PT-4 und ändert die Kom­mu­nika­tion mit dem KI-Assis­ten­ten:

1) Schnellere Geschwindigkeiten: Präzise Antworten in kürzester Zeit

Ver­mut­lich kennst Du es von anderen Chat-Bots: Du stellst eine Frage und musst erst ein­mal warten, bis eine Antwort gener­iert wird. GPT-4o liefert im Ver­gle­ich zu GPT-4 deut­lich schneller Antworten, die es Dir ermöglichen, Gespräche in Echtzeit zu führen. Das macht nicht nur Spaß, son­dern Deine Kom­mu­nika­tion mit der KI auch wesentlich effizien­ter.

2) GPT-4o ist multilingual: Dolmetschen in bis zu 50 Sprachen

Mit dem Fea­ture, in 50 ver­schiede­nen Sprachen kom­mu­nizieren zu kön­nen, ist GPT-4o ein glob­al ein­set­zbares Werkzeug. Egal, ob Du in Spanisch, Man­darin oder ein­er anderen Sprache kom­mu­nizieren möcht­est – GPT-4o kann als Dol­metsch­er fungieren. Der nach­fol­gende Clip zeigt, wie eine etwaige Über­set­zungssi­t­u­a­tion ausse­hen kann:

Bitte akzeptieren Sie die Nutzung von Drittanbieter-Einbindungen mit einem Klick auf den folgenden Button:

3) Desktop-App: Flexible Nutzung von GPT-4o

Mit der Ein­führung der Desk­top-App von GPT-4o wird der Zugang zu den Funk­tio­nen flex­i­bler. Du fragst Dich, wann Du die Anwen­dung herun­ter­laden kannst? Mit dem Release für macOS kannst Du bere­its zeit­nah rech­nen. Windows-Nutzer:innen dage­gen müssen sich noch bis zum Herb­st oder Win­ter gedulden.

4) Verbesserte Sprachfunktionen: GPT-4o klingt jetzt noch menschlicher

Die Entwickler:innen von Ope­nAI haben bei der neuen Chat­G­PT-Ver­sion die Sprach­funk­tion deut­lich opti­miert. Denn im Ver­gle­ich zum Vorgänger klingt GPT-4o nicht mehr monot­on, son­dern füllt das Gesagte mit men­schlichen Emo­tio­nen. GPT-4o kann auch sarkastisch und humor­voll sein.

Bitte akzeptieren Sie die Nutzung von Drittanbieter-Einbindungen mit einem Klick auf den folgenden Button:

Chat­G­PT: Diese Befehle musst Du ken­nen

Aufruhr um GPT-4o: Hat OpenAI unerlaubt die Stimme von Schauspielerin Scarlett Johansson kopiert?

In einem Blog­post erk­lärt Ope­nAI, dass sie für GPT-4o fünf ver­schiedene Stim­men ein­führen – Breeze, Cove, Ember, Juniper und Sky – die aus über 400 Ein­sendun­gen von Synchronsprecher:innen aus­gewählt wur­den. Eine Stimme darunter sorgte bei Release für beson­ders viel Auf­se­hen: Sky soll der „Her“-Darstellerin Scar­lett Johans­son verblüf­fend ähn­lich klin­gen, sodass die Frage aufkam, ob Ope­nAI ohne ihre Erlaub­nis ihre Stimme kopiert hat. Daraufhin hat die betrof­fene Schaus­pielerin wenige Tage nach dem GPT-4o-Launch über ihre Vertreter:innen fol­gen­des State­ment veröf­fentlicht:

„Im Sep­tem­ber ver­gan­genen Jahres erhielt ich ein Ange­bot von (Ope­nAI-CEO) Sam Alt­man, der mich engagieren wollte, um das aktuelle Chat­G­PT 4.0-System zu ver­to­nen. Er sagte, meine Stimme könne die Kluft zwis­chen Tech-Unternehmen und Kreativ­en über­brück­en und den User:innen helfen, sich mit den Verän­derun­gen durch KI wohlzufühlen.“

Johans­son lehnte das Ange­bot damals auf­grund von per­sön­lichen Grün­den ab und dro­hte Ope­nAI nach Release von GPT-4o mit ein­er Klage. Das Tech-Unternehmen gab daraufhin bekan­nt, die Stimme nicht länger zu ver­wen­den und veröf­fentlichte eine aus­führliche Stel­lung­nahme. Laut Ope­nAI han­delt es sich bei Sky um keine Imi­ta­tion von Johanssons Stimme – so soll eine pro­fes­sionelle Sprecher:in dahin­ter­steck­en, die der Schaus­pielerin nur ähn­lich klin­gen soll. Die Namen der beteiligten Sprecher:innen wur­den beim State­ment aus Daten­schutz­grün­den nicht veröf­fentlicht.

Zugriff auf GPT-4o: Das kostet der KI-Allrounder

Du wirst GPT-4o zukün­ftig kosten­frei ver­wen­den kön­nen, allerd­ings wird Ope­nAI ein Lim­it für die Nutzung des Mod­ells ein­führen. Sobald Du dieses noch unbekan­nte Lim­it erre­icht hast, wird ein Upgrade auf einen kostenpflichti­gen Plan notwendig sein – die genaue Anzahl der erlaubten Tokens ist jedoch noch unklar. Abonnent:innen hinge­gen wer­den min­destens das Fünf­fache an Kapaz­ität erhal­ten. Aktuell zur Ver­fü­gung ste­hen zwei Ver­sio­nen:

  • Chat­G­PT Plus bekommst Du für etwa 18 euro monatlich und kannst das Fünf­fache an Kapaz­ität nutzen
  • Chat­G­PT Team bekommst Du für etwa 23 Euro pro Per­son monatlich und hast mit der Team-Ver­sion eine noch höhere Kapaz­ität als Chat­G­PT Plus – auch für GPT-4 und den Bild­gen­er­a­tor DALL-E
  • Chat­G­PT Team erlaubt Dir außer­dem einen Arbeits­bere­ich zu nutzen, in der die Gruppe bis zu 149 Mit­glieder haben kann und stellt ver­schiedene Ver­wal­tungstools zur Ver­fü­gung

Übri­gens: Im Pod­cast-Inter­view mit Bill Gates im Jan­u­ar 2024 bestätigte Sam Alt­man, CEO von Ope­nAI, dass die Entwick­lung von GPT-5 bere­its in vollem Gange sei. Wir hal­ten Dich bei Neuerun­gen wie immer up-to-date!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte Dich auch interessieren