OpenAI Lancerer Ny, Avanceret GPT-4o Model: Snart Tilgængelig For Alle

OpenAI Lancerer Ny, Avanceret GPT-4o Model: Snart Tilgængelig For Alle

Læsetid: 3 Minut

  • Andrea Miliani

    Skrevet af: Andrea Miliani Teknologiskribent

  • Jack Lebek

    Oversat af Jack Lebek Tekstforfatter og Oversætter

OpenAI afslørede en ny, mere avanceret ChatGPT model kaldet GPT-4o under det live OpenAI Forårs Opdaterings event mandag aften. Den nye GPT-4o er hurtigere end GPT-4, og kan samtidig behandle tekst, lyd og billeder – den kan dybest set “se” via enhedens kamera.

Under den 26 minutter lange live stream, viste OpenAI’s team de nye funktioner og evner frem i realtid, De delte også detaljer om kommende opdateringer for tidligere versioner, som den nye desktop app.

“De store nyheder i dag er, at vi lancerer vores nye flagskibs model, og vi kalder den GPT-4o,” sagde Mira Murati, Chief Technology Officer hos OpenAI.

Murati forklarede at den nye model og de nye funktioner for tidligere versioner, inden længe vil være tilgængeligt for alle – inklusiv ikke-registrerede brugere – og endda gratis. “Vi ruller dem ud i løbet af de næste par uger,” sagde Murati.

Under den første demonstration, viste OpenAI’s team hvordan GPT-4o kan føre samtaler ved at bruge en kvindestemme, blive afbrudt, svare hurtigt og kreativt – med en humoristisk sans – og endda genkende følelser og give gode råd.

Senere præsenterede teamet forskellige scenarier, hvor GPT-4o kan bruges. De viste hvordan den kan bruge “syn” funktionen, for at hjælpe med at løse lineære ligninger skrevet på papir, forstå kode og grafik ved at dele skærmen via desktop versionen, og assistere i realtids oversættelser i virkelige samtaler. GPT-4o kan tale flere sprog, og bruger forskellige tonelejer og tonearter.

Slutteligt, viste eksperterne hvordan den kan genkende menneskelige følelser, og også lave fejl. I løbet af demoerne, glitchede GPT-4o et par gange, og forvirrede én af fremviserne med et billede af træ, og troede at matematik problemet allerede var håndteret, uden at team medlemmet havde vist noget endnu.

Men GPT-4o undskyldte hurtigt, og charmerede tilskuerne med dens svar. “Årh lad være, du får mig til at rødme!” svarede den, da én af research lederne, Barret Zoph, fortalte GPT-4o hvor meget de beundrede den.

Svar Til GPT-4o

OpenAI delte flere korte videoer på X for at demonstrere de forskellige funktioner i den nye GPT-4o model.

Flere personer på X associerede det med filmen Her (Hende), hvor hovedpersonen Theodore Twombly, spillet af Joaquin Phoenix, bliver forelsket i en AI virtuel assistent, med stemme af Scarlett Johanson. “Det her er sindssygt. Da jeg så disse klip, huskede jeg med det samme denne film!” kommenterede en bruger. “Det er seriøst Scarlett Johansson. Hvordan?!” skrev en anden.

Hvor de fleste brugere var imponeret over de nye funktioner, delte andre et par kritikpunkter og bekymringer. “Kære @openai, din demo var super imponerende og skræmmende, men den italienske accent var forfærdelig :),” skrev Massimo Banzi, medstifter af robot automatiserings projektet Arduino.

“Virkelig glimrende, men jeg vil mene at du mister en masse betalende brugere, hvis den eneste forskel på den gratis version er grænserne,” sagde en anden bruger.

I de følgende dage, vil den nye model og opdateringerne blive tilgængelige for flere folk der kan teste dem, og opleve teknologierne på første hånd.

Kunne du lide denne artikel?
Så anmeld den venligst!
Jeg hadede den Jeg kan ikke rigtigt lide den Den var ok Ret god! Var vild med den!
5.00 Brugere som har 1 stemt
Overskrift
Kommentar
Tak for din feedback
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Skriv en kommentar

Vis mere...