Det finns ingen bromsning av den snabba ökningen av generativ AI, och OpenAI har precis lanserat sin mest kraftfulla modell hittills, ChatGPT-4. Vad är annorlunda med den senaste iterationen?
Av de många Silicon Valley-jättarna som tävlar om att äga det generativa AI-utrymmet, har Microsoft slagit guld med OpenAI:s ChatGPT.
Efter dess fullskalig integration med den företagsägda sökmotorn Bing, har OpenAI avslöjat den fjärde iterationen av sin AI-språkmodell, ChatGPT-4, som redan väcker stort kommersiellt intresse.
Tekniken utpekas som "mer kreativ och samarbetsvillig än någonsin tidigare" och har redan tagits upp av flera företags utvecklingsteam.
Morgan Stanley har till exempel satt det till att organisera sin förmögenhetsförvaltningsdata, medan Stripe Inc självständigt förfinar sina hinder mot bedrägeribekämpning. Till och med appen Duolingo för att lära sig främmande språk använder ChatGPT-4 för att hjälpa användare att träna konversationer i verkliga världen och förklara misstag.
Tillkännage GPT-4, en stor multimodal modell, med våra bästa resultat någonsin när det gäller kapacitet och anpassning: https://t.co/TwLFssyALF pic.twitter.com/lYWwPjZbSg
- OpenAI (@OpenAI) Mars 14, 2023
Det här är bara några tidiga exempel på hur det generativa språket AI stör globala arbetsmarknader, men hur mycket bättre är ChatGPT-4 än sin föregångare?
Distinktionen har beskrivits av en företagsmeddelande som "subtil", där nyckeluppgraderingen är dess nya multimodala funktion. Vad detta betyder är att det nya systemet kan acceptera både text- och bildinmatningar – till skillnad från OpenAI:s bildgenerator DALL-E, dock kommer den senare stimulansen att tolkas eller lösas med svaret som kommer tillbaka rent i text.
Oavsett om användaren vill ha ett visuellt matematiskt problem löst, eller nyansen av ett abstrakt meme förklarat, navigerar ChatGPT-4 anvisningarna briljant. Se exemplet nedan och hur kusligt människolikt förtydligandet är.