Det er ingen bremse på den voldsomme økningen av generativ AI, og OpenAI har nettopp rullet ut sin kraftigste modell til nå, ChatGPT-4. Hva er annerledes med den siste iterasjonen?
Av de mange Silicon Valley-gigantene som kjemper om å eie den generative AI-plassen, har Microsoft slått gull med OpenAIs ChatGPT.
Etter sin fullskala integrasjon med den bedriftseide søkemotoren Bing, har OpenAI avduket den fjerde iterasjonen av sin AI-språkmodell, ChatGPT-4, som allerede vekker stor kommersiell interesse.
Utpekt som «mer kreativ og samarbeidende enn noen gang før», har teknologien allerede blitt plukket opp av flere selskapers utviklingsteam.
Morgan Stanley har satt det til å organisere formuesforvaltningsdataene sine, for eksempel, mens Stripe Inc autonomt raffinerer sine barrierer for bekjempelse av svindel. Selv appen Duolingo for å lære fremmedspråk bruker ChatGPT-4 for å hjelpe brukere med å øve på samtaler i den virkelige verden og forklare feil.
Vi kunngjør GPT-4, en stor multimodal modell, med våre beste resultater noensinne når det gjelder muligheter og justering: https://t.co/TwLFssyALF pic.twitter.com/lYWwPjZbSg
- OpenAI (@OpenAI) Mars 14, 2023
Dette er bare noen få tidlige eksempler på hvordan det generative språket AI forstyrrer globale arbeidsmarkeder, men hvor mye bedre er ChatGPT-4 enn forgjengeren?
Skillet er beskrevet av en Selskapsmeddelelse som "subtil", med nøkkeloppgraderingen dens nye multimodale funksjon. Hva dette betyr er at det nye systemet kan akseptere både tekst- og bildeinndata – i motsetning til OpenAIs bildegenerator DALL-E, men sistnevnte stimulus vil bli tolket eller løst med responsen som kommer tilbake rent i tekst.
Enten brukeren vil ha et visuelt matematikkproblem løst, eller nyansen til et abstrakt meme forklart, navigerer ChatGPT-4 ledetekstene briljant. Se eksemplet nedenfor, og hvor uhyggelig menneskelig oppklaringen er.