Globalt – torsdag 12 december 2024
Microsoft har presenterat Phi-4, den senaste modellen i sin Phi-serie av generativa AI-system. Phi-4 utmärker sig särskilt inom lösning av matematiska problem, tack vare förbättrad träningsdata och optimerad efterbearbetning.
Phi-4 är en mindre språkmodell med 14 miljarder parametrar, vilket gör den till en direkt konkurrent till modeller som GPT-4o Mini, Gemini 2.0 Flash och Claude 3.5 Haiku. Dessa mindre modeller är både snabbare och billigare att köra än sina större motsvarigheter, samtidigt som deras prestanda har förbättrats avsevärt under de senaste åren.
Begränsad tillgång för forskning
Modellen är för närvarande endast tillgänglig via Microsofts nya utvecklingsplattform Azure AI Foundry, och enbart för forskningsändamål under Microsofts forskningslicens.
Förbättringar och syntetisk data
Microsoft tillskriver Phi-4:s framsteg användningen av högkvalitativa syntetiska dataset kombinerat med mänskligt genererat innehåll, samt okända optimeringar i efterträningsfasen. Syntetisk data har blivit ett hett område inom AI-utveckling, där flera ledande aktörer ser det som en lösning på den begränsade tillgången till ny pre-training-data.
Alexandr Wang, VD för Scale AI, kommenterade nyligen på sociala medier att AI-branschen står inför en ”pre-training data wall,” vilket bekräftar utmaningar som länge diskuterats inom området.
Första Phi-modellen utan Sébastien Bubeck
Phi-4 är den första modellen i Phi-serien som lanseras efter att Sébastien Bubeck, tidigare vice VD för AI på Microsoft och en nyckelperson i utvecklingen av Phi-modeller, lämnade företaget för OpenAI i oktober.
Phi-4 är en del av Microsofts pågående satsning på att driva AI-forskningen framåt, med fokus på effektivitet och precision i mindre generativa modeller.
Källa: TechCrunch
#teknik #AI #Microsoft #Phi4 #Azure