Så skete det endelig! OpenAI har sendt en håndgranat direkte ind i open-source AI-miljøet og Apple-land ved at lancere to nye open-weight sprogmodeller – gpt-oss-120b og gpt-oss-20b. Hvis du sidder der på din MacBook Pro med M3 Max og tænker, at den alligevel bare er til Slack og Affinity Photo, så kan du godt begynde at genoverveje dine prioriteter.
Så, hvad er det, OpenAI egentlig har sluppet løs?
- gpt-oss-120b: En tungvægter, der nærmer sig niveauet på den proprietære o4-mini på de hårdeste reasoning-benchmarks. Alt sammen på én (ja, én) 80GB GPU – men hvem tæller RAM, når du kører på Apple Silicon?
- gpt-oss-20b: Lillebror, der matcher o3-mini på de fleste benchmarks og kan køre på edge-enheder med blot 16GB hukommelse. Oversat: Din MacBook Air kan altså nu være din personlige, lokale AI-server. Og lige til Apple-brug.
Begge modeller kommer under den ekstremt fleksible Apache 2.0-licens – du ved, så du faktisk MÅ gøre (næsten) hvad som helst med dem. De banker også konkurrenterne på flere benchmarks, blandt andet HealthBench, og scorer højere end tidligere OpenAI-modeller som GPT-4o. Tool-use, few-shot function calling, Chain-of-Thought reasoning — det hele sidder lige i skabet.
Simon Willison skriver: “That gpt-oss-20b model should run quite comfortably on a Mac laptop with 32GB of RAM.” — Og det er ikke overdrivelse, hvis du spørger os hardcore Mac-brugere.
Denne åbning betyder, at du – ja, DIG med MacBooken – faktisk kan lave lokal inferens direkte på din egen enhed. Slip for sky-datacentrene, dataprivatlivs-mareridt og urimelige abonnementer. Pludselig kan du bygge apps og AI-løsninger, der kører, hvor dine data er, frem for i en fjern hypersky.
For udviklere, tweakere, nørder – og alle dem med en forkærlighed for Apple – betyder det her, at AI-eksperimenter på macOS tager et kvantespring. For hvem gider egentlig at leve med at være andenprioritet (hej Windows/Linux), når nu Apple-sfæren for alvor kan levere smilets kerne-oplevelse til AI-brug – både i performance og strømeffektivitet?
- Instant prototyping med Python eller Swift direkte på macOS
- Ingen ventetid, ingen cloud-latency. AI, når du klikker
- Super stærk integration med hardware-optimeringerne i nyere Apple Silicon-chips
- Bye bye GPU-mangel-hysteri – Apple-brugerne får nu endnu et trumfkort på hånden
Seriøst, det er ikke bare “open source” – det er open source i den skala og kvalitet, hvor Apple-brugere faktisk gider være med.
Læs selve pressematerialet fra OpenAI hos OpenAI, og se med egne øjne hvorfor selv din MacBook Pro bliver helt elektrisk. Du kan også snuse til dækningen fra Daring Fireball hvis du er til klassisk Apple-sarkasme og AI-nerderi i verdensklasse.
Vi kalder det her et gigantisk selvtillidsboost til hele Apples AI-segment. Og vi er mere end klar på at udforske mulighederne – på vores egen hardware.
Delen: