Tidligere denne uken ble det avslørt at Apple og andre teknologigiganter hadde brukt YouTube-undertekster for å trene sine AI-modeller. Apple har nå avklart at OpenELM-modellen deres, som er en språkmodell med åpen kildekode, ikke driver noen av Apple Intelligence-funksjonene deres.
Kontroversen rundt YouTube-undertekster
Studier viste at over 170 000 videoer fra populære YouTube-kanaler som MKBHD og Mr. Beast ble brukt til å trene AI-modeller. Dette har skapt en debatt om databruk og personvern, spesielt siden mange av disse videoene ble brukt uten skaperens uttrykkelige samtykke.
Apples OpenELM-modell
Apple lanserte OpenELM-modellen som en del av sitt bidrag til forskningsmiljøet og utvikling av åpen kildekode. Ifølge Apple ble modellen laget for forskningsformål og er tilgjengelig for publikum via nettstedet deres for maskinlæringsforskning. Apple har understreket at OpenELM ikke er integrert i Apple Intelligence-systemene deres, og at data fra YouTube-undertekster derfor ikke brukes til å drive Apple Intelligence.
Apple Intelligence og databruk
Apple har tidligere forklart at Apple Intelligence-modellene deres er trent på lisensierte data og offentlig tilgjengelige data samlet inn av webcrawleren deres. Denne tilnærmingen er utformet for å sikre at dataene er lovlig innhentet og egnet for formålet.
Reaksjoner fra fellesskapet
Nyheten om bruken av YouTube-data har ført til en bølge av reaksjoner fra både innholdsskapere og forbrukere. Mange innholdsskapere er bekymret for at innholdet deres brukes til å trene AI-modeller uten deres tillatelse, noe som reiser spørsmål om opphavsrett og kompensasjon.
Apples fremtidsplaner for OpenELM
Apple har også annonsert at de ikke har noen planer om å utvikle nye versjoner av OpenELM-modellen. Dette kan tolkes som et svar på den nylige kontroversen og en måte å berolige offentligheten og interessentene om deres intensjoner og praksis.
Andre selskapers bruk av YouTube-data
Ifølge rapporter fra Wired har selskaper som Anthropic og NVIDIA også brukt YouTube-undertekster for å trene sine AI-modeller. Dette peker mot en bredere bransjepraksis der offentlig tilgjengelige data brukes til AI-opplæring, noe som potensielt kan føre til ytterligere forskrifter og retningslinjer i fremtiden.
Hva betyr dette for fremtiden?
Denne situasjonen understreker behovet for klare retningslinjer og policyer rundt bruk av offentlig tilgjengelige data for AI-opplæring. Teknologigiganter som Apple og Meta står overfor økende press for å sikre at datainnsamling og opplæringspraksis er etisk og juridisk forsvarlig.
Apples engasjement i åpen kildekode
Til tross for kontroversen fortsetter Apple å støtte åpen kildekode-initiativet og fremme innovasjon innen AI-forskning. OpenELM-modellen, som er fritt tilgjengelig for forskere og utviklere, gjenspeiler Apples forpliktelse til å bidra til bredere teknologisk utvikling.
Konklusjon
Apples nektelse av å bruke OpenELM til sine Apple Intelligence-systemer demonstrerer deres forsøk på å navigere i komplekse etiske og juridiske landskap. Mens debatten om bruk av YouTube-data til AI-opplæring fortsetter, er det tydelig at åpenhet og ansvarlighet vil være sentrale elementer i fremtidens teknologiske utvikling. Det er avgjørende at både selskaper og regulatorer samarbeider for å skape et rammeverk som balanserer innovasjon og brukerrettigheter.
Hvis du vil ha mer informasjon om Apple Intelligence og relaterte emner, kan du også lese artiklene på We❤️Apple.dk:
Del: