Anfang der Woche wurde bekannt, dass Apple und andere Tech-Giganten YouTube-Untertitel zum Training ihrer KI-Modelle verwendet haben. Apple hat nun klargestellt, dass ihr OpenELM-Modell, eine Open-Source-Sprachmodell, keine ihrer Apple Intelligence-Funktionen antreibt.
Kontroverse um YouTube-Untertitel
Untersuchungen zeigten, dass über 170.000 Videos von beliebten YouTube-Kanälen wie MKBHD und Mr. Beast verwendet wurden, um KI-Modelle zu trainieren. Dies hat eine Debatte über Datennutzung und Privatsphäre ausgelöst, insbesondere da viele dieser Videos ohne die ausdrückliche Zustimmung der Ersteller verwendet wurden.
Apple’s OpenELM-Modell
Apple brachte das OpenELM-Modell als Teil ihres Beitrags zur Forschungsgemeinschaft und Open-Source-Entwicklung heraus. Laut Apple wurde das Modell zu Forschungszwecken erstellt und ist über ihre Machine Learning Research Webseite öffentlich zugänglich. Apple betonte, dass OpenELM nicht in ihre Apple Intelligence-Systeme integriert ist und dass Daten aus YouTube-Untertiteln daher nicht zur Steuerung von Apple Intelligence verwendet werden.
Apple Intelligence und Datennutzung
Apple hat zuvor erklärt, dass ihre Apple Intelligence-Modelle mit lizenzierten Daten und öffentlich zugänglichen Daten trainiert werden, die von ihrem Webcrawler gesammelt werden. Dieser Ansatz soll sicherstellen, dass die Daten rechtmäßig erworben und für den Zweck geeignet sind.
Reaktionen aus der Gesellschaft
Die Nachrichten über die Nutzung von YouTube-Daten haben eine Welle von Reaktionen sowohl von Schöpfern als auch von Konsumenten ausgelöst. Viele Schöpfer sind besorgt darüber, dass ihre Inhalte ohne ihre Erlaubnis zum Training von AI-Modellen verwendet werden, was Fragen zu Urheberrecht und Vergütung aufwirft.
Apple’s zukünftige Pläne für OpenELM
Apple hat außerdem mitgeteilt, dass sie keine Pläne haben, neue Versionen des OpenELM-Modells zu entwickeln. Dies kann als Reaktion auf die jüngste Kontroverse und als Mittel zur Beruhigung der Öffentlichkeit und der Stakeholder hinsichtlich ihrer Absichten und Praktiken interpretiert werden.
Andere Unternehmen nutzen YouTube-Daten
Laut Berichten von Wired haben Unternehmen wie Anthropic und NVIDIA ebenfalls YouTube-Untertitel verwendet, um ihre AI-Modelle zu trainieren. Dies weist auf eine breitere Branchenpraxis hin, bei der öffentlich zugängliche Daten für das AI-Training genutzt werden, was potenziell zu weiteren Regulierungen und Richtlinien in der Zukunft führen kann.
Was bedeutet das für die Zukunft?
Diese Situation unterstreicht die Notwendigkeit klarer Richtlinien und Politiken bezüglich der Nutzung öffentlich zugänglicher Daten für das AI-Training. Tech-Giganten wie Apple und Meta stehen unter zunehmendem Druck, sicherzustellen, dass ihre Datenerfassungs- und Trainingspraktiken ethisch und rechtlich vertretbar sind.
Apple’s Engagement im Open Source
Trotz der Kontroverse unterstützt Apple weiterhin das Open-Source-Initiative und fördert Innovationen in der AI-Forschung. Das OpenELM-Modell, das Forschern und Entwicklern frei zugänglich ist, spiegelt Apples Engagement wider, zur breiteren technologischen Entwicklung beizutragen.
Fazit
Apple’s We❤️Apple Ablehnung, OpenELM für ihre Apple Intelligence-Systeme zu verwenden, zeigt ihren Versuch, komplexe ethische und rechtliche Landschaften zu navigieren. Während die Debatte über die Nutzung von YouTube-Daten für das AI-Training andauert, ist klar, dass Transparenz und Verantwortlichkeit Schlüsselelemente der zukünftigen technologischen Entwicklung sein werden. Es ist entscheidend, dass sowohl Unternehmen als auch Regulierungsbehörden zusammenarbeiten, um Rahmenbedingungen zu schaffen, die Innovation und Nutzerrechte ausbalancieren.
Für weitere Informationen zu Apple Intelligence und verwandten Themen können Sie auch die Artikel auf We❤️Apple.dk lesen:
Teilen: