[go: up one dir, main page]

Zum Hauptinhalt springen
The new Ai labels

Unser Ansatz für KI-Innovationen mit Verantwortung

This mock is showing the labeling

Generative KI hat das Potenzial, noch mehr Kreativität auf YouTube freizusetzen und sowohl Zuschauer:innen als auch Creator:innen auf unserer Plattform ganz neue Möglichkeiten zu bieten. Zum Schutz der YouTube-Community ist es aber auch wichtig, mit diesen neuen Möglichkeiten verantwortlich umzugehen. Alle auf YouTube hochgeladenen Inhalte unterliegen unseren Community-Richtlinien – egal, wie sie generiert wurden. Wir wissen aber, dass KI neue Risiken birgt und neue Ansätze erfordert.

Bei der Ausarbeitung unseres Ansatzes befinden wir uns noch am Anfang und werden diesen weiterentwickeln, je mehr wir erfahren. Hier seht ihr im Überblick, was YouTube in den nächsten Monaten einführt.

Offenlegungspflichten und neue Inhaltslabel

Wir sind überzeugt, dass es in unser aller Interesse ist, ein gesundes Ökosystem an Informationen auf YouTube aufrechtzuerhalten. KI ermöglicht neue Formen des Storytellings und des kreativen Ausdrucks. Sie kann aber auch genutzt werden, um Inhalte zu erstellen, die das Potenzial haben, Zuschauer:innen in die Irre zu führen – insbesondere, wenn sie nicht wissen, dass das Video manipuliert oder synthetisch erzeugt wurde.

Aus diesem Grund führen wir in den kommenden Monaten Updates ein, mit denen Zuschauer:innen informiert werden, wenn Inhalte durch KI generiert wurden. Creator:innen müssen in Zukunft offenlegen, wenn sie manipulierte oder synthetische Inhalte erstellt haben, die realistisch wirken. Das schließt die Nutzung von KI-Tools ein. Das kann z.B. ein KI-generiertes Video sein, in dem ein Ereignis realistisch dargestellt wird, das aber nie stattgefunden hat. Oder Inhalte, die eine Person zeigen, die etwas sagt oder tut, das sie nicht tatsächlich gesagt oder getan hat.

Das ist besonders wichtig, wenn es um sensible Themen geht, wie Wahlen, aktuelle Konflikte oder Gesundheitskrisen oder öffentliche Amtsträger. Wenn Creator:innen sich regelmäßig entscheiden, diese Informationen nicht offenzulegen, kann dies Konsequenzen haben. YouTube kann z.B. deren Inhalte entfernen oder sie vom YouTube-Partnerprogramm ausschließen.

Wir haben zwei Möglichkeiten, Zuschauer:innen über manipulierte oder synthetische Inhalte zu informieren. Der Videobeschreibung wird ein neues Label hinzugefügt, um zu kennzeichnen, dass Inhalte digital verändert oder generiert wurden. Bei bestimmten Inhalten zu sensiblen Themen fügen wir dem Videoplayer ein noch besser sichtbares Label hinzu.

In einigen Bereichen reichen Label zum Schutz jedoch nicht aus. Deshalb werden einige synthetische Medien, die gegen unsere Community-Richtlinien verstoßen, von unserer Plattform entfernt – unabhängig davon, ob sie mit einem Label versehen sind. Beispielsweise kann ein synthetisch erstelltes Video mit realistischen Gewaltdarstellungen auch entfernt werden, wenn es das Ziel hat, Zuschauer:innen zu schocken.

In Zukunft und mit Einführung dieser neuen Updates werden Inhalte und Funktionen, die mit den generativen KI-Produkten von YouTube erstellt wurden, deutlich als KI-generiert gekennzeichnet.

Kennzeichnung von Inhalten, die von YouTube AI Dream Screen generiert wurden

Neue Optionen für Creator:innen, Zuschauer:innen und Künstler:innen

Wir erhalten kontinuierlich Feedback von unserer Community – darunter Creator:innen, Zuschauer:innen und Künstler:innen – zu den Auswirkungen neuer Technologien. Diese können gravierend sein, z.B. wenn das Gesicht oder die Stimme einer Person ohne deren Einwilligung digital generiert wird, um ihre Ansichten falsch darzustellen.

Bei der Bewertung dieser Anfragen berücksichtigen wir eine Vielzahl von Faktoren. Dazu gehören beispielsweise die Fragen, ob es sich um eine Parodie oder Satire handelt, ob die Person, die die Anfrage stellt, eindeutig identifiziert werden kann oder ob es sich um einen öffentlichen Amtsträger oder eine bekannte Person handelt. In diesem Fall können strengere Regeln angewendet werden.

In den kommenden Monaten werden wir die Möglichkeit einführen, Anfragen zur Entfernung von KI-generierten oder anderen synthetischen oder manipulierten Inhalten zu stellen, die eine identifizierbare Person simulieren, einschließlich deren Gesicht oder Stimme. Dazu verwenden wir unseren Prozess für Datenschutzbeschwerden. Nicht alle Inhalte werden von YouTube entfernt.

Außerdem führen wir für unsere Musikpartner die Möglichkeit ein, Anfragen zur Entfernung von KI-generierter Musik zu stellen, die eindeutig die singende oder rappende Stimme der Künstlerin oder des Künstlers imitiert. Die Entscheidung, ob wir einem Antrag auf Entfernung nachkommen, hängt von verschiedenen Faktoren ab, z.B., ob der Inhalt im Rahmen von Nachrichtensendungen, Analysen oder einer Kritik der synthetischen Stimme gezeigt wird. Diese Einstellungen sind zuerst für Labels oder Musikverlage verfügbar, die Künstler:innen repräsentieren, die an den ersten Experimenten von YouTube zu KI-generierter Musik teilnehmen. In den kommenden Monaten erweitern wir den Zugriff auf weitere Labels und Distributoren.

KI-gestützte Überprüfung von Inhalten

Wir haben immer schon auf eine Kombination aus Menschen und Technologien für maschinelles Lernen vertraut, um unsere Community-Richtlinien durchzusetzen. Weltweit beschäftigt Google etwa 20.000 Prüfer:innen. In unseren Systemen werden potenziell richtlinienverletzende Inhalte mithilfe von KI-Klassifikatoren umfassend erkannt. Die Prüfer:innen untersuchen dann, ob diese Inhalte tatsächlich gegen Richtlinien verstoßen. Die Systeme zur Durchsetzung der Community-Richtlinien arbeiten dank KI immer schneller und genauer.

Dies ist besonders hilfreich, um neue Formen des Missbrauchs von Inhalten schneller zu erkennen. Bei neuen Bedrohungen haben die Systeme erst einmal wenig Kontext, um sie flächendeckend zu erkennen. Aber mit generativer KI können wir den Informationssatz, mit dem unsere KI-Klassifikatoren trainiert werden, schnell erweitern. Das heißt, wir sind in der Lage, diese Inhalte viel schneller zu erkennen und zu erfassen. Dank der schnelleren und genaueren Systeme reduziert sich auch die Menge der schädlichen Inhalte, mit denen unsere Prüfer:innen konfrontiert werden.

Neue KI-Tools und -Funktionen verantwortlich entwickeln

Auch bei der Entwicklung neuer KI-Tools für Creator:innen gilt für uns derselbe Grundsatz wie bei anderen Herausforderungen: Wir nehmen uns Zeit, um die Dinge richtig zu machen.

Wir überlegen uns ganz genau, wie wir unsere Teams und Technologie, in die wir jahrelang investiert haben, einsetzen können, um mit Inhalten in der Größenordnung von YouTube umzugehen. Dazu gehört unsere sehr wichtige ständige Arbeit daran, Schutzmaßnahmen zu entwickeln, mit denen wir verhindern, dass mit unseren KI-Tools Inhalte generiert werden, die auf YouTube nicht erlaubt sind.

Wir wissen natürlich, dass böswillige Akteure versuchen werden, diese Schutzmaßnahmen zu umgehen – und dass einige damit Erfolg haben werden. Deshalb beziehen wir auch das Feedback unserer Nutzer:innen ein, um unsere Schutzmaßnahmen kontinuierlich weiter zu verbessern. Außerdem gibt es in unserem Unternehmen dedizierte Teams wie das Intelligence Desk, die sich speziell auf die Erkennung von Online-Bedrohungen konzentrieren, damit unsere Systeme neuen Herausforderungen gewachsen sind.

Das KI-Zeitalter steht vor der Tür

Wir stehen noch ganz am Anfang unserer Möglichkeiten, das volle Potenzial generativer KI zu nutzen, um neue Formen der Innovation und Kreativität auf YouTube entstehen zu lassen. Was uns bevorsteht, wird die Kreativbranche die nächsten Jahre beschäftigen. Deshalb nehmen wir uns jetzt die Zeit, um herauszufinden, wie wir die immensen Vorzüge dieser Technologie ohne Kompromisse bei der Sicherheit unserer Community nutzen können. Wir arbeiten Hand in Hand mit Creator:innen, Künstler:innen und anderen Beteiligten in der Kreativbranche, damit eine gemeinsame Partnerschaft entsteht, von der wir alle profitieren.