W grudniu zaostrzyliśmy działania odnośnie usuwania treści naruszających nasze zasady. Dzisiaj przedstawiamy Wam najnowsze dane na ten temat, włącznie z udostępnieniem pierwszego Raportu dotyczącego egzekwowania Wytycznych dla Społeczności YouTube.

Więcej informacji
Stawiamy właśnie pierwszy krok w tym kierunku i przedstawiamy kwartalny raport o tym, jak egzekwujemy nasze Wytyczne dla Społeczności. Będziemy publikować go regularnie, aby pokazać Wam nasze postępy w usuwaniu szkodliwych treści z platformy. Do końca roku planujemy udoskonalić nasze systemy raportowania i uwzględnić w nich dodatkowe dane, w tym te dotyczące komentarzy, szybkości usuwania danych treści oraz przyczyn ich usunięcia.

Udostępniamy także panel historii zgłaszania treści, do którego każdy użytkownik YouTube będzie miał indywidualny dostęp i w którym znajdzie status każdego przesłanego do nas zgłoszenia dotyczącego naruszenia naszych Wytycznych dla Społeczności.

Wykorzystanie systemów uczących się do zwalczania szkodliwych treści
Systemy uczące się pozwalają nam oznaczać treści do przejrzenia na większą skalę, pomagając nam usunąć miliony szkodliwych filmów, zanim w ogóle zostałyby obejrzane. Nasza inwestycja w uczenie maszynowe, która miała za zadanie przyspieszyć usuwanie treści niezgodnych z naszymi zasadami, zaczyna przynosić oczekiwane efekty zarówno w obszarach podwyższonego ryzyka gdzie publikowana jest mała liczba filmów (np. brutalny ekstremizm) czy tych z dużą liczbą filmów (jak spam).

Najważniejsze wnioski z raportu - dane obejmują okres od października do grudnia 2017 r.:

  • W tych miesiącach usunęliśmy z YouTube ponad 8 milionów filmów.[1] Większość z nich stanowił spam i treści dla dorosłych - to ułamek procenta łącznej liczby wyświetleń na YouTube w tym okresie.[2]
  • 6,7 miliona filmów zostało wcześniej oznaczonych przez nasze systemy, a nie przez ludzi.
  • 76% z tych 6,7 miliona zostało usuniętych, zanim wyświetlono je choćby jeden raz.

Przykładowo, na początku 2017 r. 8% filmów oznaczonych i usuniętych za brutalny ekstremizm zanotowało mniej niż 10 wyświetleń.[3] Oznaczanie wykorzystujące uczenie maszynowe wprowadziliśmy w czerwcu 2017 r. Teraz ponad połowa filmów, które usuwamy za brutalny ekstremizm, osiąga mniej niż 10 wyświetleń.


Wartość ludzi i maszyn
Wdrażanie uczenia maszynowego w rzeczywistości oznacza, że więcej - a nie mniej - osób przegląda oznaczone treści. Nasze systemy opierają się na ludzkiej ocenie w odniesieniu do tego, czy treści naruszają Wytyczne dla Społeczności. Z poniższego filmu możecie dowiedzieć się więcej na temat naszego procesu oznaczania i oceny treści przez ludzi:



W zeszłym roku zobowiązaliśmy się, że do końca br., zwiększymy do 10 000, liczbę osób pracującą przy identyfikacji treści naruszających nasze wytyczne w usługach Google. W YouTube obsadziliśmy także większość stanowisk związanych z dodatkowymi rolami niezbędnymi do osiągnięcia tego celu. Zatrudniliśmy również - w pełnym wymiarze godzin - ekspertów specjalizujących się w zagadnieniach związanych z brutalnym ekstremizmem i zwalczaniem terroryzmu oraz prawach człowieka, a także rozbudowaliśmy regionalne zespoły ekspertów.

Kontynuujemy inwestycje w sieć ponad 150 ekspertów akademickich, partnerów rządowych i organizacji pozarządowych, którzy wnoszą wartościowe ekspertyzy do naszych systemów egzekwowania wytycznych. Są to na przykład: International Center for the Study of Radicalization at King’s College London, Anti-Defamation League i Family Online Safety Institute. Oznacza to również współpracę z partnerami z całego świata, którzy działają na rzecz bezpieczeństwa dzieci, jak Childline South Africa, ECPAT Indonesia, czy South Korea’s Parents’ Union on Net.

Dokładamy wszelkich starań, aby YouTube był dynamiczną społecznością, która dysponuje efektywnymi systemami usuwania szkodliwych treści. Mamy nadzieję jak najszybciej dostarczyć Wam jeszcze więcej informacji na temat skuteczności i wydajności tych systemów.



[1] Liczba ta nie obejmuje filmów, które zostały usunięte po zdjęciu całego kanału. Większość usunięć na poziomie kanału wynika z naruszeń wytycznych dotyczących spamu - natomiast uważamy, że odsetek takich treści może być jeszcze wyższy.
[2] Te 8 milionów filmów to tylko ułamek procenta wszystkich wyświetleń na YouTube - od ostatnich pięciu kwartałów ulega on stałemu zmniejszaniu.
[3] Z wykluczeniem filmów, które w momencie przesłania zostały automatycznie zidentyfikowane, jako ekstremistyczne treści o brutalnym charakterze - wszystkie one miałyby zero wyświetleń.


https://lh3.googleusercontent.com/pS0cTZUzziTQLdn_yg5ECoaAfqxi4fvWzPVwzjXSgXTVJu4EIHqLVab0MeqB56-aFYoP0n6ibdhWR3gOwZrZipbSzcgR2-UikacOgzfeu29-RuqGNTLB2W2FHYhv-wd9HjlFejY1