YouTube heeft de omvang van het videoprobleem aan het licht gebracht, met in totaal 8,3 miljoen video's die vorig jaar van oktober tot december zijn verwijderd van de site.

Van deze video's zijn er ongeveer 6,6 miljoen gemarkeerd met een algoritme. De rest werd opgepikt door menselijke ogen waarvan we raden dat ze op dit moment een beetje bleken nodig hebben.

In het transparantieverslag over de handhaving van de communityrichtlijnen van YouTube wordt duidelijk wat Google doet om ervoor te zorgen dat YouTube veiliger is om te bezoeken. Maar het onthult ook precies wat een controversiële controverse zou kunnen zijn als het deze maatregelen niet zou hebben - maatregelen waarvan velen denken dat ze nog niet ver genoeg gaan om de stroom haatdragende of beledigende beelden in te dammen..

In het rapport staat dat 75% van de opgenomen video's nooit door het publiek is gezien. Draai dit echter om en het betekent dat een kwart was.

Het publiek doet een groot deel van de taak die YouTube zou moeten doen en fungeert als moderator van de site door waar nodig content te markeren. Momenteel is 30% van wat wordt gemarkeerd 'seksuele inhoud', terwijl 26% een 'spam of misleidend' badged is. 'Haatdragende of beledigende' inhoud klokt 15% in, met 'gewelddadige of weerzinwekkende' inhoud die 13% van de gemarkeerde video's bevat.

rode vlag

In het rapport legt YouTube wat meer uit over zijn Trusted Flagger-programma, dat beschikbaar is voor overheidsinstanties en andere instellingen. Dit is voor YouTube een prioriteitsprogramma, maar de video's doorlopen dezelfde controles als wanneer een gewone gebruiker een video zou hebben gemarkeerd, deze hebben alleen prioriteit.

“Het Trusted Flagger-programma is ontwikkeld om zeer effectieve flaggers in staat te stellen ons te waarschuwen voor inhoud die onze Communityrichtlijnen schendt via een bulkrapportagetool,” zegt het rapport.

“Personen met hoge nauwkeurigheidsniveaus voor het melden van gegevens, NGO's en overheidsinstellingen nemen deel aan dit programma, dat training biedt bij het afdwingen van de communityrichtlijnen van YouTube..”

Het grootste deel van video-controle wordt echter gedaan door AI - iets dat waarschijnlijk niet zal veranderen gezien de enorme hoeveelheid inhoud die wordt gemarkeerd, hoewel YouTube duizenden mensen zou rekruteren om in deze baan te helpen.

“YouTube heeft geautomatiseerde systemen ontwikkeld die helpen bij het detecteren van inhoud die mogelijk in strijd is met ons beleid. Deze geautomatiseerde systemen richten zich op de meest flagrante vormen van misbruik, zoals uitbuiting van kinderen en gewelddadig extremisme,” leest het rapport.

“Zodra potentiële, problematische inhoud wordt gemarkeerd door onze geautomatiseerde systemen, verifieert de menselijke beoordeling van die inhoud dat de inhoud inderdaad ons beleid schendt en maakt het mogelijk dat de inhoud wordt gebruikt om onze machines te trainen voor een betere dekking in de toekomst.

“Wat bijvoorbeeld de geautomatiseerde systemen betreft die extremistische inhoud detecteren, hebben onze teams handmatig meer dan twee miljoen video's beoordeeld om grote hoeveelheden trainingsvoorbeelden te bieden, die de machine learning-vlagtechnologie verbeteren..”

Verder merkt het op dat geautomatiseerde systemen in 2017 hebben bijgedragen aan het signaleren van meer gewelddadige extremistische inhoud voor menselijke beoordeling en dat de vooruitgang op het gebied van machineleren ertoe leidde dat bijna 70% van de inhoud van gewelddadig extremisme binnen acht uur werd verwijderd, en de helft in twee uur tijd. . Het gebruikt wat het hiervan heeft geleerd om andere problematische inhoud aan te pakken.

Als het aankomt op het markeren van dit soort video's, staat India bovenaan de lijst met landen met de meest gevlagde inhoud, met de VS op de tweede plaats - het VK is zesde.

Als je wilt zien hoe het opvallende systeem van YouTube op een vreemde manier werkt, ga dan naar de onderstaande video.

  • De YouTube-kinderen zijn niet goed en dit moet snel veranderen