Deepfake’i z wizerunkiem gwiazd, polityków i dziennikarzy są wszędzie? YouTube chce to ograniczyć i rozszerza dostęp do narzędzia wykrywającego takie filmy. Jak to zadziała?
YouTube ogłosił, że rozszerza pilotaż technologii wykrywającej treści generowane przez sztuczną inteligencję, które wykorzystują wizerunek prawdziwych osób. Do testów nowego narzędzia zostaną teraz zaproszeni przedstawiciele władz publicznych, kandydaci polityczni oraz dziennikarze. Platforma chce w ten sposób ograniczyć ryzyko manipulacji i dezinformacji, które mogą pojawiać się w materiałach typu deepfake.
- YouTube chce być jak TV? Wprowadza genialną nowość!
- Irytujący błąd YouTube doprowadzi Cię do szału. Reklamy nie chcą znikać
YouTube walczy z deepfake’ami. Rozszerza dostępność nowych narzędzi
Nowe narzędzie ma wyszukiwać filmy, w których przy użyciu AI symulowany jest czyjś wygląd. Jeśli system znajdzie takie nagrania, osoba objęta programem pilotażowym będzie mogła je sprawdzić i – jeśli uzna, że naruszają zasady prywatności – zgłosić je do usunięcia. Zanim jednak uczestnicy uzyskają dostęp do funkcji, będą musieli potwierdzić swoją tożsamość, m.in. wysyłając selfie oraz dokument tożsamości.
Samsung S95D OLED / fot. rtvManiaK.pl
Technologia ta została po raz pierwszy zaprezentowana na YouTube w grudniu 2024 roku. Na początku korzystali z niej głównie znani aktorzy i sportowcy, później dostęp uzyskali również wybrani twórcy internetowi. W ubiegłym roku rozwiązanie trafiło szerzej do użytkowników programu YouTube Partner Program. Według firmy zapisało się do niego około 4 milionów twórców. Mechanizm działania przypomina system Content ID, który od lat wykrywa materiały naruszające prawa autorskie.
YouTube zaznacza jednak, że wykrycie podobieństwa nie oznacza automatycznego usunięcia filmu. Każdy przypadek będzie analizowany indywidualnie. Platforma podkreśla, że materiały o charakterze parodii, satyry czy krytyki politycznej mogą nadal pozostać dostępne.
Co ciekawe, do tej pory liczba próśb o usunięcie takich treści była bardzo niewielka. W wielu przypadkach wykryte materiały okazywały się raczej nieszkodliwe, a czasem nawet zwiększały zainteresowanie twórcami.
YouTube zapowiada, że to dopiero początek rozwoju tej technologii. W przyszłości system ma wykrywać także syntetycznie generowane głosy oraz inne elementy własności intelektualnej. Platforma deklaruje też wsparcie dla regulacji prawnych, które mają ograniczyć nieautoryzowane wykorzystywanie czyjegoś wizerunku i głosu przez narzędzia AI.
Na stronie mogą występować linki afiliacyjne lub reklamowe.







Dodaj komentarz