Jak zadeklarowała firma w oświadczeniu na swojej stronie internetowej, jej media społecznościowe będą używać tak zwanych znaków wodnych i metadanych dodawanych do obrazów, by sprawdzić, czy w poście nie użyto wytworu sztucznej inteligencji. A jeśli tak, to do takiego posta będzie dodawane odpowiednie oznaczenie informujące o tym odbiorców.
Oznaczenia dla obrazków wytworzonych przez sztuczną inteligencję Mety już są dodawane do obrazków. Te wytworzone przy użyciu modeli Google, OpenAI, Microsoftu, Adobe, Midjourney czy Shutterstocka –Meta zacznie oznaczać w ciągu kilku miesięcy. Czeka, aż firmy te wdrożą odpowiednie rozwiązania.
Jak jednak przyznaje Meta, trudno jest wykryć wszystkie treści wytworzone przez GenAI. Po pierwsze nie wszystkie firmy wprowadziły odpowiednie technologie do ich generatorów obrazów. Dodatkowo w obszarze generowania wideo czy dźwięku wysiłki te są jeszcze mniej zaawansowane. To sprawia, że wykrycie deepfake’ów w tych obszarach będzie jeszcze trudniejsze. Po drugie istnieją sposoby usunięcia oznaczeń (czy to znaków wodnych, czy to metadanych) z już oznakowanych treści.
Jak pisaliśmy niedawno, deepfake wideo pozwolił oszustom wyłudzić przeszło 20 milionów dolarów od międzynarodowej firmy.
Meta pracuje nad opracowaniem technologii, która automatycznie wykrywałaby sztucznie generowane treści. Ponadto właściciel Facebooka będzie wymagać od użytkowników, którzy będą używać w swoich postach sztucznie wytworzone, ale realistycznie brzmiące lub wyglądające treści audio i wideo, by dodawali odpowiednie oznaczenia do tych treści. Tych, którzy się do tego nie dostosują, będą czekać sankcje ze strony platform społecznościowych.
Jak odnotowuje firma, opracowanie takich rozwiązań będzie szczególnie ważne w następnych latach, przy nasilającej się rywalizacji na świecie, która będzie sprzyjać rozwojowi generowanej przez AI dezinformacji.
Na problemy związane z identyfikacją deepfake’ów wskazuje niedawna historia Elevenlabs, jednorożca założonego przez dwóch Polaków, który oferuje technologię generowania i klonowania głosu. Okazało się, że generatywna AI firmy została użyta do sklonowania głosu prezydenta Joego Bidena. Ten zaś został następnie wykorzystany przez telefonicznego bota.
Elevenlabs przyznało, jak donosi Fortune, że bez dostępu do pliku źródłowego, mając do dyspozycji tylko nagranie z telefonu, trudno jej wykryć, czy dany głos był wytworzony przy użyciu jej technologii.
Meta będzie oznaczać obrazki wytworzone przez AI, ale czasami jesteśmy w stanie sami sprawdzić, czy dane zdjęcie to nie fałszywka. Jak to zrobić? Przeczytaj: Kilka narzędzi, by nie dać się nabrać na sfałszowane zdjęcia.
Źródło grafiki: Sztuczna inteligencja, model Dall-E 3