W piątek, 23 lutego Google oficjalnie ogłosił wyłączenie generatora grafik przedstawiających ludzi w Gemini. Tak, tego samego, którego premierę hucznie firma ogłaszała zaledwie 3 tygodnie temu, 1 lutego. A do którego w Polsce ciągle nie mamy dostępu.
Sytuacja przypominała do złudzenia tę z 2016 roku, gdy algorytm Tay od Microsoftu w zaledwie 16 godzin stał się rasistą i został wyłączony. Teraz mamy sytuację równie kuriozalną, choć… na odwrót. Algorytm od Google’a chciał zbyt mocno, i jak się okazało – absurdalnie – stawiać na różnorodność.
Gemini i jego generator obrazów AI
Od momentu pojawienia się opcji generowania obrazów w Gemini, internauci próbowali wykazać błędne działanie sztucznej inteligencji. Początkowo zaktywizowali się przedstawiciele grup chcących udowodnić, że Google przesadnie prezentuje różnorodność.
Przeszkadzało im na przykład to, że na zapytanie o przedstawicielki mieszkające w jakimś kraju skandynawskim Gemini generowało obrazy kobiet o innych kolorach skóry niż biały.
Ten temat rozgrzewał co prawda część użytkowników internetu, ale nie wywołał poruszenia na dużą skalę. Aż do momentu, gdy w zeszłym tygodniu narzędzie Gemini w ramach promocji różnorodności… pokazało niemieckich nazistów o czarnej skórze.
Generator obrazów AI generuje fake newsy!
Historycznie nieprawdopodobne obrazy wstrząsnęły Redditem, a następnie całym internetem. Zaczęły wyciekać do sieci kolejne budzące kontrowersje treści. AI wygenerowało ojców założycieli USA jako przedstawicieli różnych kolorów skóry, a także uparcie generowało kobiety na stanowiskach w kontekście historycznym w czasach, gdy kobiety były jawnie dyskryminowane i nie miały dostępu do władzy.
(powyższe przykłady krążą po sieci, podawane z portalu na portal)
Zaledwie dobę potrzebował Google, by wyłączyć możliwość generowania grafik z ludźmi w Gemini. W oficjalnej informacji czytamy dosyć asekuracyjne, ale racjonalne wytłumaczenie:
„Co więc poszło nie tak? Krótko mówiąc, dwie rzeczy. Po pierwsze, nasze dostrojenie, aby upewnić się, że Gemini pokazuje zakres osób, nie uwzględniło przypadków, które wyraźnie nie powinny pokazywać zakresu. Po drugie, z biegiem czasu model stał się o wiele bardziej ostrożny, niż zamierzaliśmy, i całkowicie odmówił odpowiedzi na niektóre podpowiedzi – błędnie interpretując niektóre bardzo anodynowe podpowiedzi jako wrażliwe”
Jak działa generator obrazów AI od Gemini?
Generator obrazów został oparty na modelu AI Imagen 2 – jednym z modeli, z którego Google jest wyjątkowo dumny. Imagen 2 szkolony był na podstawie różnorodnych grafik. Programiści podkreślają, że skupiali się na tym, by tworzone prace były różnorodne pod względem osób przedstawianych na obrazach. Ponadto skupiono się także na tym, by uniknąć obrazów nawiązujących do przemocy, wykorzystania seksualnego, nagości i innych kontrowersyjnych treści.
Dbając o poprawność polityczną, zapomniano jednak o dbałości faktograficznej czy historycznej.
Jaka przyszłość czeka generator obrazów AI od Gemini?
Według oficjalnych informacji zawieszenie generatora obrazów jest tylko tymczasowe. Funkcje generowania kontekstu historycznego zostaną poprawione i dokładnie przetestowane. Ile czasu to zajmie? Tego niestety nie wiemy – tak duży model AI i zmiana jego zasad działania może potrwać miesiące.
Tymczasem kolejna wpadka giganta technologicznego w zbliżonym zakresie działania narzędzia AI przypomina nam, że wykorzystanie generatywnej sztucznej inteligencji to bardzo śliski grunt. Jej narzędzia mogą ulepszyć nasze życie, ale równie dobrze je zniszczyć, generując fake newsy bez mrugnięcia okiem.