
Gdy w sieci pojawiło się narzędzie do „odpikselowywania” twarzy, wykorzystujące zaawansowane sieci neuronowe do przekształcania silnie pikselozowanych zdjęć w wysokiej jakości portrety — czyli rekonstruowania osoby na podstawie złożonych algorytmów — internauci od razu zaczęli eksperymentować. Wielu testowało je jednak na obrazach, do których AI nie było pierwotnie przystosowane, co doprowadziło do powstania naprawdę dziwnych i momentami niepokojących wyników.
Mimo że użytkownicy wiedzieli, iż narzędzie nie działa idealnie za każdym razem, ciekawość zwyciężała — każdy chciał zobaczyć, jakie absurdalne pomysły sztuczna inteligencja zdecyduje się „zmaterializować”. Efekty tych eksperymentów były bardzo zróżnicowane.
Autorzy narzędzia oparli je na badaniu PULSE (Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Models). W praktyce algorytm przyjmuje pikselowany obraz, porównuje go z wieloma wysokiej jakości portretami, które tymczasowo pikseluje do podobnego poziomu, i wybiera najlepiej pasujący wzorzec. Następnie dodaje filtry i modyfikacje, by uzyskać jeszcze większe podobieństwo — i w ten sposób powstaje „odpikselowana” wersja zdjęcia.
Podstawowy model opracowali Alex Damian i współpracownicy, natomiast Denis Malimonov — popularyzator uczenia maszynowego w sztuce — stworzył prosty, łatwy w użyciu interfejs, by udostępnić rozwiązanie szerszej publiczności. Malimonov, kiedy dzielił się narzędziem w mediach społecznościowych, szybko przyciągnął uwagę internautów chętnych do testowania i pokazywania swoich rezultatów.
Malimonov wcześniej pracował jako projektant, a teraz eksperymentuje z programowaniem. Skoro jego główną grupą docelową są osoby bez doświadczenia w kodowaniu, zależało mu, by proces testowania technologii sieci neuronowych był maksymalnie prosty i dostępny.
Jednym z powodów jest ograniczenie informacji — komputer ma do dyspozycji czasem zaledwie sto pikseli, więc wiele szczegółów po prostu ginie. Drugim, kluczowym czynnikiem jest zbiór danych, na którym model się nauczył. Narzędzie korzysta z uprzednio wytrenowanego modelu CelebA-HQ, stworzonego głównie z fotografii znanych osób. W tej bazie przeważają twarze białych osób (ponad 7 000 zdjęć), podczas gdy reprezentacja Azjatów, osób czarnoskórych i indyjskich jest znacznie mniejsza — rzędu lub poniżej 1 000 zdjęć. W efekcie model lepiej „odtwarza” cechy, które najczęściej występowały w danych treningowych, co tłumaczy część nietypowych wyników.
Malimonov podkreśla, że nie istnieje powszechnie dostępny model o równomiernym rozkładzie ras w zbiorze treningowym, dlatego takie uprzedzenia i dysproporcje w wynikach są częste.
Internauci zaczęli wrzucać do narzędzia niemal wszystko, co choć w pewnym stopniu przypomina twarz: postacie z gier (Mario, Doom Guy), kreatury z Minecrafta (Creeper), emoji, memy — dosłownie wszystko, co da się rozpoznać jako obiekt z oczami i ustami. Czasem algorytm dawał całkiem sensowne wyniki, innym razem efekty były co najmniej wątpliwe. Przy tak ograniczonym i nierównomiernym zbiorze treningowym pojawienie się dziwactw było praktycznie nieuniknione.
Według badań z 2022 roku około 5 milionów Amerykanów zostało adoptowanych, a między 2% a…
Mamy dla Was prawdziwą ucztę dla oczu! Dla miłośników słodkości przygotowaliśmy zbiór najcieplejszych zdjęć pokazujących…
Najbardziej niepokojące historie to te prawdziwe. Duchy i potwory mogą przestraszyć, ale łatwo je zbagatelizować.…
Dla wielu ludzi autobus to po prostu środek transportu, ale kreatywni twórcy reklam widzą w…
Wprowadzenie Pewnie zauważyłeś już, że Wish — amerykańska platforma e‑commerce — nie oszczędza na reklamach.…
Pocałuj i zatańcz w każdym pięknym miejscu Przyjaciel kiedyś powiedział: pocałuj się w każdym pięknym…