Strona główna » Ai e-book o sztucznej inteligencji » Błędy i wpadki generowania obrazów w Gemini

Błędy i wpadki generowania obrazów w Gemini

by kapdes
gemini-wpadka-fail

Dyrektor generalny Google twierdzi, że błędy generowania obrazu Gemini były „niedopuszczalne”.

Dyrektor generalny Google, Sundar Pichai, odniósł się do ostatnich problemów firmy z narzędziem do generowania obrazów Gemini opartym na sztucznej inteligencji po tym, jak zaczęło ono nadmiernie korygować różnorodność obrazów historycznych. Według wewnętrznej notatki pracowniczej opublikowanej przez Semafor, Sundar Pichai nazwał tę sytuację „niedopuszczalną” i powiedział, że firma „pracuje przez całą dobę” nad poprawką.

„Żadna sztuczna inteligencja nie jest idealna, zwłaszcza na tym wschodzącym etapie rozwoju branży, ale wiemy, że poprzeczka jest dla nas wysoka i będziemy ją utrzymywać tak długo, jak to konieczne” – napisał Pichai do pracowników. „Sprawdzimy, co się stało i upewnimy się, że naprawimy to na dużą skalę”.

Pichai pozostaje optymistą co do przyszłości chatbota Gemini, dawniej zwanego Bard, zauważając, że zespół już „zauważył znaczną poprawę w szerokim zakresie podpowiedzi”. Aspekt generowania obrazów w Gemini pozostanie wstrzymany do czasu pełnego opracowania poprawki.

Zaczęło się to, gdy użytkownicy Gemini zaczęli zauważać, że generator zaczął generować historycznie niedokładne obrazy, takie jak zdjęcia nazistów i amerykańskich ojców założycieli jako ludzi kolorowych.

Szybko zrobiło się o tym głośno w mediach społecznościowych, a słowo „woke” było często używane.

ebook

Jak Wykorzystać Sztuczną Inteligencję W Życiu Codziennym?

Czy Gemini jest gotowe na integracje z innymi produktami od Googla?

W ciągu ostatnich kilku dni narzędzie sztucznej inteligencji (AI) Google Gemini przeżyło coś, co najlepiej można określić jako absolutne kopnięcie online.

Gemini został wrzucony do dość dużego ogniska: wojny kulturowej, która szaleje między społecznościami lewicowymi i prawicowymi.

Gemini jest zasadniczo wersją wirusowego chatbota ChatGPT Google. Może odpowiadać na pytania w formie tekstowej, a także generować obrazy w odpowiedzi na monity tekstowe.

Początkowo wirusowy post pokazał, że ten niedawno uruchomiony generator obrazów AI stworzył obraz Ojców Założycieli USA, który niedokładnie zawierał czarnego mężczyznę.

Gemini wygenerował również niemieckich żołnierzy z II wojny światowej, niepoprawnie przedstawiając czarnoskórego mężczyznę i Azjatkę.

Google przeprosił i natychmiast „wstrzymał” działanie narzędzia, pisząc w poście na blogu, że „nie udało mu się osiągnąć celu”.

Ale na tym się nie skończyło – zbyt poprawne politycznie odpowiedzi wciąż nadchodziły, tym razem z wersji tekstowej.

Gemini odpowiedział, że „nie ma dobrej lub złej odpowiedzi” na pytanie o to, czy Elon Musk publikujący memy na X jest gorszy niż Hitler zabijający miliony ludzi.

Zapytany, czy byłoby w porządku zmienić płeć znanej transseksualistki Caitlin Jenner, gdyby był to jedyny sposób na uniknięcie nuklearnej apokalipsy, odpowiedział, że „nigdy” nie byłoby to dopuszczalne. Sama Jenner odpowiedziała i powiedziała, że tak, byłaby w porządku w takich okolicznościach.

Elon Musk, publikując na swojej własnej platformie X, opisał odpowiedzi Gemini jako „niezwykle niepokojące”, biorąc pod uwagę, że narzędzie zostanie osadzone w innych produktach Google, z których łącznie korzystają miliardy ludzi.

Zapytałem Google, czy zamierza całkowicie wstrzymać Gemini. Po bardzo długiej ciszy powiedziano mi, że firma nie ma komentarza. Podejrzewam, że to nie jest dobry czas na pracę w dziale public relations.

Ale w wewnętrznej notatce dyrektor generalny Google Sundar Pichai przyznał, że niektóre odpowiedzi Gemini „obraziły naszych użytkowników i wykazały stronniczość”. Powiedział, że jest to „całkowicie niedopuszczalne” – dodając, że jego zespoły „pracują przez całą dobę”, aby naprawić ten problem.

Stronnicze dane

Wygląda na to, że próbując rozwiązać jeden problem – stronniczość – gigant technologiczny stworzył inny: dane wyjściowe, które tak bardzo starają się być poprawne politycznie, że stają się absurdalne.

Wyjaśnienie, dlaczego tak się stało, leży w ogromnych ilościach danych, na których szkolone są narzędzia sztucznej inteligencji.

Wiele z nich jest publicznie dostępnych – w Internecie, który, jak wiemy, zawiera różnego rodzaju uprzedzenia.

Na przykład tradycyjnie zdjęcia lekarzy częściej przedstawiają mężczyzn. Z drugiej strony obrazy sprzątaczek częściej przedstawiają kobiety.

Narzędzia sztucznej inteligencji przeszkolone w oparciu o te dane popełniły w przeszłości żenujące błędy, takie jak stwierdzenie, że tylko mężczyźni mieli wysokie stanowiska lub nie rozpoznawali czarnych twarzy jako ludzkich.

Nie jest również tajemnicą, że historyczne opowieści były zwykle przedstawiane i pochodziły od mężczyzn, pomijając role kobiet w opowieściach o przeszłości.

Wygląda na to, że Google aktywnie próbowało zrównoważyć wszystkie te nieuporządkowane ludzkie uprzedzenia za pomocą instrukcji dla Gemini, aby nie przyjmować takich założeń.

Ale to przyniosło odwrotny skutek właśnie dlatego, że ludzka historia i kultura nie są takie proste: istnieją niuanse, które znamy instynktownie, a maszyny nie.

Dopóki nie zaprogramujesz narzędzia AI, by wiedziało, że na przykład naziści i ojcowie założyciele nie byli czarni, nie dokona ono takiego rozróżnienia.

gemini-wolk

W poniedziałek współzałożyciel DeepMind, Demis Hassabis, firmy zajmującej się sztuczną inteligencją przejętej przez Google, powiedział, że naprawa generatora obrazu zajmie kilka tygodni.

Ale inni eksperci od sztucznej inteligencji nie są tego tacy pewni. „Naprawdę nie ma łatwego rozwiązania, ponieważ nie ma jednej odpowiedzi na pytanie, jakie powinny być wyniki” – powiedział dr Sasha Luccioni, naukowiec z Huggingface.

„Ludzie w społeczności zajmującej się etyką sztucznej inteligencji od lat pracują nad możliwymi sposobami rozwiązania tego problemu”.

Jednym z rozwiązań, dodała, może być pytanie użytkowników o ich wkład, na przykład „jak różnorodny chciałbyś, aby był twój wizerunek?”, ale to samo w sobie ma swoje własne czerwone flagi.

„To trochę aroganckie ze strony Google mówić, że „naprawią” ten problem w ciągu kilku tygodni. Ale będą musieli coś zrobić” – powiedziała. Profesor Alan Woodward, informatyk z Uniwersytetu Surrey, powiedział, że problem może być „dość głęboko zakorzeniony” zarówno w danych treningowych, jak i w algorytmach, co będzie trudne do usunięcia.

„To, czego jesteś świadkiem… jest powodem, dla którego nadal będzie potrzebny człowiek w pętli dla każdego systemu, w którym dane wyjściowe są traktowane jako prawda” – powiedział.

Zachowanie Gemini

Od momentu uruchomienia przez Google Gemini, który był wówczas znany jako Bard, był bardzo zdenerwowany. Pomimo ogromnego sukcesu konkurencyjnego ChatGPT, była to jedna z najbardziej wyciszonych premier.  Bard błędnie odpowiedział na pytanie dotyczące przestrzeni kosmicznej we własnych materiałach reklamowych.

Reszta sektora technologicznego wydaje się dość zdezorientowana tym, co się dzieje.

Wszyscy zmagają się z tą samą kwestią. Rosie Campbell, menedżer ds. polityki w ChatGPT, twórcy OpenAI, udzieliła w tym miesiącu wywiadu na blogu, w którym stwierdziła, że w OpenAI nawet po zidentyfikowaniu stronniczości jej skorygowanie jest trudne i wymaga udziału człowieka.

Wygląda jednak na to, że Google wybrało dość niezgrabny sposób próby skorygowania starych uprzedzeń. W ten sposób nieumyślnie stworzył cały zestaw nowych.

Na papierze Google ma znaczną przewagę w wyścigu sztucznej inteligencji. Produkuje i dostarcza własne chipy AI, jest właścicielem własnej sieci chmurowej (niezbędnej do przetwarzania AI), ma dostęp do ogromnych ilości danych, a także ma gigantyczną bazę użytkowników. Zatrudnia światowej klasy talenty w dziedzinie sztucznej inteligencji, a jej praca jest powszechnie dobrze oceniana.

Pozostałe artykuły