Strona główna » Ai e-book o sztucznej inteligencji » Jak artyści walczą z Ai – manipulacja pikselami, sabotaż, pozwy sądowe

Jak artyści walczą z Ai – manipulacja pikselami, sabotaż, pozwy sądowe

by kapdes
artysci

OpenAi  vs Artyści

Najnowsza sztuczna inteligencja OpenAI, DALL-E 3, jest dużym krokiem naprzód, ponieważ system może lepiej podążać za promptami i generować dobrze dopasowane obrazy w wielu stylach. Zwiększa to egzystencjalne obawy niektórych grafików i artystów.

OpenAI pozwala artystom usuwać swoje obrazy i grafiki z materiałów szkoleniowych. Dotyczy to jednak tylko szkolenia następnego modelu.

Co więcej, środek ten byłby skuteczny tylko wtedy, gdyby tak wielu artystów odmówiło korzystania z modeli sztucznej inteligencji, że jakość technologii znacznie by ucierpiała.

Artyści skarżyli się Bloombergowi, że proces rezygnacji jest uciążliwy i przypomina „gehennę”. OpenAI nie ujawnia, ilu artystów złożyło skargi. Rzecznik mówi, że jest na to za wcześnie, ale OpenAI zbiera opinie i stara się usprawnić proces.

Co pozostaje artystom? Pozwy sądowe lub sabotaż

Artyści, którzy chcą walczyć z generatywną sztuczną inteligencją dla obrazów, mają tylko dwie opcje: mogą mieć nadzieję, że międzynarodowe sądy podtrzymają liczne roszczenia dotyczące praw autorskich i pociągną do odpowiedzialności dostawców modeli. Ale procesy sądowe mogą ciągnąć się latami, a ich wyniku nikt nie jest w stanie przewidzieć. Nie widać żadnych krótkoterminowych rozwiązań.

Nowy ruch koncentruje się na sabotowaniu modeli AI. Podejścia takie jak Glaze implementują niewidoczne piksele w oryginalnych obrazach, które oszukują systemy sztucznej inteligencji, aby myślały, że obraz ma niewłaściwy styl. Zmienia to ręcznie rysowany obraz w render 3D, chroniąc styl oryginału.

Nightshade, nazwany na cześć wysoce trującej śmiertelnej rośliny, działa podobnie. Ale tutaj zmanipulowane piksele mają w rzeczywistości uszkodzić model, wprowadzając go w błąd. Na przykład, zamiast zobaczyć pociąg, system AI zobaczy samochód.

Trująca pigułka dla modeli AI

Mniej niż 100 takich „zatrutych” obrazów może wystarczyć do uszkodzenia modelu sztucznej inteligencji obrazu, takiego jak Stable Diffusion XL. Zespół Nightshade planuje zaimplementować to narzędzie w Glaze, nazywając je „ostatnią obroną”.

Nightshade, który obecnie istnieje tylko jako projekt badawczy, może być skutecznym narzędziem dla właścicieli treści do ochrony ich własności intelektualnej przed skrobakami, które lekceważą lub ignorują informacje o prawach autorskich, nie skrobią / nie indeksują instrukcji i list rezygnacji, napisali naukowcy. Studia filmowe, wydawcy książek, producenci gier i indywidualni artyści mogą korzystać z systemów takich jak Nightshade, aby stworzyć silny środek odstraszający przed nieautoryzowanym skrobaniem.

Jednak korzystanie z Nightshade i podobnych narzędzi może mieć również negatywne skutki, w tym podważać wiarygodność modeli generatywnych i ich zdolność do tworzenia znaczących obrazów.

Ale nawet gdyby artyści zbiorowo sabotowali dane treningowe, prawdopodobnie trudno byłoby wywrzeć na nie wpływ.

Po pierwsze, twórcy modeli mogliby podjąć środki zaradcze, takie jak odfiltrowanie uszkodzonych plików.

Chociaż nie jest jasne, czy to zadziała, wystarczy powiedzieć, że w większości przypadków twórcy modeli mają większą swobodę w opracowywaniu bardziej wyrafinowanych technologii niż ruch artystów lub badacze, którzy stoją po stronie artystów, takich jak twórcy Glaze i Nightshade.

Szkolenie modeli sztucznej inteligencji prawdopodobnie również stanie się bardziej wydajne, ponieważ modele nauczą się lepiej generalizować. Wysoce wydajne systemy sztucznej inteligencji będą wówczas wymagały wyższej jakości, ale mniejszej ilości danych. Wraz ze wzrostem jakości generowanych obrazów, mogą one być również wykorzystywane jako syntetyczny materiał szkoleniowy, dając dostawcom modeli wyjście z przyszłych sporów dotyczących licencji i praw autorskich.

Pozostałe artykuły