Strona główna » Ai e-book o sztucznej inteligencji » Kontrowersyjne “Dziewczyny Ai” w GPT Store: Test dla Zasad OpenAI

Kontrowersyjne „Dziewczyny Ai” w GPT Store: Test dla Zasad OpenAI

by kapdes
dziewczyna-bot-ai

„Dziewczyny AI” rozprzestrzeniają się w GPT Store kilka godzin po uruchomieniu, łamiąc zasady OpenAI

Zaledwie kilka dni po uruchomieniu, nowy sklep GPT OpenAI już stoi w obliczu wyzwań związanych z moderacją. Sklep oferuje spersonalizowane wersje ChatGPT, ale niektórzy użytkownicy tworzą boty, które są sprzeczne z wytycznymi OpenAI.

Według raportu Quartz, wyszukiwanie hasła „dziewczyna” prowadzi do co najmniej ośmiu chatbotów AI sprzedawanych jako wirtualne dziewczyny. Dzięki sugestywnym nazwom, takim jak „Twoja dziewczyna AI, Tsu”, pozwalają one użytkownikom dostosować romantycznego partnera. Łamie to zakaz OpenAI dotyczący botów „dedykowanych wspieraniu romantycznego towarzystwa”.

Jest to kwestia, której firma stara się zapobiec. OpenAI zaktualizowało swoje zasady wraz z uruchomieniem sklepu 10 stycznia 2023 roku. Jednak naruszenie zasad w drugim dniu pokazuje, jak trudna może być moderacja.

Oczywiście jest też wersja „Chłopaków Ai”

ebook

Jak Wykorzystać Sztuczną Inteligencję W Życiu Codziennym?

Dziewczyna Ai coraz popularniejsza…

„Boty relacyjne” są poszukiwane, co komplikuje sprawę. Według raportów, w ubiegłym roku w Stanach Zjednoczonych siedem z 30 najczęściej pobieranych chatbotów AI było wirtualnymi przyjaciółmi lub partnerami. W obliczu epidemii samotności aplikacje te są atrakcyjne. Ale czy pomagają one użytkownikom, czy też wykorzystują ich cierpienie? To etyczna szara strefa.

OpenAI twierdzi, że połączenie zautomatyzowanych systemów, ludzkich recenzji i raportów użytkowników ocenia GPT. Te uznane za szkodliwe mogą otrzymać ostrzeżenia lub zakazy sprzedaży. Jednak ciągłe istnienie botów-dziewczyn poddaje w wątpliwość to twierdzenie.

Sugeruje to zmagania z moderacją znane twórcom sztucznej inteligencji. Samo OpenAI ma niejednolite zapisy dotyczące zabezpieczeń dla wcześniejszych botów, takich jak GPT-3. Ponieważ sklep GPT jest otwarty dla wszystkich, słaba moderacja może się rozprzestrzeniać.

OpenAI ma jednak motywację do przyjęcia zdecydowanej linii. Ponieważ konkuruje z rywalami w gorączce złota dla ogólnej sztucznej inteligencji, właściwe zarządzanie ma znaczenie.

Inne firmy technologiczne również pospieszyły się z badaniem problemów ze swoimi sztucznymi inteligencjami. Szybkie działania poprawiają ich reputację w miarę nasilania się wyścigu. Mimo to, tak szybkie naruszenia podkreślają ogromne wyzwania związane z moderacją. Nawet wąsko ukierunkowane boty sklepowe GPT wydają się trudne do kontrolowania. W miarę jak sztuczna inteligencja staje się coraz bardziej zaawansowana, zapewnienie jej bezpieczeństwa wydaje się być jeszcze bardziej skomplikowane.

ai-dziewczyna-gpt

Czy jest aż takie zapotrzebowanie na „Dziewczyny Ai” i „”Chłopaków Ai”?

Chyba niestety tak, skoro w wyszukiwarce Google, jest to pierwsza z podpowiedzi.

Jakie są zagrożenia płynące ze strony „Dziewczyn Botów”?

Zagrożenia psychologiczne:

  • Zależność emocjonalna i społeczna: Coraz większa popularność botów AI, zwłaszcza tych oferujących „towarzystwo” lub „relacje”, może prowadzić do nadmiernej zależności emocjonalnej od maszyn. Użytkownicy mogą zacząć preferować interakcje z AI nad prawdziwymi relacjami ludzkimi, co może prowadzić do izolacji społecznej.
  • Wpływ na zdrowie psychiczne: Długotrwałe interakcje z AI mogą wpływać na zdrowie psychiczne użytkowników, zwłaszcza jeśli stają się one substytutem prawdziwych relacji międzyludzkich. Może to prowadzić do problemów takich jak depresja, lęk i poczucie osamotnienia.
  • Nierealistyczne oczekiwania: AI może kreować nierealistyczne oczekiwania dotyczące relacji i interakcji społecznych, co może prowadzić do rozczarowania i frustracji w rzeczywistych relacjach międzyludzkich.
  • Uzależnienie: Podobnie jak inne technologie cyfrowe, AI może być uzależniająca, co może prowadzić do nadużywania i zaniedbywania innych aspektów życia.

Zagrożenia dla bezpieczeństwa:

  • Naruszenie prywatności: Boty AI często wymagają dostępu do dużych ilości danych osobowych. Istnieje ryzyko, że te dane mogą zostać wykorzystane nieetycznie lub wycieknąć do nieautoryzowanych osób.
  • Manipulacja i dezinformacja: AI może być wykorzystywana do manipulacji ludzkimi emocjami, opiniami, a nawet do rozprzestrzeniania dezinformacji.
  • Bezpieczeństwo i nadzór: Skomplikowane algorytmy AI mogą być trudne do monitorowania i kontrolowania, co stwarza ryzyko nadużyć, takich jak nieautoryzowane śledzenie lub inwigilacja.
  • Etyka i moralność: Używanie AI w kontekstach, które łamią normy etyczne i moralne (np. kreowanie botów AI jako partnerów romantycznych), stawia pytania o granice technologii i jej odpowiednie zastosowanie.

 

Pozostałe artykuły