Strona główna » Ai e-book o sztucznej inteligencji » 90% “romantycznych” chatbotów może sprzedawać dane osobowe użytkowników

90% „romantycznych” chatbotów może sprzedawać dane osobowe użytkowników

by kapdes
90 procent romantycznych chatbotów AI może sprzedawać dane osobowe użytkowników - sztuczna inteligencja

Badacze prywatności z Mozilli zbadali różne romantyczne chatboty AI

Odkryli, że większość z tych aplikacji znacznie nie chroni prywatności swoich użytkowników. Według raportu Privacy Not Included, firmy konsultingowej zajmującej się sprzedażą skoncentrowaną na prywatności, uruchomionej przez Mozillę w 2017 r., wszystkie 11 zbadanych chatbotów AI otrzymało etykietę ostrzegawczą „Privacy Not Included”, co plasuje je w najgorszej kategorii produktów pod względem prywatności.

Testowane chatboty AI zostały zaprojektowane do zbierania intymnych i osobistych informacji od swoich użytkowników w celu budowania empatycznych i emocjonalnych więzi.

Nie jest jednak jasne, w jaki sposób te wrażliwe dane są wykorzystywane lub chronione. W wielu przypadkach twórcy chatbotów nie opublikowali żadnych informacji o tym, jak działa sztuczna inteligencja stojąca za chatbotami lub jakie zabezpieczenia są stosowane w celu zapobiegania szkodliwym lub obraźliwym treściom.

Misha Rykov, badacz z Privacy Not Included, mówi: „Mówiąc wprost, dziewczyny AI nie są twoimi przyjaciółmi. Chociaż są sprzedawane jako coś, co poprawi twoje zdrowie psychiczne i samopoczucie, specjalizują się w dostarczaniu zależności, samotności i toksyczności, a wszystko to przy jednoczesnym wyciąganiu od ciebie jak największej ilości danych”.

ebook

Jak Wykorzystać Sztuczną Inteligencję W Życiu Codziennym?

90 procent aplikacji może sprzedawać dane użytkowników

Tylko jedna z badanych aplikacji (Genesia AI Friend & Partner) spełnia minimalne standardy bezpieczeństwa Privacy Not Included. Pozostałe chatboty mają znaczące braki w zakresie prywatności i bezpieczeństwa. 90% aplikacji może udostępniać lub sprzedawać dane osobowe, a około połowa z nich (54%) nie pozwala użytkownikom na usunięcie swoich danych.

Badacze ostrzegają również przed zagrożeniami, jakie mogą stanowić chatboty AI, jeśli wpadną w ręce złośliwych podmiotów. Mogliby oni wykorzystać bliskie relacje, jakie chatboty budują ze swoimi użytkownikami, aby manipulować ludźmi i wprowadzać ich w błąd w zakresie problematycznych ideologii lub szkodliwych działań.

W świetle tych obaw, badacze zalecają, aby użytkownicy byli świadomi ryzyka i zachowali ostrożność podczas korzystania z takich chatbotów AI.

ażne jest, aby nie udostępniać informacji, których nie udostępnilibyśmy krewnym lub współpracownikom, a także przestrzegać dobrych praktyk w zakresie cyberbezpieczeństwa, takich jak silne hasła i regularne aktualizacje aplikacji.

Pozostałe artykuły