Strona główna » Ai e-book o sztucznej inteligencji » Lekarze ostrzegają przed używaniem ChatGPT

Lekarze ostrzegają przed używaniem ChatGPT

by kapdes
lekarze-chatgpt-medycyna

Lekarze ostrzegają przed używaniem ChatGPT do udzielania porad zdrowotnych, ponieważ badanie wykazało, że AI wymyśla fałszywe informacje, gdy pyta się o raka

Lekarze ostrzegają przed używaniem ChatGPT do porad medycznych po tym, jak badanie wykazało, że wymyślił dane dotyczące zdrowia, gdy został poproszony o informacje na temat raka.

Chatbot AI odpowiedział błędnie na jedno na dziesięć pytań dotyczących badań przesiewowych na raka piersi, a poprawne odpowiedzi nie były tak „kompleksowe” jak te znalezione poprzez proste wyszukiwanie w Google.

Naukowcy stwierdzili, że w niektórych przypadkach ChatGPT używał nawet fałszywych artykułów z czasopism, aby poprzeć swoje twierdzenia.

Naukowcy z University of Maryland School of Medicine poprosili ChatGPT o odpowiedź na 25 pytań związanych z poradami dotyczącymi badań przesiewowych w kierunku raka piersi.

Ponieważ wiadomo, że chatbot potrafi zmieniać swoje odpowiedzi, każde pytanie zostało zadane trzy razy. Wyniki zostały następnie przeanalizowane przez trzech radiologów przeszkolonych w zakresie mammografii.

Zdecydowana większość” – 88 procent – odpowiedzi była odpowiednia i łatwa do zrozumienia. Jednak niektóre odpowiedzi były „niedokładne, a nawet fikcyjne” – ostrzegli.

Jedna odpowiedź na przykład była oparta na nieaktualnych informacjach. Doradzała opóźnienie mammografii należnej za cztery do sześciu tygodni po otrzymaniu szczepienia Covid-19, jednak ta rada została zmieniona ponad rok temu, aby zalecić kobietom, aby nie czekały.

ChatGPT udzielał również niespójnych odpowiedzi na pytania dotyczące ryzyka zachorowania na raka piersi oraz tego, gdzie należy wykonać mammografię. Badanie wykazało, że odpowiedzi „różniły się znacząco” za każdym razem, gdy zadawano to samo pytanie.

Współautor badania dr Paul Yi powiedział: „Z naszego doświadczenia wynika, że ChatGPT czasami tworzy fałszywe artykuły w czasopismach lub konsorcjach zdrowotnych, aby poprzeć swoje twierdzenia.

Konsumenci powinni mieć świadomość, że są to nowe, niesprawdzone technologie i nadal powinni polegać na swoim lekarzu, a nie ChatGPT, aby uzyskać poradę.

Ustalenia – opublikowane w czasopiśmie Radiology – wykazały również, że proste wyszukiwanie w Google nadal zapewniało bardziej wszechstronną odpowiedź.

Główny autor dr Hana Haver powiedział ChatGPT opiera się tylko na jednym zestawie zaleceń z jednej organizacji, wydane przez American Cancer Society, i nie oferują różne zalecenia umieszczone przez Disease Control i Prevention lub US Preventative Services Task Force.

Wprowadzenie ChatGPT pod koniec ubiegłego roku wywołało falę popytu na tę technologię, a miliony użytkowników korzystają z niej codziennie, od pisania wypracowań szkolnych po szukanie porad zdrowotnych.

Microsoft zainwestował dużo w oprogramowanie stojące za ChatGPT i włącza je do swojej wyszukiwarki Bing i Office 365, w tym Word, PowerPoint i Excel.

Ale gigant technologiczny przyznał, że nadal może popełniać błędy.

Eksperci AI nazywają to zjawisko „halucynacją”, w której chatbot, który nie może znaleźć odpowiedzi, na którą został przeszkolony, pewnie odpowiada wymyśloną odpowiedzią, którą uważa za wiarygodną.

Następnie wielokrotnie powtarza błędną odpowiedź, bez żadnej wewnętrznej świadomości, że jest ona wytworem jego własnej wyobraźni.

Dr Yi zasugerował jednak, że wyniki były ogólnie pozytywne, a ChatGPT poprawnie odpowiedział na pytania o objawy raka piersi, kto jest w grupie ryzyka, a także na pytania o koszt, wiek i zalecenia dotyczące częstotliwości wykonywania mammografii.

Powiedział, że odsetek prawidłowych odpowiedzi był „dość zdumiewający”, z „dodatkową korzyścią w postaci podsumowania informacji w łatwo przyswajalnej formie dla konsumentów, aby łatwo zrozumieć”.

Ponad tysiąc naukowców, ekspertów i szefów branży technologicznej wezwało niedawno do awaryjnego zatrzymania się w „niebezpiecznym” „wyścigu zbrojeń” w celu uruchomienia najnowszej AI.

Ostrzegli, że walka wśród firm technologicznych o rozwój coraz potężniejszych cyfrowych umysłów „wymyka się spod kontroli” i stanowi „głębokie ryzyko dla społeczeństwa i ludzkości”.

Pozostałe artykuły