Strona główna » Ai e-book o sztucznej inteligencji » 17 lekarzom się nie udało, ChatGPT poprawnie zdiagnozował chorobę

17 lekarzom się nie udało, ChatGPT poprawnie zdiagnozował chorobę

by kapdes
lekarz-ai

ChatGPT trafnie diagnozuje przewlekły ból dziecka po tym, jak 17 lekarzy zawiodło

Matka przez trzy lata walczyła o diagnozę przewlekłego bólu swojego syna. Następnie ChatGPT podobno dostarczył prawidłową diagnozę.

Według matki, w ciągu trzech lat odwiedziła 17 specjalistów, z których wszyscy szukali możliwej przyczyny dolegliwości chłopca w swoich dziedzinach specjalizacji. Jednak żaden lekarz nie był w stanie złagodzić przewlekłego bólu jej syna, powiedziała portalowi Today.com matka, która pragnie zachować anonimowość.

Wprowadziła wszystkie objawy swojego syna i dane MRI do ChatGPT.

System sztucznej inteligencji OpenAI wypluł diagnozę, której lekarze wcześniej nie postawili: zespół pępowiny.

Jest to schorzenie wieku dziecięcego, w którym rdzeń kręgowy zostaje przywiązany do swoich osłonek lub otaczającej tkanki. Wynikająca z tego trakcja na włóknach nerwowych może powodować bóle głowy i inne objawy. Neurochirurg potwierdził diagnozę i przeprowadził operację na chłopcu, który nadal wraca do zdrowia.

W podobnej historii GPT-4 zdiagnozował rzadką chorobę psów na podstawie wyników badań krwi. Klinika weterynaryjna nie postawiła diagnozy, ale druga diagnoza z innej kliniki potwierdziła diagnozę GPT-4.

Chatboty AI pomagają lekarzom w diagnozie

Takie anegdoty ilustrują potencjał dużych modeli językowych do odpowiadania na pytania medyczne na poziomie eksperckim, co zostało już wykazane w badaniach. GPT-4 jest liderem w tej dziedzinie. Dzięki Med-PaLM Google zamierza skomercjalizować dziedzinę wyspecjalizowanych modeli językowych dla medycyny.

W porównaniu do tradycyjnego wyszukiwania w Internecie, LLM mają potencjalnie szerszą wiedzę specjalistyczną, którą można wykorzystać w wysoce ukierunkowany sposób. Badania są szybsze. Istnieje jednak ryzyko halucynacji, tj. błędnych odpowiedzi, które mogą mieć szczególnie poważne konsekwencje w kontekście zdrowia.

Ale jak pokazują dwa powyższe przykłady, ludzie popełniają błędy. Dyskusja na temat wykorzystania chatbotów medycznych może być podobna do tej na temat samojezdnych samochodów: Czy wystarczy, aby systemy działały niezawodnie na poziomie ludzkim lub nieco powyżej, czy też muszą być bezbłędne? Kto będzie ponosił odpowiedzialność w przypadku wystąpienia błędu?

Pozostałe artykuły