Chat GPT zamiast lekarza? To niebezpieczny trend: "Sztuczna inteligencja może oszukiwać"

2023-10-10 13:29

Po głośnym w mediach przypadku, w którym matka przy pomocy sztucznej inteligencji z sukcesem zdiagnozowała chorującego od 3 lat synka, inni rodzice również sięgają po tego rodzaju metody "leczenia". Specjaliści ostrzegają jednak przed niebezpiecznym trendem, podkreślając, że sztucznej inteligencji brakuje "czynnika ludzkiego" i że ma skłonność do... oszukiwania.

Kobieta przy laptopie, w tle bawiace się dziecko

i

Autor: Getty images Chat GPT zamiast lekarza? To niebezpieczny trend: "Sztuczna inteligencja może oszukiwać"

Historia niezwykłej diagnozy podanej przez ChatGPT odbiła się w mediach szerokim echem. Pisaliśmy o niej również w serwisie mjakmama24.pl. Kilkuletni chłopiec od 3 lat cierpiał na silne bóle, uniemożliwiające mu normalne funkcjonowanie, przestał rosnąć i miał problemy z symetrią ciała. Lekarze byli bezradni, w przeciwieństwie do sztucznej inteligencji. Po wpisaniu przez matkę wyników badań, oceniła ona dolegliwości chłopca prawidłowo, proponując jako diagnozę neurologiczny zespół unieruchomionego rdzenia kręgowego.  

Spis treści

  1. Doktor ChatGPT
  2. Ryzyko większe od korzyści
  3. Brak źródeł? To nie problem
Grzegorz Napieralski: sztuczna inteligencja - szansa czy zagrożenie?

Doktor ChatGPT

To oczywiście sukces sztucznej inteligencji i ogromne szczęście dla cierpiącego od lat dziecka, jednak lekarze nie byli zachwyceni samą sytuacją. Jak podkreśla dr Harvey Karp, popularny amerykański pediatra i twórca słynnej metody "5S", wielu rodziców czuje pokusę sięgania po pomoc sztucznej inteligencji w celu uzyskania odpowiedzi na dręczące ich problemy. „Kiedy twoje dziecko cierpi, chcesz użyć każdego narzędzia, aby znaleźć odpowiedzi” – mówi ekspert w rozmowie z serwisem Mother.ly i ostrzega: „Problemy zaczynają się pojawiać, gdy ludzie zaczynają korzystać z narzędzi takich jak ChatGPT, zamiast szukać pomocy u wykwalifikowanego lekarza”.

Potwierdza to historia pewnego lekarza medycyny ratunkowej, który postanowił przetestować sztuczna inteligencję. Poprosił ChatGPT o postawienie możliwych diagnoz u młodej kobiety cierpiącej na ból w dolnej części brzucha. Otrzymał wiele wiarygodnych diagnoz, m.in. zapalenie wyrostka robaczkowego czy torbiel jajnika, nie było jedna wśród nich ciąży pozamacicznej. "ChatGPT nie zdałby u mnie końcowych egzaminów z medycyny" - podsumował lekarz. Jednak na obronę sztucznej inteligencji trzeba dodać, że po jakimś czasie na to samo pytanie, chat odpowiedział już bardziej dokładnie. "Prawdopodobnie ktoś powiedział mu o błędzie, a on wyciągnął wnioski z nowych danych - dodaje autor artykułu, który ukazał się ma stronie theconversation.com i podkreśla, że zdolność uczenia się sztucznej inteligencji to coś co ją wyróżnia.

Czytaj również: Rodzice ją szybko pokochają! Tak sztuczna inteligencja odpowiadała na trudne pytania dzieci

Odbierasz i słyszysz swoje dziecko: ktoś mnie porwał! Uwaga - to mogą być oszuści

Ryzyko większe od korzyści

Dlaczego diagnozowanie dziecka przez chat GPT może być niebezpieczne? Wydaje się to oczywiste. Od lat lekarze przestrzegają przed szukaniem pomocy medycznej w internecie - ze sztuczną inteligencja jest tak samo. Aby to zrozumieć, warto wspomnieć, jak ona działa. ChatGPT przypomina wyszukiwarkę, ale dysponuje większymi niż ona zasobami. Dodatkowo, potrafi tworzyć informacje na podstawie przewidywania kolejnych słów na podstawie znanych mu tekstów, do których ma dostęp. Ta metoda sprawdza się w wielu przypadkach i tak było z opisywana diagnozą chłopca cierpiącego na niezidentyfikowane bóle.

Ale lekarze podkreślają, że sztucznej inteligencji brakuje czynnika ludzkiego. Prawidłowa diagnoza potrzebuje nieraz dokładnego wywiadu, który podpowie lekarzowi coś, co wskaże kierunek diagnozy, albo po prostu zdrowego rozsądku, który oceni, co jest słuszne, a co nie. Sztuczna inteligencja czerpie bowiem odpowiedzi z istniejących tekstów czy innych dokumentów dostępnych w internecie, ale przecież nie wszystkie z nich są prawdziwe. Obok zdecydowanie wartościowych źródeł medycznych, są inne, kompletnie bezużyteczne lub wręcz fałszywe. ChatGPT potrafi je wyszukać i połączyć w całość, ale nie potrafi ocenić ich prawdziwości. "Nie masz możliwości sprawdzenia, czy diagnoza wypluwana przez ChatGPT jest oparta na dowodach naukowych czy nie” - dodaje dr Harvey Karp.

Brak źródeł? To nie problem

Inną niepokojącą rzeczą jest zjawisko halucynacji, o którym wspomina cytowany przez Today.com dr Andrew Beam, adiunkt epidemiologii na Harvardzie. To tendencja sztucznej inteligencji do wymyślania źródeł. Jak wyjaśnia ekspert, chat GPT może powołać się na nieistniejący tekst czy artykuł, który jego zdaniem mógłby powstać. "ChatGPT czasami fabrykuje informacje, gdy nie może znaleźć odpowiedzi. Załóżmy, że prosisz o badania dotyczące grypy. Narzędzie może w odpowiedzi podać kilka tytułów, które brzmią realnie, a wymienieni w nim autorzy mogli nawet pisać o grypie już wcześniej, ale artykuły mogą w rzeczywistości nie istnieć" - wyjaśnia zjawisko halucynacji dr Beam.

źródła: theconversation.com, today.com, mother.ly