5 powodów, dla których nie powinieneś ufać ChatGPT w zakresie porad medycznych

5 powodów, dla których nie powinieneś ufać ChatGPT w zakresie porad medycznych
Czytelnicy tacy jak ty pomagają wspierać MUO. Kiedy dokonujesz zakupu za pomocą linków na naszej stronie, możemy otrzymać prowizję partnerską. Czytaj więcej.

ChatGPT — chatbot ze sztuczną inteligencją (AI) opracowany przez OpenAI — stał się wszechstronnym narzędziem do odpowiadania na wiele prostych i trudnych pytań, w tym na prośby o poradę medyczną. Może odpowiedzieć na pytania medyczne i zdać egzamin USMLE (United States Medical Licensing Exam), ale nie może zastąpić wizyty u lekarza w szpitalu.





WYKORZYSTAJ WIDEO DNIA PRZEWIŃ, ABY KONTYNUOWAĆ TREŚĆ

Wraz z postępem ChatGPT ma potencjał, aby całkowicie zmienić sektor opieki zdrowotnej. Po zintegrowaniu z systemami opieki zdrowotnej może poprawić dostęp pacjentów do opieki i zwiększyć efektywność pracy lekarzy. Ponieważ jednak jest oparty na sztucznej inteligencji, istnieje kilka obaw związanych z jego potencjalnymi zagrożeniami.





1. ChatGPT ma ograniczoną wiedzę

  Świnia do serca

ChatGPT nie wie wszystkiego. Według OpenAI, ChatGPT ma ograniczoną wiedzę, szczególnie jeśli chodzi o to, co wydarzyło się po wrześniu 2021 r.





jak zostać zaproszonym do amazon vine

ChatGPT nie ma bezpośredniego dostępu do wyszukiwarek ani internetu. Został wyszkolony przy użyciu ogromnej ilości danych tekstowych z wielu źródeł, w tym książek, stron internetowych i innych tekstów. Nie „zna” danych, które dostarcza. Zamiast tego ChatGPT używa przeczytanego tekstu do tworzenia prognoz dotyczących słów, których należy użyć i w jakiej kolejności.

W związku z tym nie może otrzymywać bieżących informacji o rozwoju sytuacji w dziedzinie medycyny. Tak, ChatGPT nie jest świadomy przeszczepu serca ze świni na człowieka ani żadnych innych niedawnych przełomów w naukach medycznych.



2. ChatGPT może generować nieprawidłowe informacje

ChatGPT może odpowiedzieć na zadawane pytania, ale odpowiedzi mogą być niedokładne lub stronnicze. Według Cyfrowe zdrowie PLoS badanie, ChatGPT wykonał z co najmniej 50% dokładnością we wszystkich egzaminach USMLE. I chociaż w niektórych aspektach przekroczył próg 60%, nadal istnieje możliwość błędu.

Co więcej, nie wszystkie informacje użyte do trenowania ChatGPT są autentyczne. Odpowiedzi oparte na niezweryfikowanych lub potencjalnie stronniczych informacjach mogą być nieprawidłowe lub nieaktualne. W świecie medycyny niedokładne informacje mogą kosztować nawet życie.





Ponieważ ChatGPT nie może samodzielnie badać ani weryfikować materiałów, nie może rozróżniać faktów od fikcji. Szanowane czasopisma medyczne, w tym Journal of the American Medical Association (JAMA), ustanowiły surowe przepisy, zgodnie z którymi tylko ludzie mogą pisać prace naukowe publikowane w czasopiśmie. W rezultacie, powinieneś stale sprawdzać fakty w odpowiedziach ChatGPT .

3. ChatGPT nie bada Cię fizycznie

Diagnozy medyczne nie opierają się wyłącznie na objawach. Lekarze mogą uzyskać wgląd w schemat i ciężkość choroby poprzez badanie fizykalne pacjenta. Do diagnozowania pacjentów lekarze wykorzystują dziś zarówno technologie medyczne, jak i pięć zmysłów.





ChatGPT nie może przeprowadzić pełnej wirtualnej kontroli ani nawet badania fizykalnego; może odpowiadać tylko na objawy, które podajesz jako wiadomości. Dla bezpieczeństwa i opieki nad pacjentem błędy w badaniu przedmiotowym — lub całkowite zignorowanie badania przedmiotowego — mogą być szkodliwe. Ponieważ ChatGPT nie zbadał Cię fizycznie, przedstawi błędną diagnozę.

4. ChatGPT może podawać fałszywe informacje

  Fałszywa odpowiedź ChatGPT

Niedawne badanie przeprowadzone przez Szkoła Medyczna Uniwersytetu Maryland w sprawie porad ChatGPT dotyczących badań przesiewowych w kierunku raka piersi znaleziono następujące wyniki:

gdzie są zapisane wszystkie twoje dokumenty?

„Widzieliśmy z naszego doświadczenia, że ​​ChatGPT czasami wymyśla fałszywe artykuły w czasopismach lub konsorcjach zdrowotnych, aby poprzeć swoje twierdzenia”. —Paul Yi MD, adiunkt radiologii diagnostycznej i medycyny nuklearnej na UMSOM

W ramach naszych testów ChatGPT poprosiliśmy o listę książek non-fiction, które obejmują temat podświadomości. W rezultacie ChatGPT wyprodukował fałszywą książkę zatytułowaną „Potęga nieświadomego umysłu” autorstwa dr Gustava Kuhna.

Kiedy zapytaliśmy o książkę, odpowiedziała, że ​​jest to „hipotetyczna” książka, którą stworzyła. ChatGPT nie powie Ci, czy artykuł w czasopiśmie lub książka jest fałszywa, jeśli nie zapytasz dalej.

5. ChatGPT to tylko model języka AI

  ChatGPT Medical

Modele językowe funkcjonują na zasadzie zapamiętywania i uogólniania tekstu, a nie badania lub studiowania stanu pacjenta. Pomimo generowania odpowiedzi, które odpowiadają ludzkim standardom pod względem języka i gramatyki, ChatGPT nadal zawiera wiele problemów , podobnie jak inne boty AI.

ChatGPT nie zastępuje Twojego lekarza

Ludzcy lekarze zawsze będą potrzebni, aby podejmować ostateczne decyzje dotyczące opieki zdrowotnej. ChatGPT zwykle zaleca rozmowę z licencjonowanym lekarzem, gdy prosisz o poradę medyczną.

Narzędzia oparte na sztucznej inteligencji, takie jak ChatGPT, mogą być używane do planowania wizyt lekarskich, pomagania pacjentom w otrzymywaniu leczenia i przechowywania informacji o ich stanie zdrowia. Ale nie może zastąpić wiedzy i empatii lekarza.

Nie powinieneś polegać na narzędziu opartym na sztucznej inteligencji do diagnozowania lub leczenia swojego zdrowia, czy to fizycznego, czy psychicznego.

jak sprawić, by ikona baterii pojawiła się w systemie Windows 10