OpenAI promuje ChatGPT do decyzji zdrowotnych pomimo obaw o dokładność
Terrill Dicki 05 mar 2026 01:21
OpenAI podkreśla rodzinę korzystającą z ChatGPT przy decyzjach dotyczących leczenia raka, ale ostatnie badania pokazują, że narzędzia zdrowotne AI mają poważne problemy z dokładnością i bezpieczeństwem.
OpenAI opublikowało w tym tygodniu studium przypadku przedstawiające rodzinę, która używała ChatGPT do przygotowania się na decyzje dotyczące leczenia raka u ich syna, pozycjonując chatbota AI jako uzupełnienie wskazówek lekarza. Timing budzi wątpliwości, biorąc pod uwagę narastające dowody, że narzędzia zdrowotne AI niosą ze sobą poważne problemy z niezawodnością.
Materiał promocyjny, opublikowany 4 marca, opisuje, jak rodzice wykorzystali ChatGPT wraz z zespołem onkologicznym swojego dziecka. OpenAI przedstawia to jako odpowiedzialne użycie AI — uzupełniające, a nie zastępujące wiedzę medyczną.
Ale ta różowa narracja zderza się z niepokojącymi wynikami badań. Badanie opublikowane w Nature Medicine, które analizowało własny produkt OpenAI „ChatGPT Health", wykryło poważne problemy z dokładnością, protokołami bezpieczeństwa i uprzedzeniami rasowymi w zaleceniach medycznych. To nie jest drobne zastrzeżenie dla narzędzia, którego ludzie mogą używać, podejmując decyzje życia i śmierci dotyczące leczenia raka.
Problem dokładności
Niezależne badania w najlepszym przypadku rysują mieszany obraz. Badanie Mass General Brigham wykazało, że ChatGPT osiągnął około 72% dokładności w różnych specjalizacjach medycznych, wzrastając do 77% w przypadku ostatecznych diagnoz. Brzmi przyzwoicie, dopóki nie weźmiesz pod uwagę, o co chodzi — czy wsiadłbyś do samolotu z 23% szansą, że pilot popełni krytyczny błąd?
Firma AI w opiece zdrowotnej Atropos dostarczyła jeszcze bardziej ponure liczby: ogólnego przeznaczenia duże modele językowe dostarczają klinicznie istotnych informacji tylko w 2% do 10% przypadków dla lekarzy. Przepaść między „czasami pomocny" a „wystarczająco niezawodny do decyzji o leczeniu raka" pozostaje ogromna.
Amerykańskie Stowarzyszenie Medyczne nie owija w bawełnę. Organizacja zaleca lekarzom nieużywanie narzędzi opartych na LLM do pomocy w podejmowaniu decyzji klinicznych, powołując się na obawy o dokładność i brak standaryzowanych wytycznych. Kiedy AMA mówi lekarzom, aby trzymali się z daleka, pacjenci prawdopodobnie powinni to zauważyć.
Czego ChatGPT nie potrafi
Chatboty AI nie mogą przeprowadzać badań fizycznych. Nie mogą odczytywać mowy ciała pacjenta ani zadawać intuicyjnych pytań uzupełniających, które doświadczeni onkolodzy rozwijają przez dziesięciolecia. Mogą halucynować — generować pewnie brzmiące informacje, które są całkowicie sfabrykowane.
Obawy o prywatność dodają kolejną warstwę. Każdy objaw, każdy lęk, każdy szczegół dotyczący raka dziecka wpisany do ChatGPT staje się danymi, nad którymi użytkownicy mają ograniczoną kontrolę.
Studium przypadku OpenAI podkreśla, że rodzina pracowała „wraz z fachową pomocą lekarzy". To zastrzeżenie ma znaczenie. Niebezpieczeństwo nie polega na tym, że poinformowani pacjenci zadają lepsze pytania — chodzi o to, że wrażliwi ludzie w kryzysie mogą potencjalnie zbyt polegać na narzędziu, które popełnia błędy częściej, niż sugeruje marketing.
Dla inwestorów kryptowalutowych obserwujących ambicje korporacyjne OpenAI, nacisk na opiekę zdrowotną sygnalizuje agresywną ekspansję w sektorach wysokiego ryzyka. Pozostaje otwarte pytanie, czy regulatorzy będą tolerować firmy AI promujące narzędzia do podejmowania decyzji medycznych z udokumentowanymi problemami z dokładnością, wchodząc w rok 2026.
Źródło obrazu: Shutterstock- openai
- chatgpt
- ai healthcare
- medical ai
- health tech



