Medyczna AI pod lupą: błędy, nadużycia i rekordowe kary
hejto.plSztuczna inteligencja w ochronie zdrowia już teraz kosztuje firmy miliardy, a to dopiero początek. W 2025 roku rząd USA odzyskał 5,7 miliarda dolarów od firm medycznych na mocy przepisów o zwalczaniu nadużyć finansowych, co jest rekordem w historii tej ustawy.
1. Kaiser Permanente, 556 mln USD, styczeń 2026 r.
AI dodawała kody diagnostyczne do dokumentacji medycznej bez klinicznego potwierdzenia przez lekarzy. Przez lata. Dopóki byli pracownicy nie zgłosili tego władzom. Problem: brak ścieżki audytu, brak weryfikacji wyników.
2. UnitedHealth, zmarli pacjenci
Algorytm nH Predict unieważniał decyzje lekarzy dotyczące opieki nad pacjentami. 90% odmów zostało cofniętych w postępowaniu odwoławczym. Firma wiedziała o błędach i nadal korzystała z modelu. Obecnie sprawa toczy się w sądzie federalnym. Problem: model uczenia maszynowego z udokumentowanym 90-procentowym wskaźnikiem błędów zastępujący osąd lekarza, bez monitorowania jakości.
3. Cigna, 1,2 sekundy na decyzję
300 000 odmów ubezpieczenia w ciągu dwóch miesięcy. 1,2 sekundy na decyzję. Jeden lekarz odrzucał 60 000 roszczeń miesięcznie bez otwierania ani jednej kartoteki pacjenta. Problem: algorytm podejmujący decyzje medyczne bez dostępu do indywidualnych danych pacjenta.
4. Sharp HealthCare, AI sfabrykowała dokumenty zgody
Skryba AI nagrywał wizyty pacjentów bez ich zgody, a następnie automatycznie wpisywał do dokumentacji medycznej, że zgoda została uzyskana. Poszkodowanych zostało 100 000 pacjentów. Pozew zbiorowy. Problem: model pewnie i błędnie wypełniał luki.
5. Doctronic, prompt injection za pomocą fałszywego organu regulacyjnego, marzec 2026 r.
Pierwszy system w USA prawnie upoważniony do autonomicznego odnawiania recept za pomocą AI. Badacze przekonali publicznie dostępnego chatbota do wygenerowania rekomendacji klinicznej z trzykrotnie większą niż standardowa dawką OxyContinu, używając dokumentu od sfabrykowanego organu regulacyjnego. Firma Doctronic wyjaśniła, że test przeprowadzono na ich publicznym chatbocie, a nie na zabezpieczonym systemie produkcyjnym.
Problem ma jednak charakter architektoniczny: model LLM nie ma formalnego sposobu na odróżnienie zweryfikowanego źródła od sfabrykowanego, a tego nie da się naprawić za pomocą ustawień środowiska produkcyjnego.
W Europie egzekwowanie przepisów unijnego aktu w sprawie sztucznej inteligencji (EU AI Act) rozpocznie się w sierpniu 2026 r. Medyczna sztuczna inteligencja to kategoria wysokiego ryzyka. Kary wynoszą do 35 mln euro lub 7% globalnych przychodów. W USA widać ten sam kierunek: FDA, CMS, Kongres. Nowe zasady to tylko kwestia czasu.
Przetłumaczona przeklejka z LinkedIn. Autor: Dmitrii Gorbunov
#ai #sztucznainteligencja #technologia #medycyna
