Jest trzecia w nocy. Oddział intensywnej terapii dziecięcej. Czteromiesięczna dziewczynka, Sara, leży podłączona do respiratora. Na monitorze — niestabilne parametry. Na biurku lekarza dyżurnego — zdjęcie RTG klatki piersiowej, na którym widać cień. Może to guz. Może nie.
Doktor Kowalska ma 22 lata doświadczenia. Widziała tysiące takich zdjęć. Jej instynkt mówi: to nie wygląda dobrze. Ale nie jest pewna. To może być artefakt, cień naczyniowy, cokolwiek. Prosi o konsultację. Doktor Wiśniewski, radiolog z 15-letnim stażem, patrzy na RTG i mówi: obserwujmy. Nie widzi powodu do interwencji.
Dwóch doświadczonych lekarzy. Dwie sprzeczne opinie. Jedno dziecko.
I wtedy ktoś uruchamia AI.
14 milionów zdjęć kontra 50 tysięcy wspomnień
Algorytm diagnostyczny nowej generacji, wytrenowany na 14 milionach zdjęć RTG z opisami patologicznymi, przygotowany z publicznej bazy WHO i dwustu szpitali akademickich na trzech kontynentach. Nie jest objęty patentem — w świecie bez IP, baza wiedzy medycznej jest dobrem publicznym. Każdy szpital na świecie ma do niego dostęp.
AI analizuje zdjęcie Sary. Odpowiedź przychodzi w 1,3 sekundy:
Prawdopodobieństwo zmiany nowotworowej złośliwej: 23,4% (CI 95%: 18,1–29,7%). Prawdopodobieństwo artefaktu naczyniowego: 61,2%. Prawdopodobieństwo zmiany łagodnej: 15,4%. Rekomendacja: obserwacja z kontrolą obrazową za 6 tygodni. Operacja nie jest zalecana przy obecnym poziomie pewności diagnostycznej.
Doktor Kowalska patrzy na ekran. Potem patrzy na rodzinę Sary, siedzącą w poczekalni. Ojciec nie spał od dwóch dni. Matka płacze.
AI dało odpowiedź. Ale odpowiedź nie jest decyzją.
Czym jest „doświadczenie" maszyny?
Kiedy mówimy, że chirurg ma „30 lat doświadczenia", wiemy, co to znaczy. To są tysiące pacjentów. Tysiące decyzji podjętych pod presją. Chwile, w których trzeba było ciąć, mimo że nie było pewności. Momenty, kiedy dłoń chirurga czuła — dosłownie, fizycznie — że tkanka pod skalpelem jest inna niż powinna być. To jest wiedza, która żyje w ciele, nie w danych.
Doktor Kowalska pamięta przypadek sprzed siedmiu lat. Dziewczynka w podobnym wieku. Cień na RTG. Radiolog powiedział: obserwujmy. Ona posłuchała. Trzy miesiące później dziecko miało przerzuty. Przeżyło — ledwo — po agresywnej chemioterapii. Od tamtej pory doktor Kowalska nie ufa cieniom na zdjęciach. Jej „instynkt" to nie mistyka — to trauma przekuta w ostrożność.
Ale AI też ma „doświadczenie". Inne, ale realne. Model widział 14 milionów zdjęć RTG. Czternaście milionów. Każde ze szczegółowym opisem patologicznym, z wynikiem biopsji, z follow-upem klinicznym. AI nie pamięta jednego dramatycznego przypadku — pamięta rozkład statystyczny wszystkich przypadków, jakie kiedykolwiek zostały udokumentowane.
I tu jest fundamentalna różnica:
- Chirurg myśli anegdotami. Pamięta przypadki, które go poruszyły. Przypadki dramatyczne, niespodziewane, bolesne. Ludzka pamięć jest zbudowana na emocjach — zapamiętujemy to, co nas zraniło, a nie to, co było rutynowe.
- AI myśli rozkładami. Nie ma emocji. Nie ma „przypadku sprzed siedmiu lat", który koloruje każdą następną diagnozę. Ma miliony punktów danych, z których wynika, że cień o takich parametrach w 23,4% przypadków jest złośliwy, a w 61,2% — jest artefaktem.
Który rodzaj „doświadczenia" jest lepszy? To zależy od tego, co rozumiemy przez „lepszy".
Precyzja kontra intuicja
Dane są jednoznaczne: w diagnostyce obrazowej AI jest statystycznie trafniejsze niż ludzie. Badanie opublikowane w Nature Medicine w 2024 roku wykazało, że algorytmy diagnostyczne osiągają czułość 94,5% w wykrywaniu nowotworów płuc na zdjęciach CT, podczas gdy najlepsi radiolodzy osiągają 88,2%. AI popełnia mniej fałszywie negatywnych diagnoz — rzadziej przegapia raka.
Ale AI popełnia też błędy. Inne niż ludzkie, ale równie realne. Model optymalizuje pod kątem średniej — radzi sobie świetnie z przypadkami „typowymi", ale potrafi fatalnie pomylić się w przypadkach nietypowych, rzadkich, tych, które nie były dobrze reprezentowane w danych treningowych. AI jest ekspertem od tego, co już było. Chirurg bywa ekspertem od tego, czego nikt jeszcze nie widział.
I jest jeszcze coś, czego nie da się skwantyfikować: momenty, w których dane nie wystarczą. Gdy chirurg otwiera klatkę piersiową i widzi coś, czego żaden skaner nie pokazał. Gdy trzeba w ułamku sekundy zdecydować: ciąć głębiej czy się wycofać. Gdy krew zaczyna się sączyć stamtąd, skąd nie powinna. W tych momentach nie pomaga żaden algorytm. Pomaga ręka, która robiła to tysiące razy.
AI jest lepsze w czytaniu zdjęć. Człowiek jest lepszy w czytaniu sytuacji. Problem pojawia się, gdy próbujemy zmusić jedno do bycia drugim.
Scenariusz, który musimy przemyśleć
Wróćmy do Sary. Doktor Kowalska ma przed sobą dwie opinie i jedno pytanie:
AI mówi: nie operuj. Prawdopodobieństwo nowotworu — 23%. Ryzyko operacji u czteromiesięcznego dziecka — powikłania w 35% przypadków, w tym ryzyko śmierci na stole: 8%. Matematyka jest brutalna: przy 23% szansie na nowotwór i 8% ryzyku śmierci przy operacji, rachunek prawdopodobieństwa mówi: czekaj.
Instynkt doktor Kowalskiej mówi: operuj. Bo pamięta tamtą dziewczynkę. Bo ten cień nie wygląda jej jak artefakt. Bo trzy w nocy w szpitalu dziecięcym to nie miejsce na rachunki prawdopodobieństwa — to miejsce, gdzie patrzy się w oczy rodzicom i bierze się odpowiedzialność.
Rozważmy cztery scenariusze:
Scenariusz A: posłuchali AI, AI miało rację
Nie operowali. Po sześciu tygodniach kontrolne RTG. Cień zniknął. Był artefaktem. Sara jest zdrowa. Nikt o tym nie pisze, bo nic się nie stało.
Scenariusz B: posłuchali AI, AI się myliło
Nie operowali. Po trzech miesiącach nowotwór jest trzy razy większy. Przerzuty do węzłów chłonnych. Teraz operacja jest trudniejsza, dłuższa, bardziej ryzykowna. Sara przeżywa — ale rok chemioterapii odbiera jej pierwsze dwa lata życia.
Kto odpowiada? Rodzice podpisali zgodę na obserwację. Lekarz przedstawił rekomendację AI. AI dało 23% — to poniżej progu operacyjnego. Wszyscy postępowali „zgodnie z procedurą." Ale dziecko cierpi. Kogo pozywa rodzina?
Scenariusz C: zignorowali AI, chirurg miał rację
Operowali mimo rekomendacji. Guz okazał się złośliwy. Usunęli go w całości. Sara jest zdrowa. Doktor Kowalska jest bohaterką. AI zostaje zdyskredytowane — mimo że dało prawidłowe prawdopodobieństwo (23% to nie 0%).
Scenariusz D: zignorowali AI, operacja się nie udała
Operowali mimo rekomendacji. Powikłanie — krwotok. Sara umiera na stole operacyjnym. Guz okazał się łagodny.
AI powiedziało: nie operuj. Chirurg powiedział: operuj. Dziecko nie żyje. Komisja lekarska stwierdza: „lekarz podjął decyzję wbrew rekomendacji systemu diagnostycznego." Rodzina pozywa szpital. Szpital odpowiada: „system miał charakter doradczy, ostateczna decyzja należy do lekarza." Lekarz odpowiada: „działałam na podstawie mojego doświadczenia klinicznego."
Który z tych argumentów jest ważniejszy? Kto ponosi odpowiedzialność?
Problem, którego nie rozwiąże żaden algorytm
Prawo medyczne, jakie znamy, opiera się na jednym prostym założeniu: decyzje podejmuje człowiek i człowiek za nie odpowiada. Lekarz ma dyplom, licencję, ubezpieczenie OC, izbę lekarską, kodeks etyczny. Jeśli popełni błąd — jest system, który to obsługuje. Niedoskonały, ale istniejący.
Co się dzieje, gdy do tego systemu dodajemy AI?
- Czy można ubezpieczyć algorytm? Klasyczne ubezpieczenie OC zakłada, że podmiot ubezpieczony jest zdolny do popełnienia „błędu w sztuce". Ale AI nie uprawia sztuki. Nie ma licencji. Nie ma etyki. Ma parametry, wagi i funkcję celu. Towarzystwa ubezpieczeniowe nie wiedzą, jak wycenić ryzyko narzędzia, które nie jest ani produktem (jak skalpel), ani osobą (jak chirurg), ani instytucją (jak szpital).
- Kto jest „właścicielem" błędu AI? Programista, który napisał model? Firma, która go wdrożyła? Szpital, który go kupił? Lekarz, który posłuchał rekomendacji? W świecie bez IP — gdzie model jest open source i każdy mógł go zmodyfikować — łańcuch odpowiedzialności rozpada się na atomy.
- Czy pacjent może odmówić diagnozy AI? Czy rodzic ma prawo powiedzieć: „nie chcę, żeby algorytm decydował o moim dziecku, chcę ludzkiego lekarza"? A co jeśli „ludzki lekarz" statystycznie myli się częściej?
Doświadczenie modelu kontra doświadczenie człowieka
Postawmy sprawę uczciwie. Są rzeczy, w których AI jest bezsprzecznie lepsze:
- Analiza obrazu — AI widzi wzorce, których ludzkie oko nie wychwytuje. Mikrozmiany w teksturze tkanki, subtelne asymetrie, korelacje między tysiącami pikseli.
- Spójność — AI nie ma gorszych dni. Nie jest zmęczone po 12-godzinnym dyżurze. Nie jest zdekoncentrowane kłótnią z żoną. Nie jest pod presją, żeby „wycisnąć" więcej pacjentów.
- Pamięć — AI pamięta każdy przypadek, który widziało. Ludzki lekarz pamięta te, które miały emocjonalny ładunek — co wprowadza systematyczny błąd.
- Szybkość — 1,3 sekundy na analizę zdjęcia RTG kontra minuty lub godziny ludzkiej oceny.
I są rzeczy, w których człowiek jest niezastąpiony:
- Kontekst pacjenta — AI widzi zdjęcie. Lekarz widzi dziecko, rodzinę, historię, lęk matki, determinację ojca, pytanie „co pan by zrobił na naszym miejscu?".
- Adaptacja w czasie rzeczywistym — na sali operacyjnej sytuacja zmienia się co sekundę. AI nie stoi przy stole. Nie ma rąk. Nie może powiedzieć: „poczekaj, tu jest naczynia, którego nie widziałem na skanie."
- Odpowiedzialność moralna — AI nie czuje ciężaru decyzji. Nie budzi się w nocy, myśląc o dziecku, które operowało. Nie nosi w sobie pyatania: „czy podjąłem właściwą decyzję?". Ten ciężar jest ludzki — i jest częścią tego, czemu ufamy lekarzom.
- Komunikacja — ktoś musi usiąść z rodziną Sary i powiedzieć: „jest szansa, ale jest też ryzyko." AI może wygenerować raport. Ale nie może spojrzeć matce w oczy.
Problem świata bez IP
Wszystko powyższe staje się o rząd wielkości bardziej skomplikowane w świecie, w którym wiedza medyczna nie jest chroniona.
Dziś — algorytmy diagnostyczne są własnością firm. FDA je certyfikuje. Firma odpowiada za produkt. Jest łańcuch: producent → certyfikator → szpital → lekarz. Są ubezpieczenia, audyty, odpowiedzialność cywilna.
W świecie bez IP — modelami dzieli się każdy. Klinika w Bangladeszu używa tego samego algorytmu co Mayo Clinic. Lekarz na wsi w Meksyku stawia diagnozy przy pomocy modelu, który stworzył anonimowy zespół na GitHubie. Nikt nie wie, kto za ten model odpowiada. Nikt go nie certyfikował. Nikt go nie ubezpieczył.
Demokratyzacja wiedzy medycznej jest moralnym imperatywem. Dziecko w Nairobi zasługuje na tę samą jakość diagnozy co dziecko w Nowym Jorku. Ale demokratyzacja bez ram odpowiedzialności to nie wolność — to chaos.
W świecie, gdzie każdy ma dostęp do najlepszej diagnostyki, ale nikt nie odpowiada za jej wyniki — nie żyjemy w raju wolnej wiedzy. Żyjemy w kosmosie bez grawitacji: wszystko się unosi, nic nie trzyma.
Czy da się ubezpieczyć algorytm?
To nie jest pytanie retoryczne. To jest pytanie, z którym za pięć lat będą się mierzyć ubezpieczyciele na całym świecie. I odpowiedź brzmi: nie wiemy.
Klasyczne ubezpieczenie medyczne wycenia ryzyko na podstawie historii błędów ludzkich. Wiemy, ile razy chirurdzy się mylą. Wiemy, jakie operacje są ryzykowne. Mamy aktuariów, tabele, statystyki.
Ale jak ubezpieczyć model, który:
- Jest aktualizowany co miesiąc — każda wersja ma inne parametry?
- Może być zmodyfikowany przez szpital, który go wdrożył?
- Działa inaczej na różnych danych — lepiej na populacji europejskiej, gorzej na afrykańskiej (bo dane treningowe były nierówno dobrane)?
- Nie potrafi wyjaśnić, dlaczego podjął daną decyzję? (Problem „czarnej skrzynki")
Ubezpieczenie wymaga przewidywalności. AI, paradoksalnie, jest jednocześnie bardziej precyzyjne i mniej przewidywalne niż człowiek. Model może mieć 94% trafności — ale nie wiesz, w których 6% się pomyli. I te 6% mogą obejmować właśnie twoje dziecko.
Kto patrzy w oczy rodzicowi?
Doktor Kowalska siedzi przed rodzicami Sary. Jest piąta rano. Ma przed sobą dwie opinie, jedną rekomendację algorytmu i jedno pytanie, na które żadna technologia nie da odpowiedzi: co zrobić?
Bo w medycynie — w odróżnieniu od handlu detalicznego, logistyki czy marketingu — nie chodzi o optymalizację. Nie chodzi o to, żeby podejmować „statystycznie najlepsze" decyzje. Chodzi o to, żeby podejmować decyzję, z którą potem będziesz żył. Ty, rodzic i — jeśli wszystko pójdzie dobrze — dziecko.
AI nie żyje ze swoimi decyzjami. AI nie budzi się o trzeciej w nocy, myśląc o cieniu na zdjęciu RTG. AI nie nosi w sobie ciężaru powiedzenia: „zrobiłem, co mogłem." I właśnie dlatego AI nie powinno decydować — albo przynajmniej, nie powinno decydować samo.
Może model przyszłości wygląda tak:
- AI diagnozuje. Analizuje obrazy, dane kliniczne, historię choroby. Podaje prawdopodobieństwa, korelacje, rekomendacje. Robi to lepiej niż człowiek i powinno to robić.
- Człowiek decyduje. Lekarz bierze diagnozę AI, dodaje swoje doświadczenie, kontekst pacjenta, rozmowę z rodziną. Podejmuje decyzję. Bierze odpowiedzialność.
- Prawo reguluje interfejs między tymi dwoma. Nie model (bo jest open source i nie da się go zamrozić). Nie lekarza (bo prawo medyczne już to robi). Ale sposób, w jaki lekarz korzysta z AI — standardy, procedury, dokumentację, granice zaufania.
Nie wiem, czy dałbym operować swoje dziecko sztucznej inteligencji. Prawdopodobnie nie. Nie dlatego, że nie ufam algorytmowi. Ale dlatego, że w chwili gdy wszystko się wali — chcę patrzeć w oczy komuś, kto powie: „jestem tu. Zrobię wszystko, co mogę."
Algorytm tego nie powie. I może to jest jedyna różnica, która naprawdę się liczy.
Bo odpowiedzialność to nie jest kwestia prawna. To jest kwestia tego, kto jest obecny, gdy coś idzie nie tak. A maszyny nie są obecne. Maszyny tylko liczą.