Jest trzecia w nocy. Oddział intensywnej terapii dziecięcej. Czteromiesięczna dziewczynka, Sara, leży podłączona do respiratora. Na monitorze — niestabilne parametry. Na biurku lekarza dyżurnego — zdjęcie RTG klatki piersiowej, na którym widać cień. Może to guz. Może nie.

Doktor Kowalska ma 22 lata doświadczenia. Widziała tysiące takich zdjęć. Jej instynkt mówi: to nie wygląda dobrze. Ale nie jest pewna. To może być artefakt, cień naczyniowy, cokolwiek. Prosi o konsultację. Doktor Wiśniewski, radiolog z 15-letnim stażem, patrzy na RTG i mówi: obserwujmy. Nie widzi powodu do interwencji.

Dwóch doświadczonych lekarzy. Dwie sprzeczne opinie. Jedno dziecko.

I wtedy ktoś uruchamia AI.

14 milionów zdjęć kontra 50 tysięcy wspomnień

Algorytm diagnostyczny nowej generacji, wytrenowany na 14 milionach zdjęć RTG z opisami patologicznymi, przygotowany z publicznej bazy WHO i dwustu szpitali akademickich na trzech kontynentach. Nie jest objęty patentem — w świecie bez IP, baza wiedzy medycznej jest dobrem publicznym. Każdy szpital na świecie ma do niego dostęp.

AI analizuje zdjęcie Sary. Odpowiedź przychodzi w 1,3 sekundy:

Prawdopodobieństwo zmiany nowotworowej złośliwej: 23,4% (CI 95%: 18,1–29,7%). Prawdopodobieństwo artefaktu naczyniowego: 61,2%. Prawdopodobieństwo zmiany łagodnej: 15,4%. Rekomendacja: obserwacja z kontrolą obrazową za 6 tygodni. Operacja nie jest zalecana przy obecnym poziomie pewności diagnostycznej.

Doktor Kowalska patrzy na ekran. Potem patrzy na rodzinę Sary, siedzącą w poczekalni. Ojciec nie spał od dwóch dni. Matka płacze.

AI dało odpowiedź. Ale odpowiedź nie jest decyzją.

Czym jest „doświadczenie" maszyny?

Kiedy mówimy, że chirurg ma „30 lat doświadczenia", wiemy, co to znaczy. To są tysiące pacjentów. Tysiące decyzji podjętych pod presją. Chwile, w których trzeba było ciąć, mimo że nie było pewności. Momenty, kiedy dłoń chirurga czuła — dosłownie, fizycznie — że tkanka pod skalpelem jest inna niż powinna być. To jest wiedza, która żyje w ciele, nie w danych.

Doktor Kowalska pamięta przypadek sprzed siedmiu lat. Dziewczynka w podobnym wieku. Cień na RTG. Radiolog powiedział: obserwujmy. Ona posłuchała. Trzy miesiące później dziecko miało przerzuty. Przeżyło — ledwo — po agresywnej chemioterapii. Od tamtej pory doktor Kowalska nie ufa cieniom na zdjęciach. Jej „instynkt" to nie mistyka — to trauma przekuta w ostrożność.

Ale AI też ma „doświadczenie". Inne, ale realne. Model widział 14 milionów zdjęć RTG. Czternaście milionów. Każde ze szczegółowym opisem patologicznym, z wynikiem biopsji, z follow-upem klinicznym. AI nie pamięta jednego dramatycznego przypadku — pamięta rozkład statystyczny wszystkich przypadków, jakie kiedykolwiek zostały udokumentowane.

I tu jest fundamentalna różnica:

Który rodzaj „doświadczenia" jest lepszy? To zależy od tego, co rozumiemy przez „lepszy".

Precyzja kontra intuicja

Dane są jednoznaczne: w diagnostyce obrazowej AI jest statystycznie trafniejsze niż ludzie. Badanie opublikowane w Nature Medicine w 2024 roku wykazało, że algorytmy diagnostyczne osiągają czułość 94,5% w wykrywaniu nowotworów płuc na zdjęciach CT, podczas gdy najlepsi radiolodzy osiągają 88,2%. AI popełnia mniej fałszywie negatywnych diagnoz — rzadziej przegapia raka.

Ale AI popełnia też błędy. Inne niż ludzkie, ale równie realne. Model optymalizuje pod kątem średniej — radzi sobie świetnie z przypadkami „typowymi", ale potrafi fatalnie pomylić się w przypadkach nietypowych, rzadkich, tych, które nie były dobrze reprezentowane w danych treningowych. AI jest ekspertem od tego, co już było. Chirurg bywa ekspertem od tego, czego nikt jeszcze nie widział.

I jest jeszcze coś, czego nie da się skwantyfikować: momenty, w których dane nie wystarczą. Gdy chirurg otwiera klatkę piersiową i widzi coś, czego żaden skaner nie pokazał. Gdy trzeba w ułamku sekundy zdecydować: ciąć głębiej czy się wycofać. Gdy krew zaczyna się sączyć stamtąd, skąd nie powinna. W tych momentach nie pomaga żaden algorytm. Pomaga ręka, która robiła to tysiące razy.

AI jest lepsze w czytaniu zdjęć. Człowiek jest lepszy w czytaniu sytuacji. Problem pojawia się, gdy próbujemy zmusić jedno do bycia drugim.

Scenariusz, który musimy przemyśleć

Wróćmy do Sary. Doktor Kowalska ma przed sobą dwie opinie i jedno pytanie:

AI mówi: nie operuj. Prawdopodobieństwo nowotworu — 23%. Ryzyko operacji u czteromiesięcznego dziecka — powikłania w 35% przypadków, w tym ryzyko śmierci na stole: 8%. Matematyka jest brutalna: przy 23% szansie na nowotwór i 8% ryzyku śmierci przy operacji, rachunek prawdopodobieństwa mówi: czekaj.

Instynkt doktor Kowalskiej mówi: operuj. Bo pamięta tamtą dziewczynkę. Bo ten cień nie wygląda jej jak artefakt. Bo trzy w nocy w szpitalu dziecięcym to nie miejsce na rachunki prawdopodobieństwa — to miejsce, gdzie patrzy się w oczy rodzicom i bierze się odpowiedzialność.

Rozważmy cztery scenariusze:

Scenariusz A: posłuchali AI, AI miało rację

Nie operowali. Po sześciu tygodniach kontrolne RTG. Cień zniknął. Był artefaktem. Sara jest zdrowa. Nikt o tym nie pisze, bo nic się nie stało.

Scenariusz B: posłuchali AI, AI się myliło

Nie operowali. Po trzech miesiącach nowotwór jest trzy razy większy. Przerzuty do węzłów chłonnych. Teraz operacja jest trudniejsza, dłuższa, bardziej ryzykowna. Sara przeżywa — ale rok chemioterapii odbiera jej pierwsze dwa lata życia.

Kto odpowiada? Rodzice podpisali zgodę na obserwację. Lekarz przedstawił rekomendację AI. AI dało 23% — to poniżej progu operacyjnego. Wszyscy postępowali „zgodnie z procedurą." Ale dziecko cierpi. Kogo pozywa rodzina?

Scenariusz C: zignorowali AI, chirurg miał rację

Operowali mimo rekomendacji. Guz okazał się złośliwy. Usunęli go w całości. Sara jest zdrowa. Doktor Kowalska jest bohaterką. AI zostaje zdyskredytowane — mimo że dało prawidłowe prawdopodobieństwo (23% to nie 0%).

Scenariusz D: zignorowali AI, operacja się nie udała

Operowali mimo rekomendacji. Powikłanie — krwotok. Sara umiera na stole operacyjnym. Guz okazał się łagodny.

AI powiedziało: nie operuj. Chirurg powiedział: operuj. Dziecko nie żyje. Komisja lekarska stwierdza: „lekarz podjął decyzję wbrew rekomendacji systemu diagnostycznego." Rodzina pozywa szpital. Szpital odpowiada: „system miał charakter doradczy, ostateczna decyzja należy do lekarza." Lekarz odpowiada: „działałam na podstawie mojego doświadczenia klinicznego."

Który z tych argumentów jest ważniejszy? Kto ponosi odpowiedzialność?

Problem, którego nie rozwiąże żaden algorytm

Prawo medyczne, jakie znamy, opiera się na jednym prostym założeniu: decyzje podejmuje człowiek i człowiek za nie odpowiada. Lekarz ma dyplom, licencję, ubezpieczenie OC, izbę lekarską, kodeks etyczny. Jeśli popełni błąd — jest system, który to obsługuje. Niedoskonały, ale istniejący.

Co się dzieje, gdy do tego systemu dodajemy AI?

Doświadczenie modelu kontra doświadczenie człowieka

Postawmy sprawę uczciwie. Są rzeczy, w których AI jest bezsprzecznie lepsze:

I są rzeczy, w których człowiek jest niezastąpiony:

Problem świata bez IP

Wszystko powyższe staje się o rząd wielkości bardziej skomplikowane w świecie, w którym wiedza medyczna nie jest chroniona.

Dziś — algorytmy diagnostyczne są własnością firm. FDA je certyfikuje. Firma odpowiada za produkt. Jest łańcuch: producent → certyfikator → szpital → lekarz. Są ubezpieczenia, audyty, odpowiedzialność cywilna.

W świecie bez IP — modelami dzieli się każdy. Klinika w Bangladeszu używa tego samego algorytmu co Mayo Clinic. Lekarz na wsi w Meksyku stawia diagnozy przy pomocy modelu, który stworzył anonimowy zespół na GitHubie. Nikt nie wie, kto za ten model odpowiada. Nikt go nie certyfikował. Nikt go nie ubezpieczył.

Demokratyzacja wiedzy medycznej jest moralnym imperatywem. Dziecko w Nairobi zasługuje na tę samą jakość diagnozy co dziecko w Nowym Jorku. Ale demokratyzacja bez ram odpowiedzialności to nie wolność — to chaos.

W świecie, gdzie każdy ma dostęp do najlepszej diagnostyki, ale nikt nie odpowiada za jej wyniki — nie żyjemy w raju wolnej wiedzy. Żyjemy w kosmosie bez grawitacji: wszystko się unosi, nic nie trzyma.

Czy da się ubezpieczyć algorytm?

To nie jest pytanie retoryczne. To jest pytanie, z którym za pięć lat będą się mierzyć ubezpieczyciele na całym świecie. I odpowiedź brzmi: nie wiemy.

Klasyczne ubezpieczenie medyczne wycenia ryzyko na podstawie historii błędów ludzkich. Wiemy, ile razy chirurdzy się mylą. Wiemy, jakie operacje są ryzykowne. Mamy aktuariów, tabele, statystyki.

Ale jak ubezpieczyć model, który:

Ubezpieczenie wymaga przewidywalności. AI, paradoksalnie, jest jednocześnie bardziej precyzyjne i mniej przewidywalne niż człowiek. Model może mieć 94% trafności — ale nie wiesz, w których 6% się pomyli. I te 6% mogą obejmować właśnie twoje dziecko.

Kto patrzy w oczy rodzicowi?

Doktor Kowalska siedzi przed rodzicami Sary. Jest piąta rano. Ma przed sobą dwie opinie, jedną rekomendację algorytmu i jedno pytanie, na które żadna technologia nie da odpowiedzi: co zrobić?

Bo w medycynie — w odróżnieniu od handlu detalicznego, logistyki czy marketingu — nie chodzi o optymalizację. Nie chodzi o to, żeby podejmować „statystycznie najlepsze" decyzje. Chodzi o to, żeby podejmować decyzję, z którą potem będziesz żył. Ty, rodzic i — jeśli wszystko pójdzie dobrze — dziecko.

AI nie żyje ze swoimi decyzjami. AI nie budzi się o trzeciej w nocy, myśląc o cieniu na zdjęciu RTG. AI nie nosi w sobie ciężaru powiedzenia: „zrobiłem, co mogłem." I właśnie dlatego AI nie powinno decydować — albo przynajmniej, nie powinno decydować samo.

Może model przyszłości wygląda tak:

· · ·

Nie wiem, czy dałbym operować swoje dziecko sztucznej inteligencji. Prawdopodobnie nie. Nie dlatego, że nie ufam algorytmowi. Ale dlatego, że w chwili gdy wszystko się wali — chcę patrzeć w oczy komuś, kto powie: „jestem tu. Zrobię wszystko, co mogę."

Algorytm tego nie powie. I może to jest jedyna różnica, która naprawdę się liczy.

Bo odpowiedzialność to nie jest kwestia prawna. To jest kwestia tego, kto jest obecny, gdy coś idzie nie tak. A maszyny nie są obecne. Maszyny tylko liczą.