KOPĪGOT | DRUKĀT | SŪTĪT E-PASTU
Mana pieredze medicīnā ļauj man atšķirt patiesu inovāciju no smalkas pārklasificēšanas, kas fundamentāli maina praksi, vienlaikus šķietami nemainīga. Mākslīgais intelekts nesen ir piesaistījis ievērojamu uzmanību, tostarp plaši izplatīto apgalvojumu, ka mākslīgais intelekts ir "likumīgi pilnvarots praktizēt medicīnu" Amerikas Savienotajās Valstīs. Burtiski interpretēts, šis apgalvojums ir neprecīzs. Neviena medicīnas padome nav licencējusi mašīnu. Neviens algoritms nav devis zvērestu, uzņēmies fiduciārus pienākumus vai uzņēmies personisku atbildību par pacienta kaitējumu. Neviens robotārsts neatver klīniku, neizraksta rēķinus apdrošinātājiem vai nestāv žūrijas priekšā par kļūdu.
Tomēr, apstājoties pie šī novērojuma, netiek ņemts vērā plašāks jautājums. Atbildības juridiskie jēdzieni pašlaik tiek pārdefinēti, bieži vien bez sabiedrības informētības.
Ir sākusies nozīmīga transformācija, kas attaisno vairāk nekā tikai refleksīvu noraidījumu vai nekritisku tehnoloģisko entuziasmu. Pašreizējā attīstība nav mākslīgā intelekta licencēšana kā ārstam, bet gan pakāpeniska medicīnas pamatrobežu – iekšējās saiknes starp klīnisko spriedumu un cilvēka atbildību – erozija. Klīniskais spriedums ietver informētu lēmumu pieņemšanu, kas pielāgoti katra pacienta unikālajām vajadzībām un apstākļiem, un tam nepieciešama empātija, intuīcija un dziļa medicīnas ētikas izpratne.
Cilvēka atbildība attiecas uz atbildību, ko veselības aprūpes sniedzēji uzņemas par šiem lēmumiem un to rezultātiem. Šī erozija nav dramatisku tiesību aktu vai publisku debašu rezultāts, bet gan notiek nemanāmi, izmantojot pilotprogrammas, regulējuma atkārtotu interpretāciju un valodu, kas apzināti aizēno atbildību. Tiklīdz šī robeža izzūd, medicīna mainās veidos, ko ir grūti atgriezeniski mainīt.
Galvenā problēma nav tā, vai mākslīgais intelekts var atkārtoti izrakstīt receptes vai pamanīt patoloģiskus laboratorijas rezultātus. Medicīnā jau sen tiek izmantoti rīki, un veselības aprūpes sniedzēji parasti atzinīgi vērtē palīdzību, kas samazina administratīvos uzdevumus vai uzlabo modeļu atpazīšanu. Īstais jautājums ir par to, vai medicīnisko spriedumu — lēmumu pieņemšanu par pareizajām darbībām, pacientiem un riskiem — var uzskatīt par datora ģenerētu rezultātu, kas ir atdalīts no morālās atbildības. Vēsturiski centieni atdalīt spriedumu no atbildības bieži vien ir nodarījuši kaitējumu, neuzņemoties atbildību.
Jaunākās norises paskaidro pašreizējās neskaidrības cēloņus. Vairākās valstīs ierobežotas pilotprogrammas tagad ļauj mākslīgā intelekta vadītām sistēmām palīdzēt atjaunot receptes stabilām hroniskām slimībām saskaņā ar šauri definētiem protokoliem. Federālā līmenī ierosinātajos tiesību aktos ir apsvērts, vai mākslīgais intelekts varētu tikt kvalificēts kā “praktizētājs” konkrētiem likumā noteiktiem mērķiem, ja vien tas tiek pienācīgi regulēts. Šīs iniciatīvas parasti tiek pasniegtas kā pragmatiskas atbildes uz ārstu trūkumu, piekļuves kavējumiem un administratīvo neefektivitāti. Lai gan nevienā no tām mākslīgais intelekts netiek skaidri norādīts kā ārsts, kopumā tās normalizē satraucošāko pieņēmumu, ka medicīniskas darbības var notikt bez skaidri identificējama cilvēka lēmumu pieņēmēja.
Praksē šī atšķirība ir būtiska. Medicīnu nedefinē mehāniska uzdevumu izpilde, bet gan atbildības sadale nelabvēlīgu iznākumu gadījumā. Receptes izrakstīšana ir vienkārša; atbildības uzņemšanās par sekām, īpaši ņemot vērā blakusslimības, sociālo kontekstu, pacienta vērtības vai nepilnīgu informāciju, ir daudz sarežģītāka. Visas manas karjeras laikā šī atbildība nepārtraukti ir gulējusi uz cilvēka pleciem, kuru var apšaubīt, apstrīdēt, labot un saukt pie atbildības. Kad Dr. Smits pieļauj kļūdu, ģimene zina, ar ko sazināties, nodrošinot tiešu saikni ar cilvēka atbildību. Neviens algoritms, neatkarīgi no tā sarežģītības, nevar pildīt šo lomu.
Galvenais risks nav tehnoloģisks, bet gan regulējošs un filozofisks. Šī pāreja atspoguļo pāreju no tikumības ētikas uz procedurālismu. Kad likumdevēji un iestādes no jauna definē medicīnisko lēmumu pieņemšanu kā sistēmu, nevis personisko darbību funkciju, mainās medicīnas morālais pamats. Atbildība kļūst izkliedēta, kaitējumu ir grūtāk attiecināt, un atbildība pāriet no klīnicistiem uz procesiem, no sprieduma uz protokola ievērošanu. Kad neizbēgami rodas kļūdas, dominējošais skaidrojums kļūst tāds, ka "sistēma ievēroja noteiktās vadlīnijas". Šīs pārejas atpazīšana precizē pāreju no individualizētas ētiskas lēmumu pieņemšanas uz mehānisku procedurālu atbilstību.
Šīs bažas nav teorētiskas. Mūsdienu veselības aprūpe jau saskaras ar problēmām, kas saistītas ar vājinātu atbildību. Esmu novērojis, ka pacienti, kuriem nodarīts kaitējums algoritmu vadītu lēmumu dēļ, pazūd administratoru, piegādātāju un neskaidru modeļu vidū, bez skaidras atbildes uz pamatjautājumu: Kas pieņēma šo lēmumu? Mākslīgais intelekts ievērojami paātrina šo problēmu. Algoritms nevar sniegt morālus skaidrojumus, ievērot ierobežojumus, balstoties uz sirdsapziņu, atteikties no rīcības ētisku apsvērumu dēļ vai atzīt kļūdu pacientam vai ģimenei.
Paaugstinātas mākslīgā intelekta autonomijas atbalstītāji bieži vien kā attaisnojumu min efektivitāti. Klīnikas ir pārslogotas, ārsti piedzīvo izdegšanu, un pacienti bieži vien mēnešiem ilgi gaida aprūpi, kurai vajadzētu aizņemt tikai dažas minūtes. Šīs bažas ir pamatotas, un jebkurš godīgs klīnicists tās atzīst. Tomēr efektivitāte vien neattaisno medicīnas ētisko pamatu maiņu. Sistēmas, kas optimizētas ātrumam un mērogam, bieži vien upurē nianses, diskrētumu un individuālo cieņu. Vēsturiski medicīna ir pretojusies šai tendencei, uzsverot, ka aprūpe būtībā ir attiecības, nevis darījums.
Mākslīgais intelekts riskē apgriezt šīs attiecības kājām gaisā. Kad aprūpi sniedz sistēmas, nevis indivīdi, pacients vairs nav iesaistīts līgumā ar klīnicistu, bet gan kļūst par daļu no darbplūsmas. Ārsts uzņemas mašīnas uzrauga lomu vai, vēl satraucošāk, kalpo kā juridiska buferis, kas absorbē atbildību par lēmumiem, ko viņš nav pieņēmis personīgi. Laika gaitā klīniskais spriedums dod ceļu protokola ievērošanai, un morālā rīcībspēja pakāpeniski samazinās.
Mākslīgais intelekts ievieš arī smalkāku un bīstamāku problēmu: nenoteiktības maskēšanu. Medicīna dzīvo neskaidrībā. Pierādījumi ir varbūtības principi. Vadlīnijas ir provizoriskas. Pacienti reti kad ierodas kā tīri datu kopumi. Klīnicisti ir apmācīti ne tikai rīkoties, bet arī vilcināties — atpazīt, kad informācija ir nepietiekama, kad iejaukšanās var nodarīt vairāk kaitējuma nekā labuma vai kad pareiza rīcība ir gaidīt. Iedomājieties scenāriju, kurā mākslīgais intelekts iesaka izrakstīšanu, bet pacienta laulātais šķiet nobijies, uzsverot spriedzi starp algoritmisko lēmumu pieņemšanu un cilvēka intuīciju. Šāda reālās pasaules berze uzsver neskaidrības nozīmi.
Mākslīgā intelekta sistēmas nepiedzīvo nenoteiktību; tās ģenerē rezultātus. Ja tie ir nepareizi, tās bieži vien to dara ar nepamatotu pārliecību. Šī īpašība nav programmēšanas kļūda, bet gan statistiskās modelēšanas raksturīga iezīme. Atšķirībā no pieredzējušiem klīnicistiem, kuri atklāti pauž šaubas, lieli valodu modeļi un mašīnmācīšanās sistēmas nespēj atpazīt savus ierobežojumus. Tās ģenerē ticamas atbildes pat tad, ja datu nepietiek. Medicīnā ticamība bez pamatojuma var būt bīstama.
Tā kā šīs sistēmas tiek integrētas klīniskajās darbplūsmās agrāk, to rezultāti arvien vairāk ietekmē turpmākos lēmumus. Laika gaitā klīnicisti var sākt uzticēties ieteikumiem nevis to derīguma dēļ, bet gan tāpēc, ka tie ir kļuvuši normalizēti. Spriedums pakāpeniski mainās no aktīvas spriešanas uz pasīvu pieņemšanu. Šādos apstākļos "cilvēka līdzdalība" kalpo tikai kā simbolisks drošības līdzeklis.
Atbalstītāji bieži apgalvo, ka mākslīgais intelekts tikai "papildinās" klīnicistus, nevis aizstās viņus. Tomēr šis pārliecības apliecinājums ir vājš. Tiklīdz mākslīgais intelekts parādīs efektivitātes pieaugumu, ekonomiskais un institucionālais spiediens parasti veicina lielāku autonomiju. Ja sistēma var droši atkārtoti izrakstīt receptes, tai drīz var tikt atļauts tās uzsākt. Ja tā var precīzi diagnosticēt bieži sastopamas slimības, tiek apšaubīta nepieciešamība pēc ārsta apskates. Ja tā kontrolētos kritērijos pārspēj cilvēkus, tolerance pret cilvēku mainīgumu samazinās.
Ņemot vērā šīs tendences, ir svarīgi ieviest īpašus drošības pasākumus. Piemēram, obligātas neatbilstību revīzijas 5% no mākslīgā intelekta vadītiem lēmumiem varētu kalpot kā konkrēta pārbaude, nodrošinot saskaņotību starp mākslīgā intelekta ieteikumiem un cilvēka klīnisko spriedumu, vienlaikus sniedzot regulatoriem un slimnīcu valdēm praktiski izmantojamus rādītājus mākslīgā intelekta integrācijas uzraudzībai.
Šie jautājumi nav uzdoti ar ļaunprātīgu nolūku; tie rodas dabiski sistēmās, kas koncentrējas uz izmaksu ierobežošanu un mērogojamību. Tomēr tie norāda uz nākotni, kurā cilvēka spriedums kļūs par izņēmumu, nevis normu. Šādā scenārijā indivīdi ar resursiem turpinās saņemt cilvēka aprūpi, bet citi tiks vadīti, izmantojot automatizētus procesus. Divlīmeņu medicīna radīsies nevis ideoloģijas, bet gan optimizācijas rezultātā.
Šo brīdi īpaši nedrošu padara skaidru atbildības robežu trūkums. Kad mākslīgā intelekta vadīts lēmums kaitē pacientam, kurš ir atbildīgs? Vai klīnicists nomināli pārrauga sistēmu? Iestāde, kas to ieviesa? Pārdevējs, kas apmācīja modeli? Regulators, kas apstiprināja tā izmantošanu? Bez skaidrām atbildēm atbildība iztvaiko. Un, kad atbildība iztvaiko, drīz vien seko uzticība.
Medicīna fundamentāli ir atkarīga no uzticēšanās. Pacienti savu ķermeni, bailes un bieži vien arī dzīvību uztic klīnicistu rokām. Šo uzticēšanos nevar pārnest uz algoritmu, lai cik sarežģīts tas būtu. Tās pamatā ir pārliecība, ka klāt ir cilvēks — kāds, kurš spēj uzklausīt, pielāgoties un uzņemties atbildību par savu rīcību.
Pilnībā noraidīt mākslīgo intelektu nav nepieciešams. Ja mākslīgais intelekts tiek izmantots saprātīgi, tas var samazināt administratīvo slogu, identificēt modeļus, kas varētu būt nepamanāmi cilvēkiem, un atbalstīt klīnisko lēmumu pieņemšanu. Tas var ļaut ārstiem veltīt vairāk laika pacientu aprūpei, nevis administratīviem uzdevumiem. Tomēr, lai realizētu šo nākotni, ir nepieciešama skaidra apņemšanās saglabāt cilvēka atbildību medicīnas prakses centrā.
“Cilvēka iesaistei” ir jānozīmē vairāk nekā tikai simboliska uzraudzība. Tai jāpieprasa, lai par katru medicīnisko lēmumu būtu atbildīga konkrēta persona, kura izprastu tā pamatojumu un saglabātu gan pilnvaras, gan pienākumu ignorēt algoritmiskos ieteikumus. Tai jāietver arī pārredzamība, izskaidrojamība un informēta pacienta piekrišana, kā arī apņemšanās ieguldīt cilvēkos klīnicistos, nevis aizstāt viņus ar mākslīgo intelektu.
Galvenais risks nav mākslīgā intelekta pārmērīgā jauda, bet gan iestāžu vēlme atteikties no atbildības. Tiecoties pēc efektivitātes un inovācijām, pastāv risks, ka medicīna kļūs par tehniski attīstītu, administratīvi vienkāršotu jomu, kurai tomēr trūkst morāla satura.
Domājot par nākotni, ir svarīgi uzdot jautājumu: kādu dziednieku mēs iztēlojamies pie mūsu gultas 2035. gadā? Šis jautājums prasa kolektīvu morālu iztēli, mudinot mūs veidot nākotni, kurā cilvēka atbildība un līdzjūtīga aprūpe paliek medicīnas prakses centrā. Kolektīvās rīcībspējas mobilizēšana būs izšķiroša, lai nodrošinātu, ka mākslīgā intelekta sasniegumi stiprina, nevis grauj šīs pamatvērtības.
Mākslīgais intelekts nav licencēts medicīnas praktizēšanai. Taču medicīna tiek klusi pārveidota, balstoties uz sistēmām, kurām nav morāla svara. Ja šis process turpināsies nekontrolēti, mēs kādu dienu varam atklāt, ka ārstu nav aizstājusi mašīna, bet gan protokols, un ka, kad notiek kaitējums, vairs nav neviena, kas par to atbildētu.
Tas nebūtu progress. Tā būtu atteikšanās no troņa.
-
Džozefs Varons, medicīnas doktors, ir kritiskās aprūpes ārsts, profesors un Neatkarīgās medicīnas alianses prezidents. Viņš ir sarakstījis vairāk nekā 980 recenzētas publikācijas un ir žurnāla "Journal of Independent Medicine" galvenais redaktors.
Skatīt visas ziņas