KOPĪGOT | DRUKĀT | SŪTĪT E-PASTU
Pirms Covid es sevi raksturotu kā tehnoloģisko optimistu. Jaunās tehnoloģijas gandrīz vienmēr parādās pārspīlētu baiļu vidū. Tika uzskatīts, ka dzelzceļš izraisa garīgus sabrukumus, velosipēdi padara sievietes neauglīgas vai ārprātīgas, un agrīnā elektrība tika vainota visā, sākot no morālas pagrimuma līdz fiziskam sabrukumam. Laika gaitā šīs bažas izzuda, sabiedrības pielāgojās un dzīves līmenis paaugstinājās. Modelis bija pietiekami pazīstams, ka mākslīgais intelekts, visticamāk, tam sekos: graujošs, dažreiz nepareizi izmantots, bet galu galā pārvaldāms.
Covid gadi satricināja šo pārliecību — nevis tāpēc, ka tehnoloģijas pievīla, bet gan tāpēc, ka pievīla institūcijas.
Lielākajā daļā pasaules valdības un ekspertu organizācijas reaģēja uz nenoteiktību ar vēl nepieredzētām sociālām un biomedicīniskām intervencēm, kas tika pamatotas ar sliktākā scenārija modeļiem un īstenotas ar ievērojamu pārliecību. Konkurējošas hipotēzes tika drīzāk atstumtas, nevis apspriestas. Ārkārtas pasākumi sacietēja kā ilgtermiņa politika. Kad pierādījumi mainījās, kļūdu atzīšana bija reta, un atbildība - vēl retāka. Pieredze atklāja dziļāku problēmu nekā jebkura atsevišķa politikas kļūda: mūsdienu institūcijas šķiet vāji aprīkotas, lai pārvaldītu nenoteiktību bez pārmērīgas ietekmes.
Šī mācība tagad spēcīgi ietekmē debates par mākslīgo intelektu.
Mākslīgā intelekta risku plaisa
Vispārīgi runājot, bažas par progresīvu mākslīgo intelektu (MI) iedalās divās nometnēs. Viena grupa, kas saistīta ar tādiem domātājiem kā Eliezers Judkovskis un Neits Soaress, apgalvo, ka pietiekami attīstīts MI jau pēc noklusējuma ir katastrofāli bīstams. Savā apzināti skarbajā formulējumā, Ja kāds to uzbūvē, visi mirstProblēma nav slikti nodomi, bet gan stimuli: konkurence nodrošina, ka kāds apies stūrus, un, tiklīdz sistēma zaudē jēgpilnu kontroli, nodomiem vairs nav nozīmes.
Otra nometne, kurā ietilpst tādas personas kā Stjuarts Rasels, Niks Bostroms un Makss Tegmarks, arī uztver mākslīgā intelekta risku nopietni, taču ir optimistiskāki, ka saskaņošana, rūpīga pārvaldība un pakāpeniska ieviešana var nodrošināt sistēmu saglabāšanu cilvēka kontrolē.
Neskatoties uz atšķirībām, abas nometnes ir vienisprātis ar vienu secinājumu: neierobežota mākslīgā intelekta attīstība ir bīstama, un ir nepieciešama zināma veida uzraudzība, koordinācija vai ierobežojumi. Atšķiras viedokļi par iespējamību un steidzamību. Tomēr reti tiek pārbaudīts, vai iestādes, no kurām tiek sagaidīts, ka tās nodrošinās šos ierobežojumus, pašas ir piemērotas šim lomai.
Covid-19 rada iemeslu šaubām.
Covid nebija tikai sabiedrības veselības krīze; tas bija dzīvs eksperiments ekspertu vadītā pārvaldībā nenoteiktības apstākļos. Saskaroties ar nepilnīgiem datiem, varas iestādes atkārtoti izvēlējās maksimālas intervences, ko attaisnoja ar spekulatīviem zaudējumiem. Diskriminācija bieži tika uzskatīta par morālu neveiksmi, nevis zinātnisku nepieciešamību. Politika tika aizstāvēta nevis ar caurspīdīgu izmaksu un ieguvumu analīzi, bet gan ar apelāciju pie autoritātes un bailēm no hipotētiskas nākotnes.
Šis modelis ir svarīgs, jo tas atklāj, kā mūsdienu institūcijas uzvedas, kad likmes tiek formulētas kā eksistenciālas. Stimuli mainās uz izlēmību, naratīva kontroli un morālu noteiktību. Kļūdu labošana kļūst dārga reputācijas ziņā. Piesardzība pārstāj būt instruments un kļūst par doktrīnu.
Mācība nav tāda, ka ekspertiem ir tikai un vienīgi trūkumi. Tā ir tāda, ka institūcijas daudz uzticamāk atalgo pārmērīgu pārliecību nekā pazemību, it īpaši, ja politika, finansējums un sabiedrības bailes sakrīt. Kad drošības vārdā tiek pieteiktas ārkārtas pilnvaras, no tām reti kad tiek labprātīgi atteiktas.
Tieši šāda dinamika tagad ir redzama diskusijās par mākslīgā intelekta uzraudzību.
"Kas būtu, ja" mašīna
Atkārtots ekspansīvas valsts iejaukšanās attaisnojums ir hipotētisks sliktais dalībnieks: Kas notiks, ja terorists to uzbūvēs? Kas notiks, ja to izdarīs negodīga valsts? No šīs premisas izriet arguments, ka valdībām ir jārīkojas preventīvi, plašā mērogā un bieži vien slepenībā, lai novērstu katastrofu.
Covid laikā līdzīga loģika attaisnoja plašas biomedicīnas pētījumu programmas, ārkārtas atļaujas un sociālo kontroli. Argumentācija bija apļveida: jo kaut kas bīstams varētu notiktu, valstij tagad ir jāveic ārkārtas pasākumi — pasākumi, kas paši par sevi radīja ievērojamus, nepietiekami izprastus riskus.
Mākslīgā intelekta pārvaldība arvien vairāk tiek veidota līdzīgā veidā. Briesmas ir ne tikai tādas, ka mākslīgā intelekta sistēmas varētu rīkoties neparedzami, bet arī tādas, ka bailes no šādas iespējas leģitimizēs pastāvīgu ārkārtas pārvaldību — centralizētu kontroli pār aprēķiniem, pētniecību un informācijas plūsmām —, pamatojoties uz to, ka nav citas alternatīvas.
Privātais risks, publiskais risks
Viena nepietiekami novērtēta atšķirība šajās debatēs ir starp privāto dalībnieku radītajiem riskiem un valsts varas radītajiem riskiem. Privātos uzņēmumus ierobežo — nepilnīgi, bet jēgpilni — atbildība, konkurence, reputācija un tirgus disciplīna. Šie ierobežojumi nenovērš kaitējumu, bet rada atgriezeniskās saites.
Valdības darbojas atšķirīgi. Kad valstis rīkojas katastrofu novēršanas vārdā, atgriezeniskā saite vājinās. Neveiksmes var pārklasificēt kā nepieciešamību. Izmaksas var tikt eksternalizētas. Slepenību var attaisnot ar drošību. Hipotētiski nākotnes kaitējumi kļūst par politikas svirām tagadnē.
Vairāki mākslīgā intelekta domātāji to netieši atzīst. Bostroms ir brīdinājis par "iestrēgšanas" efektiem — ne tikai no mākslīgā intelekta sistēmām, bet arī no pārvaldības struktūrām, kas izveidotas panikas brīžos. Entonija Agirres aicinājums uz globālu savaldību, lai arī loģiski saskaņots, balstās uz starptautiskām koordinācijas struktūrām, kuru nesenie sasniegumi pazemības un kļūdu labošanas jomā ir vāji. Pat mērenāki priekšlikumi pieņem, ka regulatori spēj pretoties politizācijai un misijas paplašināšanai.
Covid nedod mums lielu iemeslu paļauties uz šo pieņēmumu.
Uzraudzības paradokss
Tas noved pie satraucoša paradoksa, kas ir mākslīgā intelekta debašu centrā. Ja kāds patiesi uzskata, ka progresīvā mākslīgā intelekta attīstība ir jāierobežo, jāpalēnina vai jāaptur, tad visticamāk, ka tieši valdībām un starptautiskām institūcijām būs vara to darīt. Tomēr tieši šo dalībnieku nesenā rīcība vismazāk rada pārliecību par šīs varas ierobežotu un atgriezenisku izmantošanu.
Ārkārtas situāciju formulēšana ir sarežģīta. Hipotētisku risku pārvaldībai iegūtā autoritāte mēdz saglabāties un paplašināties. Iestādes reti pazemina savu nozīmi. Mākslīgā intelekta kontekstā tas rada iespēju, ka reakcija uz mākslīgā intelekta risku nostiprina trauslas, politizētas kontroles sistēmas, kuras ir grūtāk atšķetināt nekā jebkuru atsevišķu tehnoloģiju.
Citiem vārdiem sakot, briesmas ir ne tikai tas, ka mākslīgais intelekts izkļūst no cilvēka kontroles, bet arī tas, ka bailes no mākslīgā intelekta paātrina varas koncentrāciju iestādēs, kas jau ir pierādījušas savu lēno kļūdu atzīšanu un naidīgumu pret domstarpībām.
Reālā riska pārvērtēšana
Tas nav arguments pašapmierinātībai attiecībā uz mākslīgo intelektu, nedz arī noliegums, ka jaudīgas tehnoloģijas var nodarīt reālu kaitējumu. Tas ir arguments par labu skatījuma paplašināšanai. Institucionālā neveiksme pati par sevi ir eksistenciāls mainīgais. Sistēma, kas pieņem labvēlīgu, paškoriģējošu pārvaldību, nav drošāka par tādu, kas pieņem labvēlīgu, saskaņotu superintelektu.
Pirms Covid-19 bija pamatoti uzskatīt, ka lielāko daļu tehnoloģiskā pesimisma rada cilvēku negatīvisma aizspriedumi — tendence uzskatīt, ka mūsu paaudzes izaicinājumi ir unikāli nekontrolējami. Pēc Covid-19 skepticisms vairs nav tik līdzīgs aizspriedumiem, bet vairāk pieredzei.
Tāpēc galvenais jautājums mākslīgā intelekta debatēs nav tikai tas, vai mašīnas var saskaņot ar cilvēciskajām vērtībām, bet gan tas, vai mūsdienu institūcijām var uzticēties, ka tās pārvaldīs nenoteiktību, to nepastiprinot. Ja šī uzticēšanās ir mazinājusies — un Covid-19 to norāda —, tad aicinājumi pēc plašas mākslīgā intelekta uzraudzības ir pelnījuši vismaz tikpat lielu uzmanību kā apgalvojumi par tehnoloģisko neizbēgamību.
Lielākais risks varbūt nav tas, ka mākslīgais intelekts kļūs pārāk spēcīgs, bet gan bailes no šādas iespējas attaisno kontroles formas, ar kurām, kā vēlāk atklājam, ir daudz grūtāk sadzīvot vai no kurām izvairīties.
-
Rodžers Beits ir Braunstounas Universitātes biedrs, Starptautiskā tiesību un ekonomikas centra vecākais biedrs (no 2023. gada janvāra līdz pat šim brīdim), Āfrikas cīņas pret malāriju valdes loceklis (no 2000. gada septembra līdz pat šim brīdim) un Ekonomikas lietu institūta biedrs (no 2000. gada janvāra līdz pat šim brīdim).
Skatīt visas ziņas