KOPĪGOT | DRUKĀT | SŪTĪT E-PASTU
Man ir bail. Ļoti bail.
Ir ieradusies interneta mēroga uzraudzība un cenzūra, ko nodrošina neiedomājami milzīgā mākslīgā intelekta (MI) skaitļošanas jauda.
Šī nav futūristiska distopija. Tas notiek tagad.
Valdības aģentūras sadarbojas ar universitātēm un bezpeļņas organizācijām, lai izmantotu mākslīgā intelekta rīkus satura uzraudzībai un cenzēšanai internetā.
Tas nav politisks vai partijisks jautājums. Šeit nav runa par kādu konkrētu viedokli vai ideju.
Notiek tas, ka valdībai kļūst pieejams rīks, kas ir pietiekami spēcīgs, lai uzraudzītu visu, kas tiek teikts un darīts internetā (vai lielās tā daļās), lai visu laiku mūs visus uzraudzītu. Un, pamatojoties uz šo uzraudzību, valdība – un jebkura organizācija vai uzņēmums, ar kuru valdība sadarbojas – var izmantot to pašu rīku, lai apspiestu, apklusinātu un apturētu jebkuru runu, kas tai nepatīk.
Bet tas vēl nav viss. Izmantojot to pašu rīku, valdība un tās publiskie un privātie, “nevalstiskie” partneri (piemēram, Pasaules Veselības organizācija vai Monsanto) var arī apturēt jebkuru darbību, kas saistīta ar internetu. Banku darbības, pirkšana, pārdošana, mācīšana, mācīšanās, izklaide, saziņa vienam ar otru — ja valdības kontrolētajam mākslīgajam intelektam nepatīk tas, ko jūs (vai jūsu bērni!) sakāt tvītā vai e-pastā, tas var visu to apturēt jūsu vietā.
Jā, mēs to esam redzējuši ļoti lokālā un politizētā mērogā, piemēram, Kanādas kravas automašīnu vadītāji.
Bet, ja mēs domājām, ka šāda veida aktivitātes nevar vai nenotiks nacionālā (vai vēl biedējošāk – globālā) mērogā, mums ir jāapzinās, ka tas notiek, un to, iespējams, nav iespējams apturēt.
Jauni dokumenti liecina par valdības finansētu mākslīgo intelektu, kas paredzēts tiešsaistes cenzūrai
ASV Pārstāvju palātas Izvēlētā apakškomiteja federālās valdības ieroču atsavināšanas jautājumos tika izveidota 2023. gada janvārī, “lai izmeklētu jautājumus, kas saistīti ar izpildvaras iestāžu veikto informācijas vākšanu, analīzi, izplatīšanu un izmantošanu par ASV pilsoņiem, tostarp to, vai šādi centieni ir nelikumīgi, antikonstitucionāli vai citādi neētiski”.
Diemžēl pat komitejas locekļi tās darbu uzskata par lielā mērā politisku: konservatīvie likumdevēji izmeklē to, ko viņi uztver kā konservatīvo balsu apklusināšanu no liberāli noskaņotu valdības aģentūru puses.
Tomēr izmeklēšanā šī komiteja ir atklājusi dažus pārsteidzošus dokumentus, kas saistīti ar valdības mēģinājumiem cenzēt Amerikas pilsoņu runu.
Šiem dokumentiem ir izšķirošas un biedējošas sekas visai sabiedrībai.
Apakškomitejas starpziņojumā datēts ar 5. gada 2024. februāriDokumenti liecina, ka akadēmiskās un bezpeļņas grupas piedāvā valdības aģentūrai plānu izmantot mākslīgā intelekta "dezinformācijas pakalpojumus", lai cenzētu saturu interneta platformās.
Konkrētāk, Mičiganas Universitāte skaidro Nacionālajam zinātnes fondam (NSF), ka NSF finansētos mākslīgā intelekta darbināmos rīkus var izmantot, lai palīdzētu sociālo mediju platformām veikt cenzūras darbības, faktiski nepieņemot lēmumus par to, kas būtu jācenzē.
Lūk, kā šīs attiecības ir vizualizētas apakškomitejas ziņojumā:
Šeit ir konkrēts citāts, kas sniegts apakškomitejas ziņojumā. Tas ir ņemts no “Runātāja piezīmēm no Mičiganas Universitātes pirmās prezentācijas Nacionālajam zinātnes fondam (NSF) par tās NSF finansēto, mākslīgā intelekta darbināto WiseDex rīku”. Piezīmes ir pieejamas komitejā.
Mūsu dezinformācijas pakalpojums palīdz politikas veidotājiem platformās, kuri vēlas... novelt atbildību par sarežģītiem spriedumiem uz kādu ārpus uzņēmuma... eksternalizējot sarežģīto cenzūras atbildību.
Šis ir ārkārtējs apgalvojums tik daudzos līmeņos:
- Tas nepārprotami pielīdzina “dezinformācijas pakalpojumu” cenzūrai.
Šis ir izšķirošs vienādojums, jo valdības visā pasaulē izliekas, ka cīnās pret kaitīgu dezinformāciju, lai gan patiesībā tās to dara. pieņemot vērienīgus cenzūras likumprojektus. Pasaules Ekonomikas forums (WEF) paziņoja “Dezinformācija un dezinformācija” ir “visnopietnākie globālie riski” nākamo divu gadu laikā, kas, domājams, nozīmē, ka viņu lielākie centieni tiks vērsti uz cenzūru.
Kad valdības darbuzņēmējs nepārprotami norāda, ka tas pārdod “dezinformācijas pakalpojumu”, kas palīdz tiešsaistes platformām “eksternalizēt cenzūru”, abi termini tiek atzīti par savstarpēji aizvietojamiem.
- Tas cenzūru dēvē par “atbildību”.
Citiem vārdiem sakot, tā pieņem, ka daļa no tā, ko platformām vajadzētu darīt, ir cenzūra. Nevis bērnu aizsardzība no seksuālajiem varmākām vai nevainīgu pilsoņu aizsardzība no dezinformācijas — tikai vienkārša, neviltota cenzūra.
- Tajā teikts, ka mākslīgā intelekta loma ir “eksternalizēt” atbildību par cenzūru.
Tehnoloģiju platformas nevēlas pieņemt lēmumus par cenzūru. Valdība vēlas pieņemt šos lēmumus, bet nevēlas, lai to uzskatītu par cenzētāju. Mākslīgā intelekta rīki ļauj platformām "eksternalizēt" cenzūras lēmumus un valdībai slēpt savas cenzūras darbības.
Tam visam vajadzētu izbeigt ilūziju, ka tas, ko valdības visā pasaulē sauc par “dezinformācijas un naida runas apkarošanu”, nav tieša cenzūra.
Kas notiek, kad tiek pilnībā ieviesta mākslīgā intelekta cenzūra?
Apzinoties, ka valdība jau apmaksā mākslīgā intelekta cenzūras rīkus, mums ir jāapzinās, ko tas nozīmē.
Nav darbaspēka ierobežojumu: Kā norādīts apakškomitejas ziņojumā, valdības tiešsaistes cenzūras ierobežojumi līdz šim ir saistīti ar lielu cilvēku skaitu, kas nepieciešams, lai pārskatītu neskaitāmas datnes un pieņemtu lēmumus par cenzūru. Ar mākslīgā intelekta palīdzību gandrīz nav jāiesaista cilvēki, un datu apjoms, ko var novērot, var būt tikpat milzīgs kā viss, ko kāds saka konkrētā platformā. Šāds datu apjoms nav aptverams atsevišķa cilvēka smadzenēm.
Neviens nav atbildīgs: Viens no biedējošākajiem mākslīgā intelekta cenzūras aspektiem ir tas, ka, kad to dara mākslīgais intelekts, nav neviena cilvēka vai organizācijas – vai tā būtu valdība, platformas vai universitāte/bezpeļņas organizācija –, kas faktiski būtu atbildīga par cenzūru. Sākotnēji cilvēki sniedz mākslīgā intelekta rīkam norādījumus par to, kādas valodas kategorijas vai veidus cenzēt, bet pēc tam mašīna turpina darbu un pati pieņem lēmumus katrā gadījumā atsevišķi.
Nav iespēju iesniegt sūdzības: Kad mākslīgajam intelektam tiks dota cenzūras instrukciju kopa, tas apkopos miljoniem tiešsaistes datu punktu un piemēros cenzūras darbības. Ja vēlaties apstrīdēt mākslīgā intelekta cenzūras darbību, jums būs jāsazinās ar mašīnu. Varbūt platformas nodarbinās cilvēkus, lai atbildētu uz apelācijām. Bet kāpēc gan viņi to darītu, ja viņiem ir mākslīgais intelekts, kas var automatizēt šīs atbildes?
Nav aizsardzības jauniešiem: Viens no valdības cenzūras iestāžu apgalvojumiem ir tāds, ka mums ir jāaizsargā mūsu bērni no kaitīgas tiešsaistes informācijas, piemēram, satura, kas padara viņus anoreksiskus, mudina izdarīt pašnāvību, pārvērš par ISIS teroristiem utt. Arī no seksuālas izmantošanas. Šīs visas ir nopietnas problēmas, kurām jāpievērš uzmanība. Taču tās nav tik bīstamas lielam skaitam jauniešu kā mākslīgā intelekta cenzūra.
Mākslīgā intelekta cenzūras radītās briesmas attiecas uz visiem jauniešiem, kuri pavada daudz laika tiešsaistē, jo tas nozīmē, ka viņu tiešsaistes aktivitātes un valoda var tikt uzraudzīta un izmantota pret viņiem – varbūt ne tagad, bet ikreiz, kad valdība nolemj vērsties pret noteiktu valodas veidu vai uzvedību. Tas rada daudz lielākas briesmas daudz lielākam skaitam bērnu nekā briesmas, ko rada jebkurš konkrēts saturs, jo tas aptver visas aktivitātes, ko viņi veic tiešsaistē, skarot gandrīz visus viņu dzīves aspektus.
Lūk, piemērs, kas ilustrē šīs briesmas: pieņemsim, ka jūsu pusaudzis spēlē daudz interaktīvu videospēļu tiešsaistē. Pieņemsim, ka viņš dod priekšroku spēlēm, ko izstrādājuši Ķīnas uzņēmumi. Varbūt viņš arī skatās, kā citi spēlē šīs spēles, un piedalās tērzētavās un diskusiju grupās par šīm spēlēm, kurās piedalās arī daudzi Ķīnas pilsoņi.
Valdība nākamajā mēnesī vai nākamgad varētu nolemt, ka ikviens, kas aktīvi iesaistās Ķīnā izstrādātās videospēlēs, apdraud demokrātiju. Tas varētu novest pie jūsu dēla sociālo mediju kontu slēgšanas vai piekļuves liegšanas finanšu rīkiem, piemēram, studiju kredītiem. Tas varētu ietvert arī viņa atzīmēšanu nodarbinātības vai iepazīšanās vietnēs kā bīstamu vai nevēlamu. Tas varētu nozīmēt, ka viņam var atteikt pasi vai iekļaut viņu vērošanas sarakstā.
Tava pusaudža dzīve tikko kļuva daudz grūtāka. Daudz grūtāka nekā tad, ja viņš būtu redzējis ISIS vervēšanas video vai pašnāvību slavinošu ierakstu TikTok. Un tas notiktu daudz lielākā mērogā nekā... seksuāla izmantošana, ko izmanto cenzori kā Trojas zirgs tiešsaistes valdības cenzūras idejas normalizēšanai.
Monetizējami cenzūras pakalpojumiTeorētiski nevalstiska organizācija var izmantot valdībai piederošu mākslīgā intelekta rīku ar valdības atļauju un ar to platformu svētību, kuras vēlas “eksternalizēt” cenzūras “atbildību”. Tātad, lai gan valdība varētu izmantot mākslīgo intelektu, lai uzraudzītu un apspiestu, piemēram, pretkara noskaņojumu, uzņēmums to varētu izmantot, lai uzraudzītu un apspiestu, piemēram, pret ātrās ēdināšanas noskaņojumu. Valdība varētu nopelnīt daudz naudas, pārdodot mākslīgā intelekta rīku pakalpojumus trešajām pusēm. Platformas varētu arī pieprasīt daļu no maksas. Tādējādi mākslīgā intelekta cenzūras rīki varētu sniegt labumu valdībai, tehnoloģiju platformām un privātiem uzņēmumiem. Stimuli ir tik spēcīgi, ka gandrīz neiespējami iedomāties, ka tie netiks izmantoti.
Vai mēs varam mainīt kursu?
Es nezinu, cik valdības iestāžu un cik platformu izmanto mākslīgā intelekta cenzūras rīkus. Es nezinu, cik ātri tās var paplašināties.
Es nezinu, kādi rīki ir mūsu rīcībā – izņemot izpratnes veicināšanu, mēģinājumus lobēt politiķus un iesniegt tiesas prāvas, lai novērstu valdības cenzūru un regulētu mākslīgā intelekta rīku izmantošanu internetā.
Ja kādam ir vēl kādas idejas, tagad būtu īstais laiks tās īstenot.
-
Debija Lermane, 2023. gada Braunstounas stipendiāte, ieguvusi angļu valodas grādu Hārvardā. Viņa ir pensionēta zinātnes rakstniece un praktizējoša māksliniece Filadelfijā, Pensilvānijas štatā.
Skatīt visas ziņas