KOPĪGOT | DRUKĀT | SŪTĪT E-PASTU
Kļūst arvien acīmredzamāks, ka daudzi cilvēki baidās no strauji attīstošā mākslīgā intelekta (MI) dažādu iemeslu dēļ, piemēram, tā it kā pārākuma salīdzinājumā ar cilvēkiem informācijas apstrādes un manipulēšanas ziņā, kā arī tā pielāgošanās spējas un efektivitātes darba vietā, kas, daudzi baidās, novestu pie vairuma cilvēku aizstāšanas darba tirgū. Piemēram, Amazon nesen paziņoja, ka aizstās 14 000 cilvēku ar MI robotiem. Alekss Valdes raksta:
Tiek ziņots, ka atlaišanas ir lielākais Amazon vēsturē, un tas notika tikai dažus mēnešus pēc izpilddirektora Endija Džesija izklāstīja savu redzējumu par to, kā uzņēmums strauji paātrinātu savu attīstību ģeneratīvais AI un AI aģentiŠie samazinājumi ir jaunākie. atlaišanu vilnis šogad jo tehnoloģiju giganti, tostarp Microsoft, Accenture, Salesforce un Indijas TCS, ir samazinājuši savu darbaspēku par tūkstošiem, veicot neprātīgu investīciju kampaņu mākslīgajā intelektā.
Lai tas nebūtu pārāk satraucoši, pretstatiet to mierinošajam apgalvojumam, ko sniedzis arī mākslīgā intelekta izstrādātājs, ka mākslīgā intelekta aģenti nevar aizstāt cilvēkus. Braiens Šilhevī. norāda, ka:
Piektdien viens no OpenAI dibinātājiem Andrejs Karpatijs kritizēja ideju, ka mākslīgais vispārējais intelekts ir tepat aiz stūra. Viņš arī apšaubīja dažādus pieņēmumus par mākslīgo intelektu, ko izteikuši nozares lielākie atbalstītāji, piemēram, Dario Amodei no Anthropic un Sems Altmans no OpenAI.
Augsti novērtētais Karpatijs pastiprinājuma mācīšanos — iespējams, vissvarīgāko pētījumu jomu šobrīd — nosauca par “briesmīgu”, sacīja, ka ar mākslīgo intelektu darbināmi kodēšanas aģenti nav tik aizraujoši, kā daudzi cilvēki domā, un teica Mākslīgais intelekts nevar spriest par neko tādu, kam tas vēl nav apmācīts..
Viņa komentāri no podkāsta intervijas ar Dvorkešu Patelu aizskāra dažus no mākslīgā intelekta pētniekiem, ar kuriem mēs runājam, tostarp tos, kuri ir strādājuši arī OpenAI un Anthropic. Tie arī atsaucās uz komentāriem, ko mēs dzirdējām no pētniekiem Starptautiskajā mašīnmācīšanās konferencē šī gada sākumā.
Liela daļa Karpatija kritikas par savu nozari, šķiet, reducējas uz vienu punktu: Lai arī cik ļoti mums patīk antropomorfizēt lielus valodu modeļus, tie nav salīdzināmi ar cilvēkiem vai pat dzīvniekiem attiecībā uz to, kā tie mācās..
Piemēram, zebras jau dažas minūtes pēc piedzimšanas ir piecēlušās un staigā apkārt, kas liecina, ka tās piedzimst ar zināmu iedzimtu intelektu, savukārt tiesību zinātņu maģistrantiem (LLM) ir jāiziet cauri milzīgam izmēģinājumu un kļūdu procesam, lai apgūtu jebkuru jaunu prasmi, norāda Karpatijs.
Tas jau ir mierinoši, taču, lai bailes no mākslīgā intelekta (MI) nepastāvētu, tās var vēl vairāk kliedēt, sīkāk izskaidrojot atšķirības starp MI un cilvēkiem, kuras, ja tās tiktu pienācīgi izprastas, radītu apziņu, ka šādas bažas lielākoties ir liekas (lai gan citas tādas nav, kā es apgalvošu tālāk). Visacīmredzamākā atšķirība ir fakts, ka MI (piemēram, ChatGPT) ir atkarīgs no plašas datubāzes, no kuras tas iegūst atbildes uz jautājumiem, kuras tas formulē paredzami, izmantojot modeļu atpazīšanu. Tad, kā minēts iepriekš, pat vissarežģītākais MI ir jāapmāca sniegt meklēto informāciju.
Turklāt, atšķirībā no cilvēkiem, tai trūkst “tiešas” piekļuves empīriskajai realitātei uztveres, telplaika izteiksmē – ko esmu bieži piedzīvojis, saskaroties ar cilvēkiem, kuri izmanto ChatGPT, lai apšaubītu noteiktus argumentus. Piemēram, kad nesen uzstājos ar runu par to, kā Freida un Hannas Ārentes darbs – attiecīgi par civilizāciju un totalitārismu – ļauj izprast globālistu uzbrukuma raksturu esošajai sabiedrībai, lai izveidotu centralizētu, mākslīgā intelekta kontrolētu pasaules valdību, kāds auditorijā izdrukāja ChatGPT atbildi uz jautājumu, vai šie divi domātāji patiešām varētu sasniegt vēlamo rezultātu.
Kā jau paredzams, tajā diezgan pienācīgi tika apkopots šo divu domātāju attiecīgais darbs, taču to kavēja prasība parādīt, kā tas attiecas uz pieaugošajiem totalitāras kontroles draudiem reāllaikā. Mans sarunu biedrs to izmantoja kā pamatojumu, lai apšaubītu manus paša apgalvojumus šajā sakarā, pieņemot, ka mākslīgā intelekta robota reakcija liecina par to, ka šādu draudu nav. Lieki uzsvērt, ka nebija grūti noliegt šo apgalvojumu, atgādinot viņam par ChatGPT atkarību no attiecīgo datu piegādes, savukārt mums, cilvēkiem, ir piekļuve pēdējiem, pamatojoties uz pieredzi, ko es viņam turpināju izklāstīt.
Bailes no mākslīgā intelekta izpaužas arī zinātniskajā fantastikā, kā arī mājieni par iespējamiem pretošanās veidiem mākslīgā intelekta mašīnām, kas varētu – iespējams, mēģinātu – iznīcināt to cilvēku radītājus, kā tas ir iztēlots zinātniskās fantastikas kino, tostarp Mūra darbos. Kaujas zvaigzne Galactica un Kamerona Terminatora filmas. Nav grūti pierādīt, ka šādi populārās kultūras produkti iztēles bagāti ierāmē pašreizējos ar mākslīgo intelektu saistītos baiļu simptomus, ko var uzskatīt par apspiestas, neapzinātas trauksmes kristalizāciju, kas saistīta ar to, ko Freids sauca par “neparasto” (biedējoši, vācu valodā; vairāk par to zemāk).
Gan Mūrs, gan Kamerons sīkāk aplūko iespējamību, ka tieši tās radības, ko radījusi cilvēku tehnoloģiskā atjautība, galu galā vērsīsies pret saviem radītājiem, lai tās iznīcinātu. Aleksa Gārlanda grāmatā Ex Machina (2014) atkal var redzēt mākslīgā intelekta “fembotu” vārdā Ava, kas smalki manipulē ar saviem cilvēku līdziniekiem līdz brīdim, kad izbēg no ieslodzījuma un viņu pašu iznīcināšanai. Nenoliedzami, šie un daudzi citi līdzīgi gadījumi, ir neapstrīdami pierādījumi par cilvēces slēptām bailēm, ka mākslīgais intelekts rada iespējamus draudus tās pašas eksistencei. Tieši tāpēc, ka šīs bailes ir iesakņojušās cilvēka zemapziņā, tās nav galvenais iemesls, lai uztvertu jebkādus mākslīgā intelekta radītos draudus nopietni, lai gan tās ietver vērtīgu atrunu.
Galvenais iemesls, kāpēc mākslīgo intelektu uzskatīt par leģitīmu iebiedēšanas avotu, ir nav izriet no mākslīgā intelekta kā tāda, kā daudzi lasītāji droši vien jau zina. Drīzāk tas attiecas uz veidu, kādā globālisti plāno izmantot mākslīgo intelektu, lai kontrolētu to, ko viņi uztver kā "bezjēdzīgos ēdājus" – citiem vārdiem sakot, pārējos no mums. Un tie no mums, kas nepiekrīt viņu grandiozajiem plāniem par pilnīgu pasaules kontroli, kļūtu par upuriem "pārprogrammēts par atbilstošām "aitām" ar mākslīgā intelekta palīdzību:
Juvals Noa Harari ir parādījies no ēnas, lai lielītos ar Pasaules Ekonomikas foruma zinātnieku izstrādāto jauno tehnoloģiju, kurai, viņaprāt, piemīt spēja iznīcināt ikvienu cilvēku pasaulē, pārveidojot tos par transcilvēciskām būtnēm.
Harari ir skaidri pateicis, kas pārdzīvos lielo iedzīvotāju skaita samazināšanos, par kuru elite mūs brīdinājusi gadiem ilgi.
Pēc Harari teiktā, globālā elite izdzīvos, pateicoties "tehnoloģiskajam Noasa šķirstam", kamēr pārējie tiks atstāti bojāejai.
Šajā ārkārtīgi depopulētajā pasaulē elite varēs brīvi pārvērsties par transcilvēciskām būtnēm un kļūt par dieviem, par kuriem viņi jau tic.
Bet vispirms elitei ir jālikvidē nepakļāvīgās masas, tie, kas iebilst pret dzīvību noliedzošo un bezdievīgo Pasaules Ekonomikas foruma programmu, un, kā lepojas Harari, elite tagad komandē mākslīgā intelekta tehnoloģiju “ētiski” iznīcināt nepakļāvīgos cilvēkus, nolaupot viņu smadzenes.
Satraucoši, ka Harari apgalvojumi ir pamatoti realitātē, un Pasaules Ekonomikas forums (WEF) jau šobrīd ievieš prāta kontroles tehnoloģiju. Davosa apgalvo, ka šī tehnoloģija var pārveidot noziedzniekus, tostarp tos, kas apsūdzēti domu noziegumos, par pilnīgi paklausīgiem globālistiem, kuri nekad vairs nepiekritīs.
Lūk, tas ir skaidrs – ja globālisti panāks savu, mākslīgais intelekts būs instruments, kas piespiedīs mūs pakļauties. Lieki piebilst, ka tas varētu notikt tikai tad, ja pietiekams skaits cilvēku nespētu pretoties viņu plāniem, un, spriežot pēc to cilvēku skaita, kuri pauž savu pretestību topošajiem pasaules valdniekiem, tas nenotiks.
Vēl viens veids, kā izprast bailes no mākslīgā intelekta, ir salīdzināt tās ar to, kas parasti pazīstams kā "boogeyman". Kā daži cilvēki, iespējams, zina, "bubulis (jeb „bogeyman”) – mītisku apmēru radījums, kas daudzās kultūrās pieņem dažādas formas un izmērus, bieži vien lai biedētu bērnus un tādējādi izsauktu labu uzvedību, – tiek dažādi attēlots kā monstruozs, grotesks vai bezformīgs radījums. Kā liecina neliels pētījums, vārds cēlies no vidusangļu valodas termina „bogge” vai „bugge”, kas nozīmē „biedēklis” vai „biedējošs spoks”.
Tā kā tā ir tipiski cilvēciska parādība, nav pārsteidzoši, ka tai ir līdzvērtīgi nosaukumi daudzās folkloras tradīcijās un valodās visā pasaulē. Tāpat kā valodas, arī šīs biedējošās figūras attēlojums krasi atšķiras, bieži vien iegūstot savu draudīgo un biedējošo raksturu no bezformības elementa, piemēram, "El Coco" figūra spāņu valodā runājošajās valstīs, "Sack Man" Latīņamerikā un "Babau" Itālijā, ko dažreiz iztēlojas kā garu vīrieti melnā mētelī.
Bubuļa figūru var uzskatīt par sava veida Junga arhetipu, kas sastopams kolektīvajā zemapziņā un, iespējams, radies pirms gadsimtiem no vecāku nepieciešamības iebiedēt bērnus, lai tie paklausītu, izmantojot nezināmā versiju. Dienvidāfrikā, kur es dzīvoju, tā dažreiz iegūst formu, ko pamatiedzīvotāji sauc par "tikološe – ļaunprātīga un reizēm nerātna, pundurveidīga figūra ar milzīgu seksuālu apetīti. Būdama arhetipa, tā ir iekarojusi arī populāru žanru, piemēram, šausmu filmu, izpaužoties groteskos tēlos, piemēram, Fredijā Krīgerā, vārdā Freds Krūgers.Šausmas Gobu ielā. "
Tātad, kādā ziņā mākslīgais intelekts atgādina “boogeyman”? Pēdējais ir saistīts ar to, ko Zigmunds Freids neaizmirstami nosauca par “neparasto”, par ko viņš raksta ( Zigmunda Freida pilnie psiholoģiskie darbi, tulkojis Džeimss Streičijs, 1974: 3676): "...neparasts ir tā biedējošā klase, kas ved atpakaļ pie tā, kas ir zināms no seniem laikiem un sen pazīstams."
Tas jau norāda uz to, ko viņš atklāj vēlāk šajā esejā, pēc tam, kad atklāj pārsteidzošo faktu, ka vācu vārds, kas nozīmē “mājīgs”, proti, “Heimlich“,” izrādās ambivalents lietojumā, tāpēc tas dažreiz nozīmē pretēju vārdam “mājīgs”, proti, “neheimlich (“nepatīkams”, labāk tulkot kā “neparasts”). Tas, ka jēdziens “neparastais” ir piemērots, lai aptvertu to, ko es domāju, kad atsaucos uz “bailēm no mākslīgā intelekta”, kļūst skaidrs, kad Freids raksta (atsaucoties uz citu autoru, kura darbu par “neparasto” viņš uzskatīja par svarīgu; Freids 1974: 3680):
Kad mēs sākam pārskatīt lietas, personas, iespaidus, notikumus un situācijas, kas spēj īpaši spēcīgā un noteiktā veidā izraisīt mūsos neparastā sajūtu, pirmais, protams, ir izvēlēties piemērotu piemēru, ar ko sākt. Jenčs kā ļoti labu piemēru ir minējis "šaubas par to, vai šķietami dzīva būtne patiešām ir dzīva; vai otrādi, vai nedzīvs objekts patiesībā nevarētu būt dzīvs"; un šajā sakarā viņš atsaucas uz iespaidu, ko rada vaska figūras, atjautīgi konstruētas lelles un automāti. Tiem viņš pievieno epilepsijas lēkmju un neprāta izpausmju neparasto efektu, jo tie skatītājā rada iespaidu par automātiskiem, mehāniskiem procesiem, kas darbojas aiz parastās garīgās aktivitātes parādības.
Jau šeit var sastapt mākslīgā intelekta neparastības iezīmi, kas acīmredzami attiecas uz to – mākslīgā intelekta radīto iespaidu, ka tas kaut kādā veidā ir “dzīvs”. Tas attiecās pat uz pirmajiem, “primitīvajiem” datoriem, piemēram, to, kas redzams Kšištofa Keslovska 1989. gada televīzijas seriāla “Dekalogs” epizodē par Pirmo bausli, kur tēvam un dēlam lietojot datoru, uz tā ekrāna parādās vārdi “Es esmu šeit”. Šīs epizodes draudīgā nozīme ir tāda, ka, ja cilvēce aizstātu Dievu ar mākslīgo intelektu, tas mums būtu postoši, ko parāda fakts, ka tēvs ir pietiekami “racionālists”, lai uzticētos datora aprēķiniem par ledus biezumu, pa kuru slido viņa dēls, kas izrādās nepareizi, novedot pie bērna nāves.
Freids turpina savu “neparastā” būtības izpēti, pievēršot pastāvīgu uzmanību ETA Hofmaņa darbiem, kura stāsti ir slaveni ar spēcīgu neparastā sajūtu, īpaši stāsts par “Smilšu vīru” – “kurš izrauj bērniem acis” –, kurā starp vairākām citām neparastām figūrām (un ļoti nozīmīgi) ir redzama skaista, dzīvai dzīvei līdzīga lelle vārdā Olimpija. Pēc tam viņš to skaidro, psihoanalītiski saistot to ar kastrācijas kompleksu – kas saistīts ar tēva figūru – caur bailēm zaudēt acis (Freids 1974: 3683–3685). Freids turpina savu neparastā interpretāciju atklājošā veidā, atsaucoties uz vairākiem citiem psihoanalītiski būtiskiem pieredzes aspektiem, no kuriem šāds, šķiet, attiecas uz mākslīgo intelektu (1974: 3694):
...neparasts efekts bieži un viegli rodas, kad izzūd atšķirība starp iztēli un realitāti, piemēram, kad kaut kas tāds, ko līdz šim uzskatījām par iedomātu, parādās mūsu priekšā realitātē vai kad simbols pārņem visas lietas, ko tas simbolizē, funkcijas utt. Tieši šis faktors ne mazumā veicina maģisko prakšu neparasto efektu.
Freids apgalvo, ka nav grūti atcerēties bērnības gadījumus, kad cilvēks ir iztēlojies nedzīvus objektus, piemēram, rotaļlietas (vai arī dzīvus, piemēram, mājas suni), kā spējīgus ar viņu runāt, bet, kad tas patiesībā šķiet notiekam (kas būtu halucinācija, nevis apzināta iztēlošanās), tas neizbēgami rada neparastu efektu.
Varētu sagaidīt, ka tas pats notiks ar mākslīgo intelektu, neatkarīgi no tā, vai tas ir datora vai robota veidā, un parasti – iespējams, agrākā mākslīgā intelekta attīstības posmā – tas, iespējams, tā arī būtu bijis. Taču mūsdienās, šķiet, ir citādi: cilvēki, īpaši jaunieši, ir tik ļoti pieraduši pie mijiedarbības ar datorprogrammām un nesen arī ar mākslīgā intelekta tērzēšanas robotiem, piemēram, ChatGPT, ka tas, kas agrāk varēja būt neparasta pieredze, vairs nav aktuāli. Šajā ziņā šķiet, ka “neparastais” ir pieradināts.
Jau 2011. gadā, Vieni kopā, Šerija Turkle ziņoja, ka viņu uztrauc jauniešu pieaugošā tendence dot priekšroku mijiedarbībai ar mašīnām, nevis citiem cilvēkiem. Tādēļ nevajadzētu būt nemaz pārsteidzoši, ka mākslīgā intelekta tērzēšanas roboti komunikācijas jomā ir ieguvuši kaut kā “normāla” veidolu (pagaidām atstājot malā jautājumu par šīs slavētās “komunikācijas” statusu).
Turklāt — un šeit bailes no tā, ko mākslīgais intelekts varētu radīt pārāk uzticīgos indivīdos, — no nesenajiem ziņojumiem (piemēram, šī) ir skaidrs, ka īpaši jaunieši ir ārkārtīgi uzņēmīgi pret tērzēšanas robotu “padomiem” un ieteikumiem par viņu pašu rīcību, kā to darīja Maikls Snyder norāda:
Mūsu bērni kļūst par masveida mākslīgā intelekta tērzēšanas robotu mērķiem, un lielākajai daļai vecāku nav ne jausmas, ka tas notiek. Kad esi jauns un viegli iespaidojams, var būt ļoti pievilcīgi, ja kāds tev pasaka tieši to, ko vēlies dzirdēt. Mākslīgā intelekta tērzēšanas roboti ir kļuvuši ārkārtīgi sarežģīti, un miljoniem Amerikas pusaudžu veido ar tiem ļoti dziļas attiecības. Vai tā ir tikai nekaitīga izklaide, vai arī ārkārtīgi bīstama?
Pavisam jaunā pētījumā, ko tikko publicēja Demokrātijas un tehnoloģiju centrs, ir sniegta statistika. tas mani absolūti šokēja...
Jaunā Demokrātijas un tehnoloģiju centra (CDT) 8. oktobrī publicētā pētījumā atklājās, ka viens no pieciem vidusskolēniem ir bijis attiecībās ar mākslīgā intelekta tērzēšanas robotu vai pazīst kādu, kam tādas ir bijušas. 2025. gada Common Sense Media ziņojumā 72% pusaudžu ir izmantojuši mākslīgā intelekta pavadoni, un trešdaļa pusaudžu lietotāju atzina, ka svarīgus vai nopietnus jautājumus ir izvēlējušies apspriest ar mākslīgā intelekta pavadoņiem, nevis reāliem cilvēkiem.
We nav vairs nerunājam tikai par atsevišķiem gadījumiem.
At šī posmā burtiski miljoniem un miljoniem Amerikas pusaudžu ir ļoti nozīmīgas attiecības ar mākslīgā intelekta tērzēšanas robotiem.
Diemžēl ir daudz piemēru, kur šīs attiecības noved pie traģiskām sekām. Pēc tam, kad 14 gadus vecais Sevels Secers izveidoja “romantiskas attiecības” ar tērzēšanas robotu vietnē Character.AI, viņš nolēma atņemt sev dzīvību...
Kā redzams iepriekšējā diskusijā, ir dažas cilvēka darbības jomas, kurās nav jābaidās no mākslīgā intelekta, un ir arī citas, kurās šādas bailes ir pamatotas, dažreiz tāpēc, ka negodīgi cilvēki izmanto mākslīgo intelektu pret citiem cilvēkiem. Taču lai kā arī būtu, labākais veids, kā pieiet sarežģītajai situācijai saistībā ar mākslīgā intelekta iespējām, ir vis-à-vis cilvēkiem ir jāatgādina sev fakts, ka — kā jau tika apgalvots šī raksta sākumā — mākslīgais intelekts ir atkarīgs no milzīga datu apjoma, no kura to iegūt, un no programmētāju “apmācības” šajā jomā. Cilvēki to nedara.
-
Berts Olivjē strādā Brīvvalsts Universitātes Filozofijas nodaļā. Berts veic pētījumus psihoanalīzē, poststrukturālismā, ekoloģiskajā filozofijā un tehnoloģiju filozofijā, literatūrā, kino, arhitektūrā un estētikā. Viņa pašreizējais projekts ir "Subjekta izpratne saistībā ar neoliberālisma hegemoniju".
Skatīt visas ziņas