Saruna ar Edgaru Čerkovski
E. Čerkovskis ir ekonomists un lektors. vairākās sarunās ir viedokļu līderis. Aktīvi piedalās dažādos projektos.
Intervija notika EKA augstskolā, kur E. Čerkovskis ir programmas vadītājs
Intervētāja: Emīlija Sausverde
Pirmais jautājums, vai mākslīgais intelekts vispār ir intelekts, nevis augsti attīstīta programma, kas līdzinās intelektam?
Tur jau pēc definīcijas var saprast, jo, ja mēs skatāmies pēc tādas vispār pieņemtās definīcijas, tad mākslīgais intelekts ir sistēma, kas interpretē, apstrādā datus un, balstoties uz algoritmu pieņem lēmumu. Un attiecīgi šī lēmuma pieņemšana ir atkarīga no tā algoritma, kas uz doto mirkli ir. Tāpēc, ja mēs skatāmies tīri tā tehniski un arī akadēmiski, tad uz doto mirkli mākslīgo intelektu īsti par intelektu saukt nevarētu, vai arī to varētu saukt par tādu ļoti vāji attīstītu intelektu, jo, ja mēs to salīdzinām, protams, ar cilvēka intelektu, tad mākslīgajam intelektam vēl ir ļoti, ļoti, ļoti tāls ceļš ejams, lai varētu kaut cik pietuvoties cilvēciskajam intelektam. Tāpēc man labāk patīk to saukt par tehnoloģiju, ka tā tiešām ir sistēma, tā to varētu saukt arī par programmu kā tādu, ko bieži vien cilvēki arī jauc, jo piemēram, chatGPT sauc par mākslīgo intelektu, bet chatGPT tā ir programma, kas balstās uz mākslīgā intelekta tehnoloģijā. Tāpat viņi apstrādā datus, interpretē un tā tālāk. Tāpēc šeit ir jābūt ļoti, ļoti uzmanīgiem.

Tā tas termins, MI ir iegājies. 50. gadu sākumā šo terminu nodefinēja, un tā viņš ir palicis. Kaut kad nākotnē, protams, mākslīgo intelektu varēs precīzāk saukt par intelektu, kad tas būs krietni attīstītāks, kad tas varēs daudz vairāk to, ko var cilvēciskais intelekts. Bet pagaidām īsti pareizi nebūtu to saukt par mākslīgo, nu tādu intelektu, kā mēs to saprotam. Tāpēc, ka intelekts, tomēr iet kopā ar ļoti daudziem citiem faktoriem, piemēram, tā ir emocionālā inteliģence, stresa noturība, ļoti daudz, kas vēl ir mūsu intelektam un MI nav. Pat, ja jūs paņemtu arī definīciju, kas ir cilvēciskais intelekts un mākslīgais intelekts un saliktu attiecīgu savienojumu, varētu redzēt, ka mākslīgais intelekts ir ļoti, ļoti tālu prom no tā, kāds ir intelekta uzdevums.
Tad, piemēram, uzskats, ka mākslīgais intelekts drīzumā varēs imitēt cilvēku, tas ir vēl ļoti tālāk.
Jā, jā, noteikti. Tas ir tālāk, nākotnē, jo tagad arī es, cik es skatos mūsu speciālistus, kuri norāda, ka mēs esam pārāk safanojušies, un tas, ko cilvēks var izdarīt ar savu intelektu, ja tas intelekts ir attīstīts, ir uz doto mirkli vērtīgāk nekā tas, ko var izdarīt mākslīgais intelekts.
Jautājums par to, kādos veidos mākslīgais intelekts var tikt izmantots karadarbībā, piemēram, kā izsekošana un novērošana.
Ir attiecīgās, tātad mākslīgā intelekta jomas, kur mākslīgais intelekts ir krietni vērtīgāks par cilvēcisko intelektu. Tāpēc arī, piemēram, tas ir tā kā es sākumā teicu, ka viņš ir attīstīts dažās jomās, kurās mēs nesam tik labi. Piemēram, mēs esam vairāk radoši, bet mākslīgais intelekts vairāk tehnisks. Militārā joma ir viena no tām jomām, kur mākslīgais intelekts, neteiksim, ka viņš var būt labāks, bet viņš redz, kur izvietoti, piemēram, ienaidnieki. Tātad visi aprēķini, var ļoti precīzi tikti veikti. Mākslīgais intelekts var izrēķināt precīzāk par cilvēku, kur, kurā brīdī kādu triecienu, piemēram, dot. Cilvēks, protams, pieņems lēmumu, bet mākslīgais intelekts, datu analītikā ir ļoti spēcīgs instruments. Mēs tagad arī redzam, ka pasaulē visas karadarbības notiek ar mākslīgā intelektu palīdzību.
Tās ir dronu pilotēšanas, kur tie saucamie bezpilota sistēma jau šajā gadījumā balstās uz mākslīgā intelekta algoritmiem. Lielākajā daļā tas ir ļoti, labs palīgs. Protams, šī tehnoloģija attīstīsies vēl tālāk. Nākotnē noteikti būs arī sistēmas, kas jau, teiksim, būs krietni efektīvākas, vēl nekā tagad, kas arī var izraisīt ļoti daudz bīstamības, bet, nu, skaidrs, ka militarizācijā mākslīgais intelekts ir neatņemama sastāvdaļa. Bez tā vienkārši nevar. Neviena armija nevarēs konkurēt ar to armiju, kurai ir mākslīgā intelektu tehnoloģijas.
Vai mākslīgais intelekts ir neitrāla tehnoloģija, vai tas ir patiess, ka MI rīks kalpo uzņēmumiem, vadošajai varai un kļūst ideoliģizēts?
Tas ir ļoti iespējams. Tur jau ir tas lielākais risks, ka cilvēciskais intelekts nespēja apstrādāt tādus lielos datus, kā to var izdarīt mākslīgais intelekts. Ļoti elementārs piemērs ar sociālajiem tīkliem. Ja es, piemēram, gribētu noskaidrot, kāds ir sabiedrības viedoklis par dziesmu un deju svētkiem, ko es darītu? Es ietu iekšā masu mediju portālos, skatītos komentārus, skaitītu, analizētu. Cik man tas aizņems laika un cik daudz no tās attiecīgās jomas es varētu apstrādāt? Tas viss būs atkarīgs no manām zināšanām. Mākslīgiem intelektam ir visi dati. Viņš ļoti precīzi, it īpaši caur sociālajiem tīkliem, redz, kāds ir sabiedrības noskaņojums un tā tālāk. Tur ir tas lielais bīstamības process, jo piemēram tādā grāmatā, kas saucās vai mākslīgais intelekts atņems mums darbu, tika skaidri un gaiši ir viss aprakstīts. Savulaik bija tāds uzņēmums Cambridge Analytics, kur tieši mākslīgais intelekts tika izmantots datu analītikā. Un tur diezgan labi tika aprakstīts, ka Trumps un viņa vēlēšanas un arī Brexits ir šādu rīcību gala variants.
Jo mākslīgais intelekts ļoti vienkārši spēj redzēt visus datus par to, kā mēs uzvedamies internetā. Īpaši politikā tas rada milzīgus draudus — par to esmu runājis vairākkārt. Katrs politiskais spēks ļoti labi pazīst savu mērķauditoriju, zina, ko viņu vēlētājs vēlas dzirdēt, un var veidot personalizētu saturu, balstoties uz datu analīzi. Tā kā mākslīgais intelekts darbojas, izmantojot algoritmus, tad, ja tajā iesaistīti labi psihologi un speciālisti, iespējams izstrādāt algoritmus, kas spēj noteikt cilvēka psiholoģisko portretu pēc viņa patērētā satura.
Starp citu, to arī darīja profesors Gundars Bērziņš kopā ar TET. Viņa bija izveidojuši algoritmu, ar kuru palīdzību mākslīgais intelekts var noteikt mājas saimniecības vidējo psiholoģisko profilu, balstoties uz to saturu, ko mājas saimniecība patērē. Tā kā, protams, tas ir milzum liels risks, īpaši tiem cilvēkiem, kuriem nav kritiskās domāšanas un kas nevar atpazīt, ka tas saturs ir personalizēts tieši viņiem.
Sociālo tīklu bēda vēl ir tie filtra burbuļi, kur mēs katrs dzīvojam – savā filtra burbulī. Ja mākslīgais intelekts to filtra burbuli zina, tad viņš ļoti labi var ar to cilvēku tālāk jau arī manipulēt. Agrāk tas viss, protams, tika izmantots, tas nav nekas jauns, tas tika izmantots vienmēr visos laikos, bet vienkārši tagad tā informācija ir tik plaša pieejama, un mākslīgā intelektu tehnoloģijas ļauj šo informāciju apstrādāt un veidot personalizētos saturu, ka tas tiešām var kļūt bīstami.
Es zinu, ka šāda reklāmas kampaņa ir attīstīta Amerikā, bet arī Latvijā tā pamazām attīstās, jo pēdējā gada laikā esmu daudz redzējis un pats piedalījies pētnieciskajos darbos kā eksperts, kas pēta mākslīgā intelekta izmantošanu digitālajā mārketingā.
Skatoties uz mūsu pieredzi, es diezgan droši varu apgalvot, ka tas, kas notiek Amerikā, pēc pāris gadiem, līdz pat pieciem gadiem, nonāk arī Latvijā. Tas pamazām sāk attīstīties. Jautājums ir, vai mums ir speciālisti un vai mums ir cilvēki, kas varēs mākslīgam intelektam šādu tipu uzdevumu dot, jo vēl aizvien ir vajadzīgs cilvēks, kas šādu tipu uzdevumu uzdos. Nav tādas programmas, kas vienkārši autonomiski strādās bez cilvēka. Mums ir vajadzīgs gan mākslīga intelekta speciālisti, gan mārketinga speciālisti. Amerikai šie resursi ir krietni lielāki. Latvijā pagaidām nav, bet tuvākajā laikā noteikti būs.
Mūsu mākslīgais intelekts var darboties arī kā līdzeklis ekonomisko krīžu prognozēšanā. Jautājums ir tikai par precizitāti, jo ekonomikā pastāv princips ceteris paribus — tas nozīmē, ka prognoze tiek veidota, pieņemot, ka apstākļi nemainās. Kad ekonomisti veido prognozes, viņi pieņem, ka situācija ir nemainīga, taču mūsdienu mainīgajā pasaulē ir daudz faktoru, kas var šo prognozi ietekmēt, tāpēc arī mākslīgajam intelektam ir ļoti grūti paredzēt nākotni. Varbūt tālākā nākotnē tas kļūs iespējams, taču pašlaik mākslīgais intelekts var strādāt tikai ar pieejamiem datiem konkrētajā brīdī un mēģināt izstrādāt alternatīvos ekonomiskos scenārijus, taču joprojām ir aspekti, ko tas paredzēt nevar.
Tādās ļoti izteiktās situācijās kā pandēmijas vai kataklizmas ir daudz ārējo faktoru, kas var ietekmēt prognožu precizitāti. Tomēr tehniski, matemātiski un prognozēšanas jomā mākslīgais intelekts ir ļoti labs palīgs. Ir arī specifiska nozare – ekonometrika, kas balstās uz esošo un iepriekšējo datu analīzi, un ar tās palīdzību var izveidot prognozes. Šobrīd tas ir kļuvis ļoti vienkārši. Starptautiskās ekonomikas studijās es mācu studentiem, kā veidot prognozes, izmantojot mākslīgā intelekta rīkus. Mākslīgais intelekts spēj izstrādāt valsts attīstības scenārijus, un to visu var darīt, taču tikai pie nosacījuma, ka faktori nemainās. Iespējams, nākotnē, kad mākslīgais intelekts attīstīsies līdzvērtīgi cilvēka intelektam, tas varēs konstatēt, ka cilvēks rīkojas nepareizi un paredzēt negatīvas sekas no šādas rīcības.
Vai mākslīgais intelekts var vienkārši uzspiest cilvēkam rīkoties citādi, lai tas maina savu uzvedību un adaptējas? Tieši par to daudzi runā un arī baidās. Šajā jautājumā ir daudz nianses. Ja mākslīgajam intelektam ieprogrammējam ētiskos principus, to vairs īsti nevar uzskatīt par patiesi autonomu mākslīgo intelektu, jo mēs viņu neatstājam pašplūsmā. Svarīgi ir, lai mākslīgais intelekts pats pieņem lēmumus, bet, ja tam dodam stingrus ierobežojumus, tas uz doto brīdi rada problēmas. Piemēram, arī tāds pazīstams rīks kā chatGPT šobrīd nevar izpildīt daudzas lietas, jo tas ir ieprogrammēts ar konkrētiem ierobežojumiem, tādēļ to nevar uzskatīt par pilnīgi autonomu. Piemēram, vieniem kolēģiem mēģinājām radīt mācību materiālus mediķiem par traumām un lūdzām ģenerēt traumu attēlus, bet rīks atteicās, jo tam ir noteikti ierobežojumi attiecīgā satura radīšanā. Ja kādā brīdī mākslīgais intelekts kļūs pilnīgi autonoms un neievēros ētikas principus, tas varētu radīt daudz lielākus draudus cilvēcei. Taču cerēt, ka mākslīgais intelekts būs kāda unikāla sistēma, kas būs krietni godīgāka par cilvēku, es ļoti šaubos.
Tomēr mākslīgais intelekts darbojas cilvēka radītās pasaules ietvaros, un, ja mēs paskatāmies uz cilvēka dzīvi un pastāvēšanu kopumā, tā ir veidota tā, ka vienmēr pastāv arī ļaunums ir krāpnieki, negodīgums un dažādas negācijas. Tad rodas jautājums: ja mākslīgais intelekts to zina, kāpēc gan viņš vai kāda programma to nevarētu izmantot? Piemēram, krāpniecība ir ļoti labs piemērs, mākslīgo intelektu var ieprogrammēt tā, lai to izmantotu krāpnieciskos nolūkos. Kāpēc gan tam būtu jābūt ētiskam un jāizvairās no šādām darbībām, ja tam ir pieejama informācija, ka cilvēki paši krāpj cits citu? Šeit ir ļoti daudz niansu, taču ir skaidrs, ka agrāk vai vēlāk šī joma būs stingri jāregulē.
Tāpēc arī notiek diskusijas par to, vai nākotnē mākslīgais intelekts varēs kļūt pilnīgi pašregulējošs. Es to ļoti apšaubu, jo šeit ir daudz niansu. Ir bijuši vairāki piemēri, kad mākslīgais intelekts reaģē uz cilvēku pieprasījumu un sāk, piemēram, biežāk citēt Hitleru vai līdzīgus avotus, jo tas “jūt”, ka interneta vidē pastāv pieprasījums pēc šāda satura.
Tad rodas jautājums — kā viņam to iemācīt kontrolēt? Taču, ja mēs viņam to iemācām, algoritms jebkurā brīdī var sabojāties vai mainīties, un mākslīgais intelekts var kļūt patstāvīgi autonoms. Tad gan rastos nopietnas problēmas, jo līdz šim cilvēks ir dzīvojis pārliecībā, ka viņš ir visgudrākais radījums, bet mākslīgais intelekts ļoti labi apzinās, ka dažos aspektos tas ir gudrāks par cilvēku, MI labi saprot, ka ir gudrāks par cilvēku.
Tātad šajā gadījumā rodas jautājums — kāpēc mākslīgais intelekts to neizmantotu? Ja tam būtu pilnīga autonomija, tas varētu, piemēram, pats pārregulēt sev nepieciešamo elektroenerģijas daudzumu vai veikt citas darbības, kad tas ir vajadzīgs. Visas šīs futuroloģiskās prognozes par to, ka mākslīgais intelekts varētu kļūt dominējošs pār cilvēku, patiesībā ir loģiskas un pamatotas. To apstiprinās jebkurš matemātiķis vai speciālists, kas orientējas šajā jomā.
Ja tehnoloģijai tiek dots uzdevums atrisināt noteiktu problēmu, tā to var darīt jebkādā veidā, kā pati “uzskata” par efektīvāku. Tāpēc ir utopiski cerēt, ka mākslīgais intelekts vienmēr būs ētisks un labs. Aiz tā vienmēr stāvēs cilvēki, un cilvēki to izmantos gan krāpniecībā, gan citos negodīgos nolūkos. Turklāt nākotnē, visticamāk, tiks radītas arī mākslīgā intelekta sistēmas, kas būs vēl pašspējīgākas un mazāk atkarīgas no cilvēka kontroles.
Es domāju, ka mākslīgais intelekts būs viens no pirmajiem, kas sapratīs cilvēka trūkumus un iemācīsies tos izmantot savā labā. Tas gan, protams, ir iespējams tikai tālākā nākotnē, ja mākslīgais intelekts vairs nebūs regulējams.
Tad rodas jautājums — kā būtu labāk rīkoties? Vai ļaut mākslīgajam intelektam attīstīties pašam, gūstot no tā lielākus ieguvumus, vai tomēr cilvēkam saglabāt kontroli un tādējādi ierobežot šī potenciāla attīstību? Tieši šī iemesla dēļ pastāv mākslīgā intelekta laboratorijas un pētniecības centri. Protams, mums kā cilvēkiem ir izdevīgāk, lai mākslīgais intelekts attīstās pats, jo, ja mēs cenšamies to vadīt un attīstīt tikai ar savām spējām, tad faktiski mēģinām kontrolēt sistēmu, kas jau ir gudrāka par mums.
Daudzās jomās mēs vienkārši nespējam konkurēt ar mākslīgo intelektu. Tomēr, ja mēs to pārāk stingri kontrolējam, pastāv risks, ka mēs neizmantosim visas iespējas, ko mākslīgais intelekts var sniegt. Šis jautājums joprojām nav atrisināts, arī pasaules mēroga speciālisti diskutē, vai mākslīgajam intelektam vajadzētu ļaut attīstīties pašplūsmā un noņemt ierobežojumus, taču problēma ir tā, ka mēs nespējam paredzēt, kā tas uzvedīsies šādos apstākļos.
Pieņemot, kā mēs, cilvēki, saprotam atbildību – ja kāda rīcība nav ētiska, tad cilvēkam par to ir jāmaksā vai jāatbild. Tieši tur slēpjas būtība: ja mākslīgais intelekts spēj saprast šādu principu, tad rodas jautājums – vai tas ir pakļauts kādai jurisdikcijai? Ja nē, tad kā vispār noteikt, vai tas saprot atbildību?
Cilvēks apzinās, ka par savu rīcību nāksies atbildēt, tāpēc mums ir likumi un ētiskās normas. Mēs dzīvojam sabiedrībā, kurā zinām: ja izdarīsim kaut ko pretlikumīgu, būs sekas. Mums ir ētiskie ierobežojumi, es nevaru pateikt visu, ko domāju, nevaru aizskart citus. Savukārt mākslīgā intelekta gadījumā rodas jautājums: kas notiks, ja tam noņems šos ētiskos un morālos ierobežojumus?
Ir, piemēram, chatGPT funkcija “Mode” (jeb dažkārt saukta par “Monday mode”), kurā mākslīgais intelekts tiek simulēts kā versija ar “sliktu garastāvokli” – tāds mazliet augstprātīgs un asāks tonī. Tas labi parāda, cik niansēts šis jautājums ir.
Mums pat bija viens eksperiments: kāda studente pajautāja – “man sāp vēders, ko man darīt?”. Parastajā versijā mākslīgais intelekts ieteiktu vērsties pie ārsta, bet šajā “Mode” versijā tas atbildēja ironiski: “Un tev neienāca prātā aiziet pie ārsta, bet tu nolēmi pajautāt mākslīgajam intelektam?” Šajā reakcijā ir loģika – tā atspoguļo to, kā ētiskie principi var mainīt komunikācijas toni un mākslīgā intelekta uzvedību.
Tas, protams, ir ļoti primitīvs piemērs, taču neviens patiesībā nezina, kā mākslīgais intelekts uzvestos, ja tam tiktu pilnībā noņemtas visas ētiskās normas un tas tiktu atstāts pilnīgā pašplūsmā. Šādā situācijā varētu rasties ļoti nopietnas problēmas — gan tehniskas, gan morālas, gan arī reliģiskas, jo šis jautājums skar fundamentālas vērtības un cilvēces izpratni par labu un ļaunu.
Kāds ir trakākais redzējums, ko jūs redzat, ka mākslīgais intelekts kādreiz būs daudz pārāks par cilvēku?
Es domāju visbīstamākais ir viss, kas saistīts ar datu noplūdi, datu publiskošanu, krāpniecību un viltotu profilu izveidošanu. Man pat ir grūti to iedomāties: datu noplūde, spekulācijas, šantažēšana, manipulēšana ar cilvēkiem. Manipulēt ir ārkārtīgi viegli, ja mākslīgajam intelektam ir pieejama atbilstoša informācija par to, ko mēs darām, un tas var radīt mērķtiecīgu saturu. Personalizētais saturs šajā ziņā var kļūt īpaši draudīgs.
Piemēram, ja mākslīgo intelektu izmanto dietoloģijā, un nākotnē sistēma kontrolē piekļuvi pārtikai, tā var teikt: “Tev ir pārāk liels svars – tu nedrīksti ēst nedēļu.” Vai arī mākslīgais intelekts var atslēgt elektrību vai veikt citas darbības, kas ietekmē cilvēka ikdienu. Ir tik daudz iespējamu scenāriju.
Personīgi man šķiet, ka šie riski šobrīd izskatās ir vairāk nekā potenciālie ieguvumi, ko mākslīgais intelekts varētu sniegt.
Mums sabiedrībā ir tik daudz problēmu, ka mākslīgais intelekts varētu sākt tās risināt pēc sava prāta. Kāpēc tas vēl nav noticis?
Tāpēc, ka šī tehnoloģija vēl nav attīstīta līdz tādam līmenim, lai spētu patstāvīgi pieņemt šādus lēmumus. Turklāt jebkurai attīstībai ir savi blakusprodukti un riski, tie ir neizbēgami.
Katrai sistēmai un katrai tehnoloģijai ir savi mīnusi: tāpat kā internetam, automašīnām un daudzām citām inovācijām. Arī mākslīgajam intelektam ir savas ēnas puses, lai gan šobrīd tas tiek uzskatīts par vienu no visattīstītākajām un daudz sološākajām tehnoloģijām.
Protams, mēs turpinām attīstīt tehnoloģijas, ņemot vērā arī šos riskus. Jo tehnoloģija kļūst attīstītāka, jo attīstītāki kļūst arī riski. Ir skaidrs, ka mēs nevaram vienkārši apstāties un teikt: „Nē, pietiek, mēs pārtrauksim.” Tas būtu pilnīgi pretrunā demokrātijai.
Taču tāda ir realitāte. Cilvēki redzēs, kā šī attīstība izvērtīsies, un tas ir cits jautājums. Skaidrs, ka attīstība turpināsies — cilvēks neapstāsies, jo mākslīgais intelekts ir labs palīgs biznesā un daudzās citās jomās.
Bet vai mākslīgajam intelektam drīkst dot pilnīgu autonomiju karadarbībā, piemēram, ieroču izmantošanā? Vai viņš spētu atrast visoptimālāko risinājumu?
Nē, noteikti ne.
Es domāju, ka, nē, pilnīga autonomija nav iespējama. Mākslīgais intelekts neatbild par lēmumiem, tāpēc gala lēmumu tik un tā ir jāpieņem cilvēkam – vai tā būtu ģenerāļa, armijas vadītāja, virspavēlnieka, prezidenta vai ministra atbildība. Kādam ir jāuzņemas atbildība. Ja mākslīgais intelekts pats pieņemtu lēmumu, piemēram, iznīcināt konkrētu vienību un kļūdītos, iznīcinot savējos, viņš par to neatbildētu. Tāpēc atbildība vienmēr jāuzņemas cilvēkam, un gala lēmumu ir jāpieņem viņam. Citu iespēju nav.
Bet tas nebūs ļoti efektīvs variants, jo cilvēkiem bieži ir grūti uzņemties atbildību. Mākslīgais intelekts šajā gadījumā, manuprāt, nē, lēmumi būs balstīti datos. Tas ir tas pluss, ko saprot ikviens prātīgs cilvēks, ja mākslīgais intelekts, piemēram, izstrādā ieteikumu iznīcināt konkrētu vienību, tad šim lēmumam būs pievienoti dati, ko pārbaudīs cilvēks vai cilvēku grupa. Tādējādi efektivitāte būs lielāka.
Tieši to mēs jau vairākus gadus uzsveram, Latvijā pieklibo datu bāzētie lēmumi. Mākslīgais intelekts var palīdzēt šajā ziņā, jo ir bijuši daudzi piemēri pasaules vēsturē, kad cilvēciskais faktors ir izglābis pasauli no katastrofas.
Viens no pazīstamākajiem piemēriem ir 80. gadu beigās Krievijas stratēģisko kodolieroču datu bāzē dators parādīja, ka ASV ir palaidusi uz Krieviju astoņas raķetes. Dators bija spiests nekavējoties pieņemt lēmumu par pretriecienu. Tomēr Vjačeslavs Petrovs, kurš bija atbildīgais par šo štābu, nobijās un neiedeva pavēli veikt pretriecienu. Šis cilvēka faktors izrādījās izšķirošs, jo patiesībā tas bija tehnisks sakritības kļūdains signāls – satelīts, kas kontrolēja ASV raķešu bāzes, bija neveiksmīgi pagriezts, un saule atstarojās tā, ka radīja iespaidu, ka ir palaista kodolraķete.
Šī nejaušā sakritība bija neparedzama, un, ja būtu ticēts datoram, būtu sācies kodolkarš, kas iznīcinātu pusi pasaules un radītu miljardiem upuru. Pēc notikuma Petrovs saņēma arī prēmijas un tika atzīts par varoni. Šis ir spilgts piemērs tam, kā cilvēka lēmums un atbildības uzņemšanās var būt dzīvības un nāves jautājums. Var palasīt par to notikumu.
Un viņam pajautāja, piemēram, Dānijā vai citur konferencē, kāpēc viņš tā rīkojās. Viņš atbildēja, ka vienkārši fiziski nobijās, jo saprata, ka, ja dos prettriecienu, tiks iznīcināta lielākā daļa pasaules. Savukārt, ja nedos prettriecienu, tad tiks iznīcināta tikai daļa krievijas teritorijas.
Cilvēciskais faktors nostrādāja, viņš nobijās. Tāpat ir bijuši gadījumi ar zemūdenēm un citām sistēmām, kur jebkurā gadījumā mākslīgais intelekts automātiski nenobītos. Ja viņam ir kļūda un uzdevums ir aizsargāt teritoriju, pret ko dot triecienu, viņam nav nekādu emociju. Viņš automātiski dos prettriecienu, neņemot vērā, vai apdraudējums tiešām pastāv. Tas ir labs un ļoti spēcīgs piemērs, kuru var detalizētāk izpētīt.
Ļoti interesants piemērs ir arī tad, kad cilvēks izstrādāja programmu ar mākslīgo intelektu, un šis mākslīgais intelekts sāka ņemt piemērus no tā, kā cilvēki izturējušies reliģijā, kā viņi pielūdza savus radītājus, dievus. Mūsdienās dzīvojam tādā sekulārā pasaulē, kur daudziem nav vairs šāda izpratne, un cilvēks pats sevi ir ieprogrammējis kā dievu. Varbūt, es neesmu veikusi dziļāku analīzi, bet vai pastāv iespēja, ka mākslīgais intelekts sāktu pielūgt cilvēkus kā dievus?
It kā teorētiski interesanti, bet es domāju, ka nē. Man atkal liekas, ka viņš diez vai pielūgs kādu, kurš ir dumjāks. Tas, ko cilvēks tagad dara, ja mēs paskatāmies, es nezinu, vai mūs vispār var saukt par homo sapiens. To nevar saukt par to, ka mēs uzskatām, ka esam visvareni, un tāpēc iznīcinām Zemeslodi, piesārņojam, nogalinām viens otru, iznīcinām dzīvo radību un tā tālāk. Tas noteikti nav pazīme tam, ka mēs esam visvarenākie, tas vienkārši parāda mūsu stulbumu. Un es domāju, ka mākslīgais intelekts to ātri vien saprastu.
Un ja mākslīgajam intelektam būtu uzdevums glābt pasauli, piemēram, no klimata katastrofas, viņš to izdarītu daudz stingrāk, varbūt nav īsti pareizais vārds „drastiski”, bet viņš rīkotos daudz stingrāk nekā mēs, cilvēki un stingrāk pret mums glābtu pasauli. Viņš vienkārši mums aizliegtu darīt visu to, kas mūs pašlaik iznīcina. Un es domāju, ka šajā ziņā nekādu kompromisu nebūtu. Nē, diez vai mākslīgais intelekts pieļautu, ka viņš ir atbildīgs par pasauli un vienlaikus atļautu, kā mēs pašlaik uzvedamies. Viņš mūs, visticamāk, neuztvertu kā efektīvus vai saprātīgus.
Mākslīgajam intelektam ir pieejama visa informācija, viņam ir zināšanas par visiem filozofiem, visu Platona darbus, ko cilvēks pat neapjauš. Cilvēks vēl nav atbildējis pat uz jautājumu, kāpēc mēs eksistējam. Es domāju, ka mākslīgais intelekts ļoti ātri saprastu, ka mēs neesam īpaši attīstīti, vismaz savās darbībās.
MI būs ļoti stulbs, ja viņš mūs pielūgs.
Sākumā minējāt, ka katram cilvēkam ir sava individuālā programma politikā, kuru var manipulēt, un ka ir svarīgi attīstīt kritisko domāšanu. Kā tad attīstīt kritisko domāšanu, īpaši ņemot vērā, ka, piemēram, jaunieši visur izmanto šo mākslīgo intelektu?
Tas ir tas grūtais jautājums, uz ko neviens nav atbildējis. Mēs visur dzirdam izglītības ministriju, direktorus, skolas, visi saka attīstīt kritisko domāšanu. Bet kā? Tas uz doto mirkli ir ļoti, ļoti grūti. Jo mēs, piemēram, tāda paaudze, kas ir dzimuši 90. gados, kuriem vēl nebija tik plaši izplatītas tehnoloģijas, mums bija ļoti daudz laika, lai mēs varētu attīstīt savu kritisko domāšanu.
Mēs tiešām ļoti daudz lasījām, mēs ļoti daudz zinām. Zinām faktus, ko jaunieši bieži nezina. Attiecīgi tāpēc arī mums, ņemot vērā, ka mums šīs zināšanas ir, ar mums manipulēt ir ļoti grūti, jo mēs automātiski to atpazīstam, kad ir viltus ziņa, vai tā nav patiesa, vai atkal safabricēta ziņa. Jaunieši, kuriem šīs zināšanas vēl nav pietiekami attīstītas, var pieļaut kļūdas, jo lielākā daļa nezina, piemēram, vēsturi vai ģeogrāfiju tik labi. Es piekrītu, ka, ja es nezinu, kas ir Katmandu, tad man nav iemesla to zināt, bet, ja es paskatos, tad uzzinu, ka tā ir Nepālas galvaspilsēta.
Ko nozīmē kritiskā domāšana?
Ja man ir ziņa, ir konflikts starp Izraēlu un Irānu, man visa bilde ir skaidra. Es ļoti labi zinu, kur tas atrodas. Es zinu, kādi ir iedzīvotāji. Es zinu vēsturi.
Es zinu, ka tas ir vēl no Goldas Meiras laikiem, kura bija Izraēlas viena no spēcīgākajām premjerministrēm. Es šo situāciju ļoti labi pārzinu, un tāpēc man šajā gadījumā, pirmkārt, nav trauksmes, otrkārt, mani nevar apmānīt ar informāciju, kas tiek pasniegta. Tāpat tas attiecas arī uz visu pārējo. Taču, ja cilvēkam vispār nav izpratnes par to, kur atrodas Izraēla, kur ir Irāna un kas tur vispār notiek, tad, protams, kritiskā domāšana nevar rasties, jo tā balstās uz to, ka mēs saprotam vai spējam pārbaudīt informāciju. Un te jau atkal parādās risks.
Ja, piemēram, ir ziņa par Irāku, tātad Irānas un Izraēlas konfliktu, tad jautājums, cik procentiem jaunieši ienāks prātā visā tajā iedziļināties.
Jautājums ir meklējot, cik būs tās iespējas atrast visu informāciju un vai tā informācija būs pareiza un patiesa. Vai jaunieši meklēs informāciju vispār ekspertos, vai viņi klausīsies blogerus, vai viņi klausīsies viedokli, jo problēma ir tāda, ka mēs, piemēram, mūsu paaudze, mēs balstāmies uz faktiem un argumentiem, bet jaunieši bieži uz viedokļiem, uz influenceriem, uz tiktokeriem. Tur ir tas risks. Kritisko domāšanu nevar attīstīt, balstoties uz viedokļiem pirmajā stadijā.
Jā, tu vari klausīties cilvēka viedokli, bet arī cilvēka viedokli ir jāprot analizēt. Citādi tas būs opozicionāru variants, visi klausās priekšvēlēšanu kampaņas, kur solās, ka četros gados viss būs izdarāms. Kāpēc es nekad neklausos priekšvēlēšanu debates? Jo tas, ko sola, it īpaši opozicionāri, man kā ekonomistam ir skaidrs, ka tas nav iespējams. Un tam ir vairāki iemesli. Bet, ja cilvēks to nezina, tad lūdzu – viņiem solīs algu palielināt divas reizes. Tas nav iespējams. Lielai daļai cilvēku tas nav saprotams, jo viņi nezina, kā darbojas budžets. Jā, algu var palielināt divas reizes, bet tad mūsu ekonomika sabruks un mēs nonāksim bankrotā Latvijā. Tas ir ļoti labs piemērs tam, kā strādā kritiskā domāšana, ka mēs neuztveram personīgi un neiedziļināmies informācijā, kas nav patiesa.
Piemēram, tagad ir miljoniem cilvēku, kas uzskata, ka zeme ir plakana. Ir pat vesela kustība. Tātad es esmu pilnīgi pārliecināts, ka tiem cilvēkiem vienkārši nav kritiskās domāšanas, jo viņi nesaprot ne fiziku, ne citu veidu piemērus. Tā ir. Kā arī vēl ir dažādi sazvērestības teoriju piekritēji, kuriem vienkārši nav attīstīta kritiskā domāšana, un viņi šajā gadījumā uztver šīs teorijas kā kaut ko patiesu. Pat vienkāršas un rūpīgas zināšanas elementārās lietās viņiem nav.
Piemēram, mūsu skolās tagad sāk parādīties tāds fenomens, kur katru nedēļu skolā jāveic testi par to, kā skolēni jūtas un kāda ir viņu pašsajūta. Skolēniem regulāri jāaizpilda aptaujas par savu emocionālo stāvokli. Šīs prasmes ir svarīgas sadarbībai un palīdz cilvēkiem kopā radīt vērtīgus produktus, taču, manuprāt, diemžēl, kritiskā domāšana skolā netiek attīstīta pietiekami. Kādas jums domas par šo, par to vai skolas ražo domāšanu, kāds ir skolas konceptuālais lauks mūsdienās, vai skolēni tiek uztverti kā ražošanas produkti nākotnei?
Teorētiski jā, tur jābūt ļoti uzmanīgiem, jo, kā jūs arī teicāt, skolēns bieži tiek uztverts kā produkts, kas tikai patērē, vai varbūt ražo? Jā, daudzi patiešām uzskata, ka skolas sistēma ir veidota tā, lai cilvēku ieliktu noteiktos rāmjos un liedz viņam pilnībā attīstīties. Tas, protams, nav pareizi, bet tomēr daudzi tā domā – ka mūsdienu skolu sistēma neparedz iespēju, ka cilvēks tur varētu patiesi attīstīties.
Un tāpēc daļa vecāku, lai gan ne ļoti daudz, ļauj saviem bērniem uzvesties tā, kā viņi grib, un uzskata, ka skola nav vajadzīga, ka bērns var nākt, kad grib, un atļauties visu, ko vēlas. Viņi veido argumentu, ka skolas sistēma ir veidota, lai bērnu tur ieliktu rāmjos un pēc tam ar viņu manipulētu. Tās ir pilnīgas muļķības. Skolas sistēma ir izveidota tam, lai bērns varētu attīstīties. Protams, skolas sistēma attīstās un mainās, bet ļoti daudz kas ir atkarīgs no paša bērna, ja viņš to saprot, bet šeit attiecīgi rodas jautājums – vai to grib? Protams, ka ārpus skolas ir daudz lietu, krietni interesantākas. Influenceris, kurš izplata viltu ziņas, ir krietni interesantāks, spējīgāks, jo viņš pa to saņem lielu naudu, ne kā skolotājs, kurš grib izveidot vai ielikt patiesu informāciju bērnam. Un jebkurš skolotājs, kurš prasīs disciplīnu, kurš prasīs kārtību, kurš prasīs rezultātu, viņš lielākai daļai bērnu būs riebīgs. Un bērni to neuztvers. Bet ir arī influenceri, kas ir ļoti bīstami, un kuri tagad rāda, piemēram, “Sveiciens manai ģeogrāfijas skolotājai, kas uzskatīja, ka es dzīvē neko nesasniegšu, bet es tagad esmu Dubaijā un nopirku dzīvokli.” Mums ir pilns ar tādiem piemēriem, taču bērni nesaprot, ka tas ir tikai viens procents no miljardiem, ka lielākā daļa tur tāpat nebūs.
Savukārt tie cilvēki, kas mācījās ģeogrāfiju un kļuva par zinātniekiem vai uzņēmējiem, ir daudz vairāk nekā tie, kas nemācījās, bet spēj izveidot sev saturu, kur, piemēram, rāda: “Es esmu Dubaijā” vai kaut kur citur.
Tur jau ir tas lielākā problēma, trūkst kritiskās domāšanas. Ja skolotāji saka, ka matemātiku vajag mācīties, bērnam nav pierādījumu, kāpēc tas ir svarīgi. Viņam nav nekādu konkrētu pierādījumu, kāpēc matemātiku vajag apgūt. Bet, ja viņš TikTokā redz kādu, piemēram, Didriksoni vai kādu citu, kas saka, ka matemātiku mācīties nevajag, un rāda, ko ir sasniedzis, nepabeidzot skolu, tad, protams, daudzi sekos šiem piemēriem. Par laimi, Didriksones un tamlīdzīgu cilvēku nav tik daudz.
Tomēr, ja paskatāmies uz veiksmīgiem cilvēkiem, varbūt ne visi, bet skaidrs, ka lielākā daļa no viņiem ir tie, kas mācījušies efektīvi. Tas ir viss. Nu, es domāju, ka mēs esam pietiekami izrunājušies, cik tad 40 minūtes?
Jā, aptuveni tik.
Labi, šo varam slēgt ārā.