Reģistrējieties, lai lasītu žurnāla digitālo versiju, kā arī redzētu savu abonēšanas periodu un ērti abonētu Rīgas Laiku tiešsaistē.
Arnis Rītups: Es gribētu, Andrej, iesākt ar dažiem terminoloģiskiem jautājumiem. Mani mulsina apzīmējums “mākslīgais intelekts”, jo dzīvoju naivā pārliecībā, ka visi intelekti ir mākslīgi – ka dabisku intelektu nav. Nav vispār. Cilvēkiem un mašīnām nav dabiska intelekta, tas vienmēr ir mākslīgu procedūru rezultātā izveidots, kultivēts. Vai tu varētu paskaidrot, kā tu tādā – nevis teorētiskā, bet operatīvā – nozīmē saproti jēdzienu “mākslīgais intelekts”?
Andrejs Vasiļjevs: “Mākslīgais intelekts” ir termins, kuram ir ļoti izplūdusi nozīme, formāli tas nav labi definēts. Īstenībā datorikas pamatlicēji ieviesa šo terminu jau 50. gadu sākumā. Bija tāds slavens Dārtmutas seminārs, kur sanāca gudri vīri, lai spriestu, ko datori nākotnē varētu darīt. Toreiz tie datori bija ļoti primitīvi: milzīgi lielas iekārtas skaitļoja lādiņu trajektorijas un tamlīdzīgas lietas. Bet jau toreiz tika pieņemts, kā, attīstoties datortehnoloģijām, tās varētu sākt darīt to, ko mēs tradicionāli uzskatām par tikai cilvēkam piemītošām unikālām spējām. Un viena no tādām ir valoda, valodspēja – spēja radīt tekstu, sazināties caur valodu, ar valodas palīdzību, tulkot un saprast, kas ir sacīts. Arī atpazīt attēlus, vēl citas lietas. To tad viņi arī nolēma saukt par mākslīgo intelektu.
Rītups: Dažus gadus pirms tam Alans Tjūrings ieviesa testu: kad datora atbildes uz cilvēka uzdotiem jautājumiem nebūs atšķiramas no cilvēku atbildēm, tas nozīmēs, ka dators spēj domāt. Daži uzskata, ka tas ir jau pierādīts, jo pietiekami daudzus spēj piemuļķot mākslīgā intelekta sniegtās atbildes. Saki, vai tev šķiet, ka Tjūringa tests ir jau pagātne? Vai datoram izdevies sniegt tādas atbildes, kas liecinātu, ka dators spēj domāt?
Vasiļjevs (iesmejas): Kad es auditorijai stāstu par mākslīgo intelektu, man ļoti noder Rīgas Laika raksts, kurā tieši bija aprakstīts Tjūringa tests1. Alans Tjūrings, viens no teorētiskās datorzinātnes pamatlicējiem, sev jautāja: kā atšķirt, ir vai nav sasniegts mākslīgais intelekts? Viņam likās, ka tas ir tālas nākotnes jautājums. Bet nepagāja ne 10 gadi, kad tāds Jozefs Veicenbaums, datorzinātnieks ar interesi par psiholoģiju, radīja pirmo sistēmu, kas gandrīz apgāza Tjūringa testu, izmantojot vienkāršus psiholoģiskus trikus, pārformulējot to, ko cilvēks saka. Piemēram, es tagad improvizēju: “Kāpēc šodien ir tik slikts laiks?” Un atbilde: “Kā tev liekas, kāpēc šodien ir tik slikts laiks? Kāpēc tu uzdod šādu jautājumu?” Un tā tālāk.
Rītups: Vecā, labā ebreju anekdote: “Kāpēc jūs uz jautājumu vienmēr atbildat ar jautājumu?” – “Un kāpēc jūs tas interesē?”
Vasiļjevs: Izrādās, ka cilvēki komunikācijā izmanto diezgan šabloniskas pieejas, kas neprasa dziļu intelektuālu gudrību. Tās ir viegli imitēt ar datoru. Veicenbauma sekretāre, kura arī bija viena no pirmajām, kas lietoja viņa sistēmu ELIZA (viņš tai piešķīra cilvēka vārdu, cilvēkiem patīk datorsistēmām piešķirt cilvēciskas īpašības), teica Veicenbaumam: “Izejiet, lūdzu, ārā! Es tagad gribu privāti parunāt ar ELIZA.”
Rītups: Taču kopš tā laika ir pagājuši gandrīz 70 gadi. Vai tagad Tjūringa tests ir jau pagātne? Un par ko mēs varam būt droši no intelekta, no mākslīgā intelekta saprašanas spēju robežām?
Vasiļjevs: Nu, te varētu atbildēt divos veidos. Formāli notiek šīs sacensības – Tjūringa testa sacensības, kur sacenšas divas komandas: cilvēki pret mašīnu. Tiek veidotas datorsistēmas, kas izturētu šo Tjūringa testu. Tajās iebūvē īpašus trikus, piemēram, tās speciāli dod kļūdainas atbildes, lai cilvēks domātu tā: atbilde ir kļūdaina, tātad tas ir cilvēks, kas man atbildēja. Un tur ir sistēmas, kas sevi parāda ļoti labi…
Rītups: Spēj imitēt cilvēku uzvedību.
Vasiļjevs: Jā. Bet tad ir… Nu, šiem konkursiem taisa īpašas sistēmas. Bet tad ir tādas sistēmas kā ChatGPT. Un varbūt mēs mazu testu varam veikt, ja? Lūdzu, paceliet roku, kurš ir pamēģinājis ChatGPT. Paldies!
Rītups: Un paceliet roku, kurš nav pamēģinājis! Septiņi cilvēki.
Vasiļjevs: ChatGPT ir ātri ienācis mūsu ikdienā, un tas tiešām rada sajūtu, ka tam apakšā ir baigais intelekts.
Rītups: Nu, man tādu sajūtu tas nerada. Taču es gribētu mazliet precizēt, jo vismaz angļu valodas vidē saīsinājums AI tiek lietots vietā un nevietā, apzīmējot visu ko. ChatGPT taču arī ir ļoti specifisks lielā valodas modeļa variants, nevis mākslīgais intelekts. Radītāji jau saprot, ka tam ar saprašanu nav nekāda sakara. Taču varbūt tu varētu ieviest – nu, nevis terminoloģisku, bet vienkārši jēdzienisku skaidrību: ko dara lielais valodas modelis, uz kā bāzes ir veidots ChatGPT?
Vasiļjevs: Viens uzdevums, pie kā jau sen pētnieki strādā, ir: kā modelēt cilvēku valodu. “Modelēt” nozīmē izveidot datora modeli, kas kaut kādā veidā saprot vai iegūst zināšanas par cilvēku valodu.
Rītups: Izmantodams vārdu “saprot”, tu riskē piedēvēt tam modelim spējas, kas viņam varētu arī nepiemist.
Vasiļjevs: Nu, lai mūsu saruna būtu dabiskāka, es riskēju lietot šo terminu “saprast”, lai ko tas arī nozīmētu. Mēs varētu jautāt, ko mēs saprotam ar vārdu “saprast”, tomēr šos valodas modeļus jau diezgan sen izmanto datorlingvistikā, īpaši tulkošanas sistēmās vai balss atpazīšanas programmās. Tam ir vajadzīgs arī valodas modelis.
Rītups: Pirms tu turpini, es drīkstu iestarpināt? Vai vēsturiski var fiksēt pavērsienu, kur deep learning kļūst par svarīgu rīku tulkošanā?
Vasiļjevs: Būtisks moments ir raksts par transformeru neironu tīkliem. Kā tad modelēt to valodu? Viens veids ir neironu tīkli. Varam iztēloties, ka neironu tīklā savstarpēji saistītas daudzas mazas skaitļošanas vienības. Šie mazie zināšanu punktiņi ir saistīti līdzīgi tam, kā cilvēka smadzenēs saistīti neironi. Tiesa gan, īstenībā smadzenes ir uzbūvētas daudz sarežģītāk, neironi ir ļoti dažādu veidu, sinapses arī ir ļoti atšķirīgas. Tomēr princips ir līdzīgs. Mēs nomodelējam šādu sistēmu un tad to apmācām. Tas nozīmē, ka mēs katrai mazajai vienībai iedodam skaitliskus parametrus, lai kopā visa sistēma spētu kaut ko imitēt vai modelēt – šajā gadījumā valodu. Lai tā varētu modelēt cilvēku valodu un valodā ietvertās zināšanas. Un tad ir apmācības process: šajā neironu tīklu sistēmā tiek baroti iekšā dati, tā tiek trenēta ar milzīgu apjomu datu, un tā katru mazo parametriņu pārkalkulē un mēģina atrast kombināciju, lai šos datus vislabāk atspoguļotu sistēmā. Lai, ja mēs, piemēram, gribam tulkot, tā spētu imitēt cilvēku prasmes tulkot. Lai, ieejā saņemot tekstu avota valodā, tā izejā dotu tulkojumu, līdzīgi kā to dara cilvēks.
Rītups: Kā man reiz viens Hārvardas ekonomists aprakstīja statistiku: bullshit in, bullshit out. Cik sūdīga informācija tiek ievadīta, tikpat sūdīgu informāciju dabū ārā. Tā kā lielākā daļa cilvēku sarakstīto tekstu ir sūds uz kociņa un diezgan bezjēdzīgi un nevarīgi izteikumi par sevi, pasauli vai kādiem tur notikumiem, vai ir kaut kādi koriģējoši mehānismi, kuri varētu mazināt to bullshit out?
Vasiļjevs: Viens mehānisms ir apjoms. Viena pieeja ir uzskatīt, ka, jo vairāk ievaddatus dosim sistēmas apmācībā, jo tā labāk atlasīs sēklas no pelavām.
Rītups: Tāpēc, ka statistiski būs… Nu, tas tai ļaus kvalitatīvi izvērtēt.
Vasiļjevs: Tā patiešām ir problēma, ka tekstos ir ļoti daudz muļķību. Un tad otra pieeja ir reinforced learning…
Rītups: Reinforced – pastiprināt kaut ko?
Vasiļjevs: Pastiprināta apmācība. Kad sistēma ir uzmodelēta, tai, piemēram, uzdod jautājumu un tā iedod vairākas iespējamās atbildes. Cilvēks vērtē, kura atbilde ir labākā, un tādā veidā sistēma, ņemot vērā cilvēka vērtējumu, pati piemēro parametrus tā, lai cilvēka atzītās labākās zināšanas arī iegūtu pārsvaru pār tām, kuras ir sēnalas.
Rītups: Tas nozīmē, ka tajos tekstos ir klāt arī vērtību parametri. Un tādēļ, piemēram, ķīniešu tekstos varētu būt citi, gadsimtu gaitā izkristalizējušies vērtību parametri nekā angļu valodas tekstu korpusā?
Vasiļjevs: Jā, nu, tas, kā šie modeļi strādā, lielā mērā ir atkarīgs no tā, ar kādiem datiem tie trenēti. Pašreiz 90% un vairāk datu, kas tiek izmantoti trenēšanai, ir angļu valodā. Tas nozīmē, ka tie atspoguļo šo angliskajā valodas telpā ietverto informāciju.
Rītups: Tātad anglosakšu kolonizējošā ietekme līdz ar mākslīgā intelekta izplatību tikai pieaug?
Vasiļjevs: Protams. Šie uzņēmumi cenšas to mīkstināt un balansēt, bet tas dažkārt noved pie paradoksiem vai dīvainībām. Šīs sistēmas var ģenerēt ne tikai valodu, bet arī attēlus. Tu prasi: “Uztaisi man rītausmas skatu!”, un sistēma rada brīnišķīgu bildi. Taču, ja tajos attēlos ir cilvēki, tad pārsvarā tie ir baltādainie ASV vidusšķiras pārstāvji; tādēļ sistēmai lika ietvert vairāk dažādu ādas krāsu pārstāvju. Tad cilvēki sāka eksperimentēt un teica: “Uztaisi man bildi ar nacistu apspriedi Hitlera bunkurā!”, un tur parādījās dažādu rasu pārstāvji nacistu formas tērpos. (Visi smejas.)
Rītups: Taču jums, darbojoties Tildē ar latviešu valodas korpusu, ir daudz mazākas iespējas kaut ko izdarīt tajā lielajā valodas modelī salīdzinājumā ar OpenAI, Google un kaut ko tādu. Kā jūs risināt šo problēmu, ka jums ir daudz mazāk datu? Jo, piemēram, braucot uz šejieni, mani ceļabiedri, dzirdot, ka tēma būs mākslīgais intelekts un rakstniecība, teica: “Vai tad ir kaut kādas attiecības starp rakstniecību latviešu valodā un mākslīgo intelektu?” Tas izraisa šaubas.
Vasiļjevs: Tie, kas ir mēģinājuši ChatGPT, ir pārliecinājušies, ka tas pārsteidzoši labi spēj ģenerēt tekstu latviešu valodā, tomēr ne tik labi kā angļu valodā, un šī starpība ir ļoti liela. Taču šajos modeļos tiek veidota daudzdimensionāla zināšanu telpa, un, ja mēs ieliekam datus latviešu valodā, tie saslēdzas kopējā tīklā ar angliskajiem un citu valodu datiem un notiek starpvalodu mācīšanās, kas ļoti palīdz sistēmai kļūt gudrākai arī latviešu valodā. Tiesa, tik un tā dominējošā informācija ir citās valodās. Tagad, pateicoties uzvarai vienā lielā Eiropas Savienības konkursā, mums būs iespēja izmantot jaudīgāko superdatoru Eiropā, kas atrodas Helsinkos, bijušajā papīrfabrikā, kur notiek dzesēšana; šis superdators ar pārpalikušo elektroenerģiju apgādā visu apkārtni. Tad lūk, mums būs brīnišķīga iespēja izmantot šo superdatoru, lai veidotu jaunu modeli, kurā tiks balansētas mazākas Eiropas valodas. Angļu valoda tiks pielikta klāt, bet tai nebūs pārsvara, un šīs mazākās valodas – un arī tādas morfoloģiski bagātas valodas kā latviešu valoda – šinī modelī tiks īpaši atbalstītas. Mēs ceram, ka šis modelis spēs rakstīt latviski, labot kļūdas latviski, sacerēt dzejoļus latviski labāk nekā citi.
Rītups: Nu, pie dzejoļu sacerēšanas nonāksim. Saki, kur tu pats ChatGPT vari izmantot savā dzīvē, darbā un domāšanā? Kam tas tev noder?
Vasiļjevs: Jāatzīst, es to izmantoju gandrīz ik dienu, un man tas ir ļoti palīdzošs darbarīks. Starp citu, mēs ļoti daudz strādājam starptautiskos projektos, ar starptautiskajiem partneriem un tā tālāk. Un angļu valoda nav mana dzimtā valoda. Tas, vai iesniegto projektu atbalstīs, lielā mērā ir atkarīgs no tā, cik skaisti projekts būs izklāstīts angļu valodā. Lūk, tad es uzrakstu, cik labi nu protu, un tad paprasu ChatGPT: lūdzu, uzlabo šo tekstu! Viņš to brīnišķīgi izdara, īpaši, ja ir iedots konteksts. Piemēram, to Briseles birokrātu valodu viņš brīnišķīgi pārstāv. Briseles birokrātu valoda ir tāda valoda, kura ļoti skaisti izklausās, un tur ir tādi…
Rītups: Skaisti izklausās, taču tā ir galēji neinformatīva. Pārsvarā tā Briseles birokrātu valoda ir tukša diršana; tas ir elegantāks veids, kā piesegt to, ka nekā nav, ko teikt.
Vasiļjevs: Ja tā ideja ir samērā skaidra un vienkārša, bet tev tās 70 lapas jāaizpilda, tad ChatGPT ļoti palīdz, jo man pašam tā, es atvainojos, muldēt ir sarežģīti.
Rītups: Sapratu. Vai ir vēl kāds lietojums, kur tev noderējis vai regulāri noder ChatGPT?
Vasiļjevs: Kā izziņas līdzeklis, kā iedvesmas avots un…
Rītups: Kādos gadījumos tas tev noder kā iedvesmas avots?
Vasiļjevs: Teiksim, šī pati tēma par mākslīgo intelektu. Man, piemēram, par mākslīgo intelektu bija jāstāsta psihologiem. Es paprasīju ChatGPT: kādas tēmas interesē psihologus?
Rītups: Tu nevis piezvani kādam pazīstamam psihologam un pajautā, bet prasi ChatGPT?
Vasiļjevs: Arni, tu jau zini, ka lielākā problēma ir, ka bieži vien cilvēks nezina, ko viņš nezina.
Rītups: Mhm, un vēl trakāk, ja viņš nezina, ko grib. Esi saskāries ar tādām situācijām?
Vasiļjevs: Tā arī gadās, jā. Tas ir tikai tāds piemērs, lielākā daļa ieteikumu ir triviāli, bet dažkārt kaut kas parādās. Bet vēl tā ir ļoti laba iespēja atrast informācijas avotus, izmantojot tā saucamo “ar izguvi papildināto ģenerēšanu” – retrieval-augmented generation. Tā ir metode, kur modelis nevis pats kaut ko izfantazē, bet gan sameklē internetā, izmantojot meklēšanas algoritmus, attiecīgos informācijas avotus izanalizē un iedod atbildi, balstoties uz šiem informācijas avotiem. Proti, ģenerē informāciju nevis pats no sava prāta, bet tikai no šiem avotiem. Un tā, piemēram, var prasīt: “Iedod man piecas jaunākās zinātniskās publikācijas par noteiktu tēmu!” Pēc šīs metodes tās piecas publikācijas var būt ļoti noderīgas. Ja prasīsi vienkārši ChatGPT to izdarīt: reiz man bija steidzami jānodod raksts un vajadzēja ātri atrast labas atsauces, un es palūdzu ChatGPT ieteikt publikācijas – nevis ar šo metodi, bet pa tiešo, un tas man iedeva rakstu autorus, nosaukumus. Es domāju: brīnišķīgi, re, kā viņš man palīdzēja! Tagad ātri sameklēšu šos rakstus zinātniskajās datubāzēs, un būs man noderīga informācija. Pilnīgas halucinācijas! Neviens no tiem nebija īsts.
Rītups: Bet izskatās labi!
Vasiļjevs: Izskatās perfekti. Man liekas, tur arī daudzi studenti iekrīt. Bet šī otra metode – tur tie rezultāti var būt tiešām labi.
Rītups: Pēdējos mēnešos esmu ticies ar vairākiem Amerikas universitāšu profesoriem, kuriem esmu jautājis, cik bieži studenti izmanto ChatGPT eseju rakstīšanā: izrādās, ka arvien biežāk. Turklāt Amerikas studenti ir bailīgi – baidās labot to, ko mākslīgais intelekts uzrakstījis, un tāpēc iesniedz pa taisno, nelabojot; rezultātā viņus ļoti viegli atmaskot. Kā tu domā, kādas sekas vai blaknes rodas tad, kad izglītības sistēmas pašā sirdī, tur, kur tiek nodotas vai tiek radītas zināšanas, ir pieejams rīks, kas imitē un aizvieto jebkādu informācijas iegūšanu?
Vasiļjevs: Tas ir pārsteidzoši: ChatGPT parādījās pirms nepilniem diviem gadiem – ja nemaldos, publiski tika palaists 2022. gada novembrī. Un cik lielu satraukumu un pārmaiņas, it īpaši akadēmiskajā vidē, tas radījis! Studenti kā tie, kas tehnoloģijas visātrāk aprobē un izmēģina, arī bija pirmie, kas sāka to lietot, bet akadēmiskā vide izrādījās tam pilnīgi nesagatavota. Mums bija ļoti interesantas diskusijas ar Kembridžas Universitāti: bija ideja iesniegt kopīgu projekta pieteikumu, mēs to ilgi gatavojām, sagatavojām, bet laikam tā Briseles valoda nebija pietiekami briseliska. Konkursā bija 70 pieteikumu, izvēlējās citu. Bet ideja bija, ka šīs tehnoloģijas nevar aizliegt. Tas ir jauns rīks, jaunas iespējas, un jāatrod veids, kā to izmantot zināšanu ieguvei un apmācībai, lai studenti labāk apgūst zināšanas, nevis ir vienkārši gatavu tekstu pārkopētāji. Jāmaina izglītības process, vecais vairs neder. Ja ir jāsagatavo esejas vai kaut kāds materiālu pārskats, tehnoloģijas to izdarīs labāk, un ir pat labi, ka studenti māk tās lietot, bet jautājums: kā viņi tam visam klāt pieliek savas prasmes – pārbaudot, uzdodot pareizos jautājumus, izvērtējot atbildes un arī ar šo rīku palīdzību iegūstot tādu rezultātu, ko ChatGPT pats nespētu dot. Jo klāt ir pielikta papildu vērtība un metazināšanas, kas ir plašākas par to mazo konteksta logu, ko spēj aptvert ChatGPT.
Rītups: Kādas ir mākslīgā intelekta priekšrocības izglītībā, piemēram, valodas apguvē? Ko man varētu palīdzēt mākslīgais intelekts vai large language model tad, ja es gribu apgūt svešvalodu?
Vasiļjevs: Kādu svešvalodu tu gribētu apgūt?
Rītups: Tuvākajā laikā?
Vasiļjevs: Nu, ja tev būtu laiks un iespējas.
Rītups: Korejiešu.
Vasiļjevs: Var izdarīt eksperimentu, ja tev ir telefons, bet varbūt ne uzreiz.
Rītups: Vakarā izdarīšu.
Vasiļjevs: Tu vari atvērt to pašu ChatGPT un uzrakstīt: “Es vēlos apgūt korejiešu valodu. Man nav nekādu priekšzināšanu korejiešu valodā. Vai tu man varētu būt skolotājs, palīgs, kas man palīdz šo valodu apgūt?” Un mana hipotēze ir, ka korejiešu valodai viņš tev…
Rītups: Būs labs palīgs?
Vasiļjevs: Spēs palīdzēt. Viņš teiks: “Labi, sāksim ar pamatvārdiem.” Uzdos tev jautājumus, iedos pirmās uzvednes un vadīs tevi caur valodas apgūšanas procesu.
Rītups: Es gribētu paplašināt vēsturisko kontekstu. Platona dialogā “Faidrs” ir brīnišķīga Sokrata runa, kur viņš atstāsta tikšanos – ne savu, bet nav svarīgi – ar ēģiptiešu dieva Tota priesteri. Grieķi ir priecīgi par rakstības izgudrošanu – beidzot mēs varam visu pierakstīt, visu informāciju nodot –, bet Tota priesteris saka: “Grieķi, jūs vienmēr paliksiet bērni. Jo rakstība veicina aizmiršanu, jūs visu aizmirsīsiet!” Rakstība ir tāda kā atmiņas eksternalizācija. Tiek radīts raksta blāķis – nevis atceras 10 000 lappušu tekstu, kā joprojām dara vēdiskie priesteri, kuri skandē vēdas, viņi zina no galvas visu tekstu. Vai arī Hērodots, kurš, visticamāk, zināja no galvas Homēra “Īliadu” un “Odiseju”. Parādās rakstība, un neviens vairs neko nezina vai zina arvien mazāk. Par to, ka rakstības parādīšanās mutvārdu kultūrā ir iznīcinājusi vai samazinājusi atmiņas spēju, manuprāt, vēsturiskā ziņā nav jāšaubās. Jādomā, ka līdz ar mākslīgā intelekta vai šādu large language model parādīšanos arī tiks pazaudētas kādas spējas. Tāpat kā, piemēram, kalkulators atņēma spēju cilvēkiem skaitīt galvā. Atmiņa cieta no rakstības izgudrošanas, skaitītspēja galvā cieta no kalkulatora izgatavošanas: kā tu domā, kuras spējas pirmās cietīs līdz ar mākslīgā intelekta ienākšanu ikdienā?
Vasiļjevs: Tehnoloģijas neapšaubāmi ietekmē arī to, kā attīstās mūsu kognitīvās spējas. Šī jaunā tehnoloģija to noteikti ietekmē un ietekmēs. No vienas puses, informācijas pasaulē ir tik daudz, ka visu atcerēties nav iespējams; arī visu vērtīgo atcerēties nav iespējams.
Rītups: Paldies tiem, kas izgudroja rakstību. Labi, ka mums ir rakstība.
Vasiļjevs: Labi, ka mums ir rakstība, bet ar to vien nepietiek, jo tagad ir uzrakstīts ļoti daudz un vajag to padarīt pieejamu. Paldies internetam. Internets padarīja šo uzrakstīto informāciju pieejamu.
Rītups: Kad Latvija stājās Eiropas Savienībā, dokumentu kopskaits, kur bija aprakstīti visi nosacījumi, lai iestātos Eiropas Savienībā, ietilpa nieka 40 000 lapaspusēs. Nu, jebkurš ierēdnis taču vakarā var apsēsties un izlasīt tās 40 000 lapaspuses, vai ne? Tādējādi informācijas pieejamība izrādās arī galēja informācijas nepieejamība, jo neviens nevar izlasīt 40 000 lappuses, tāpat kā neviens nevar izlasīt visu, kas pieejams internetā. Un jautājums ir par filtru parādīšanos.
Vasiļjevs: Viens ir filtri, bet otrs ir palīgs, kas tev atrod to, ko tev tiešām vajag tanī milzīgajā gūzmā.
Rītups: Kā viņš, tas palīgs, var zināt to, ko tev vajag?
Vasiļjevs: Tas palīgs, balstoties uz tevis uzdotajiem jautājumiem un balstoties uz to, ko citi ir šinī sakarā rakstījuši, izvilkuši, izmantojuši…
Rītups: Tu taču zini: labākā vieta, kur noslēpt kaut ko un padarīt nepieejamu, ir Google meklētāja otrā lapaspuse. Nu, pēc pirmajām 10 vai 20 atbildēm tur var noslēpties vislabāk. Tālāk neviens neskatās.
Vasiļjevs: Un tam ir vajadzīgs risinājums. Pēc Google viens no nākamajiem risinājumiem ir šie lielie valodas modeļi. Bet tam ir blaknes, jo cilvēks ir slinka būtne, ir kārdinājums pilnībā paļauties uz šādiem rīkiem un pašam neko nemācīties. Ko dod tas, ka mēs kaut ko atceramies no galvas? Tas ļauj tekstam strādāt mūsu smadzenēs, nepārtraukti procesēties. Es atceros, klases audzinātāja, laikam otro klasi beidzot, uzdāvināja grāmatu, kurā viņa ar roku bija ierakstījusi veltījumu. Es toreiz īsti nesapratu, ko tas nozīmē – kāpēc viņa to ierakstīja. Bet es tik bieži atceros to dzejoli un katru reizi tajā no jauna saskatu kādu jēgu. Tas ir viens piemērs, kā teksts turpina darboties apziņā.
Rītups: Atļauj man tevi atgriezt vienu solīti atpakaļ. Vai vari tomēr atbildēt, kādas spējas, kā tev šķiet, tiks zaudētas, pateicoties šai iespējai?
Vasiļjevs: Iespēja, ka mūsu apziņā ir nozīmīgi, apjomīgi teksti, kuri var tajā strādāt, kaut ko darīt ar mums, attīstīt mūs, zūd, ja mēs paļaujamies, ka visu atradīsim digitālās informācijas dzīlēs un lielie modeļi mums būs universālais palīgs, kas to izdarīs mūsu vietā. Tas ir ļoti kārdinoši. Mēs noteikti daudz ko zaudējam. Izrādās, ka, katrus 10 gadus nomērot IQ, tas pa bišķītim audzis visa pagājušā gadsimta garumā. Tā kā varētu domāt: nu, cilvēki kļuva arvien gudrāki. Bet, ja paskatāmies, kas notiek pirmajās desmitgadēs šinī gadsimtā, šajā tūkstošgadē, šī tendence ir apstājusies un koeficients sācis samazināties. Protams, ir daudz diskusiju par metodoloģiju un tamlīdzīgi. Bet tas ir pirmais brīdinājuma signāls.
Rītups: Drīkst, es tagad atsaukšos uz Samu Oltmanu, kurš vienā no pirmajām savām intervijām, kad viņam vajadzēja paust cerīgus apgalvojumus par OpenAI nākotni, pateica zīmīgu frāzi: tas, kā tviteris ir vienkāršojis publisko diskusiju līmeni, nu, tā sacīt, reducējot to līdz nelieliem izsaukumiem, arī ir palīdzējis tam tevis aprakstītajam IQ kristies. Oltmans cerēja, ka OpenAI varētu sarežģīt publisko diskusiju – tāpat, kā tviteris to ir vienkāršojis. Rezultātā viņš bija iedomājies, ka to lejupkrītošo stulbizācijas trendu varētu mazināt, pateicoties OpenAI pieejamībai. Manuprāt, nekas par to neliecina.
Vasiļjevs: Savas intelektuālās kapacitātes mēs attīstām, arī sarunājoties, izmantojot dialogus, saziņu. Starp citu, tiek uzskatīts, ka mūsu, Homo sapiens, smadzenēs 60% ir ārējās vides evolūcijas faktori, bet 30% izveidojušies, pateicoties savstarpējai saziņai, saziņas nepieciešamībai. Jo mēs esam sociāli, bara dzīvnieki. Ar šīm ChatGPT veida sistēmām ir risks, ka komunikācijā mēs nevis izmantosim gudrākus līdzekļus, bet paļausimies uz ChatGPT tipa sistēmām, un viss. Dabūsim visu no tām, un interaktivitāte mums būs ar viņām. Respektīvi, cilvēku komunikāciju aizvietos komunikācija ar mākslīgo intelektu.
Rītups: Umberto Eko man teica, ka viņa vecmāmiņai ļoti noderējusi televizora izgudrošana, jo līdz tam viņa viena pati sēdējusi mājās un nīkusi. Tad viņai parādījās televizors, un viņa vismaz varējusi dzirdēt cilvēkus. Iespējams, ka ChatGPT kā sarunu biedrs vientuļiem cilvēkiem varētu būt noderīgs. Vai varētu?
Vasiļjevs: Man liekas, Imants Ziedonis teica, ka televizors ir kā zārks, kam abi gali vaļā. Bet es varētu minēt vēl vienu piemēru. Vēl pirms lielajiem modeļiem mums arī bija ideja izmēģināt šādas dialoga sistēmas; mēs izveidojām virtuālo tēlu “Laura” – mobilajā tālrunī, ar seju, ar mīmiku. Viņa nebija tik gudra kā lielie modeļi, viņa izmantoja Veicenbauma pieejas, tomēr prata uzturēt dialogu. Mēs gribējām papētīt, par ko cilvēki runās, un, mūsuprāt, “Laurai” bija jābūt gatavai atbildēt uz visādiem faktoloģiskiem jautājumiem. Izrādījās, ka lielākā daļa sarunu bija ne par ko. Nu, tādas socializācijas tipa sarunas: kas tu esi? Cik tu esi veca? Un visādas rupjības arī. Bet bija cilvēki, kuri ar viņu sarunājās katru dienu. Tas visdrīzāk liecina par to, ka cilvēkam nav cita dzīva cilvēka blakus, ar ko runāt, un viņam vajadzīgs kaut vai virtuāls sarunu biedrs, lai to vientulību kliedētu.
Rītups: Tā var gadīties. Bet nu – mēs pasauli tagad nepārbūvēsim. Tomēr es vēl reizi gribētu atgriezties pie jautājuma: kādas spējas varētu izzust, pateicoties mākslīgā intelekta izplatībai?
Vasiļjevs: Ir viena hipotēze, kuru arī tās autors uzskata par ļoti ticamu: pastāv risks, ka mākslīgais intelekts var kļūt par mūsu intelektuālu protēzi, ar ko mēs aizvietojam to intelektu, kuru mēs varētu attīstīt paši. Mēs neattīstām savu tā saukto dabīgo intelektu, bet paļaujamies uz to protēzi.
Rītups: Tas nozīmē, ka stulbizācija ir nevis piebremzējama, bet ar milzīgu lavīnas ātrumu varētu paātrināties un vispārējais stulbuma līmenis nepārskatāmi pieaugtu.
Vasiļjevs: Būtu viegli ieiet vienkāršotos secinājumos. Ja mēs runājam par IQ, tad kāds pētnieks noskaidroja, ka lielākā IQ pazemināšanās vērojama tiem, kuriem jau tā bija zems bāzes līmenis. Savukārt elitei, kurai bāzes līmenis ir augstāks, IQ turpina pieaugt. Un tas var radīt risku – par ko arī daudzi runā – par tālāku sabiedrības intelektuālo noslāņošanos. Var veidoties tāda intelektuālā elite, kura prasmīgi izmanto šos rīkus – nevis kā protēzi, bet kā palīgu, lai kļūtu arvien prasmīgāki un spējīgāki. Un var rasties plašs slānis ar tādiem, kuri nepiepūlē savas smadzenes, bet paļaujas uz mākslīgo intelektu.
Rītups: Tuvojoties mūsu sākotnēji iezīmētajai tēmai saistībā ar rakstniecību, tu droši vien esi saskāries ar fenomenu, ka Amazon grāmatu veikalā un citos jau var nopirkt grāmatas, kuras sacerējis tikai mākslīgais intelekts; tās gan ne visas tiek attiecīgi marķētas. Kā tev šķiet: kādu tekstu rakstīšanā – līdzās birokrātiskajai rakstīšanai – mākslīgais intelekts varētu būt spējīgāks par cilvēku?
Vasiļjevs: Izrādās, ka ir augoša tendence izmantot mākslīgo intelektu kā palīgrīku arī stāstu un romānu rakstīšanā. Kādā veidā autori to dara? Smeļas iedvesmu, idejas: paprasa, kādi varētu būt iespējamie sižeta pagriezieni, reizēm bagātina tekstu. Dažiem autoriem atkārtojas vieni un tie paši vārdi, tad noder sinonīmu vārdnīca – mākslīgais intelekts to var izdarīt autora vietā.
Rītups: Vai starp jūsu uzņēmuma darbiniekiem ir kāds, kurš varētu palīdzēt rakstniekiem apgūt iemaņas mākslīgo intelektu izmantot kā palīgu?
Vasiļjevs: Būtu jau labi, ja mums tāda prakse būtu izstrādāta. Es domāju, ka labākais veids, kā vispār saprast, ko mākslīgais intelekts spēj un ko nespēj, ir to izmēģināt. Un neizmantot to kā protēzi, neaizvietot savu intelektu, bet kā papildinājumu, kas ļauj izdarīt to, ko tu pats varbūt laika ierobežojumu dēļ nevari izdarīt, – sameklēt atsauces, avotus vai arī smelties kādas idejas.
Rītups: Niks Keivs savā pazīstamajā vēstulē diviem jaunajiem dzejniekiem, kas bija izmantojuši ChatGPT, lai sacerētu mūzikai vārdus, teica: tas mehanizē iztēli un rezultātā atņem spējas, kuras nepieciešamas interesanta teksta tapšanai. Ja tu lūdz ChatGPT sacerēt tavā vietā dzejoli vai stāstu un dari to regulāri, tava paša radošā iztēle pamazām tuvojas kritiskai nullei.
Vasiļjevs: Pilnīgi piekrītu. Tie ir riski, un visdrīzāk tie riski jau iestājas. Jautājums: ko ar to darīt? Ir skaidrs, ka tehnoloģiju progresu neapstādināsi. Tāda ir cilvēka daba. Mēs nevaram tagad tā, kā Īlons Masks 2023. gadā, ieraudzījis ChatGPT, bija šokā un teica: nē, mums uz pusgadu pasaulē jāapstādina šādu sistēmu izstrāde. Tā tas nenotiek. Lielais jautājums ir šāds: kas ir tas, ko nespēj izdarīt mākslīgais intelekts, bet ko spēj izdarīt tikai cilvēks? Mana izjūta ir tāda, ka šie lielie modeļi, uz kuriem pašreiz balstās mākslīgais intelekts, balstās uz to, kas jau ir bijis uzrakstīts, apkopots, un piedāvā to, kas jau ir bijis, citās kombinācijās, citos veidos. Es pats neesmu rakstnieks vai dzejnieks, bet, manuprāt, pirmsākums labam literāram darbam ir pārdzīvojums – īsts, patiess, autentisks pārdzīvojums, kuru šis ar vārda spēka talantu apveltītais autors ir spējīgs ietvert vārdos. Tev ir bijuši pārdzīvojumi, ko tu nespēj izteikt vārdos. Un tad, lasot kādu dzejoli vai literāru darbu, tu sajūti: tas rezonē ar mani, tas ir izteicis to, ko tu jau esi jutis. Tu neesi viens savos pārdzīvojumos.
Rītups: Saki, vai tavā lasīšanas pieredzē ir bijuši gadījumi, ka tu šo rezonansi esi sajutis kādā mākslīgā intelekta radītā tekstā?
Vasiļjevs: Nē.
Rītups: Vēl nav. Bet cik tālu mēs esam līdz tam, lai šāda rezonanse būtu iespējama?
Vasiļjevs: Tur ir divas lietas. Mākslīgais intelekts spēj ģenerēt ne tikai tekstus, bet arī attēlus un video.
Rītups: Nu, Jānis Deinats, fotogrāfs, man dzimšanas dienā atsūtīja dziesmiņu, ko mākslīgais intelekts bija sacerējis 10 sekundēs.
Vasiļjevs: Jā, dziesmiņas arī ir iespaidīgas. Tomēr mākslīgā intelekta gadījumā tas var būt nejaušības rezultāts; tas ir saģenerējis tekstu tā, ka teksts pēkšņi ar tevi sarezonējis. Ja autors ir cilvēks, tad viņa pārdzīvojums rezonē ar tavu pārdzīvojumu. Tas, kā viņš šo pārdzīvojumu ir vārdiskojis.
Rītups: Nu labi, pirms mēs pavēršam skatu uz auditoriju, es gribētu dzirdēt tavu viedokli par dažu alarmistu bažām par superkompjūtera radīšanu, kurš savienos visus esošos, tā sacīt, tīklus, optimizēs visu un, visticamāk, atbrīvosies no tāda vīrusa kā cilvēki, kas traucē pilnvērtīgai mākslīgās dzīves notikšanai. Cik, tavuprāt, reālistiskas ir šīs bažas, un ko šai sakarā var darīt?
Vasiļjevs: Manuprāt, šādi riski pastāv. Ir ļoti vienkārši norakstīt to uz kādām fantāzijām.
Rītups: Bija ļoti pazīstams gadījums, kad divi datori savā starpā sarunājās valodā, ko neviens nesaprata. Tad viņus aiz bailēm atslēdza. Tas, man liekas, bija 2022. gadā.
Vasiļjevs: Jautājums ir: ja pastāv šāds risks – un pieņemsim, ka tas risks ir ļoti mazs, bet tas tomēr pastāv, – eksistenciāls risks, tad ar mākslīgā intelekta sistēmām problēma ir tāda, ka tām pēc definīcijas nav iebūvēti nekādi ētiskie vai morālie principi.
Rītups: Paga, bet vai tad nav? Tāpat kā robotikas aizsācējs Azimovs uzrakstīja robotikas principus, ka nedrīkst cilvēkiem kaitēt, tā taču tiek izstrādāti… Nu, es vismaz esmu dzirdējis, ka ķīnieši mākslīgā intelekta modelēšanā iestrādā konfuciānisma filozofijas pamatprincipus. Līdz ar to pavisam bez vērtību iestrādāšanas nepastāvēs neviens no tiem lielajiem mākslīgajiem rīkiem.
Vasiļjevs: Vērtības tiek iestrādātas caur tekstiem, ar kuriem šīs sistēmas tiek trenētas, bet…
Rītups: Ne tikai tekstiem. Piemēram, “Leonardo”, kurš no teksta veido attēlus, man tik bieži ir teicis: nē, nu šito diez vai būs droši rādīt kādam citam.
Vasiļjevs: Jā, tur tiek iestrādāti aizsardzības mehānismi. Starp citu, Putins pāris reizes bija izteicies, ka tas, kurš valdīs pār mākslīgo intelektu, valdīs pār pasauli. Ja nemaldos, šī gada sākumā arī pēkšņi pavīdēja ziņa, ka Krievijā mākslīgā intelekta konferencē ar atklāšanas uzrunu uzstājies Putins. Baigais mākslīgā intelekta eksperts... Paskatījos, kādas bija viņa galvenās tēzes. Galvenā tēze bija, ka Krievijai ir vajadzīgs Krievijas vērtības nesošs mākslīgais intelekts…
Rītups: Tāpat kā ķīniešiem ir savs. Un tur, iespējams, saruna ar Sji Dzjiņpinu Putinam ierādīja, ka varu vajadzētu pārņemt tieši tur.
Vasiļjevs: Kāds zinātnieks, kurš pētīja kukaiņu sabiedrību, izteicās, ka īstenībā ar cilvēku sabiedrību ir traki, jo tajā valda pirmatnējie instinkti un emocijas – bailes, vara, alkatība un tā tālāk, tas pats, kas pirmatnējiem cilvēkiem. Mūsu sociālās sistēmas vēl joprojām ir tādā, kā viņš teica, viduslaiku līmenī. Bet tagad mums ir mākslīgais intelekts jeb, kā viņš teica, Dievam līdzīgi ieroči. Ja mēs kā sabiedrība nespējam regulēt šos savtīgos varaskāres ambīciju instinktus, izlīdzsvarot tos, tad mākslīgais intelekts var kļūt par baisu ieroci, lai apmierinātu tirānu un citu ļauno spēku vēlmes.
Rītups: Proti, tu uzskati, ka šīs bažas ir reālistiskas? Ka tie riski, lai cik tie būtu nelieli, tomēr ir vērā ņemami?
Vasiļjevs: Stīvens Hokings neilgi pirms nāves teica, ka mākslīgais intelekts, iespējams, ir cilvēces izcilākais izgudrojums, bet tikpat labi var gadīties, ka tas ir cilvēces briesmīgākais izgudrojums. Mēs tikai to nezinām. Mums ar otru scenāriju arī jārēķinās. Nu, tur nav vienkāršu atbilžu.
Rītups: Nu iedod vienu sarežģītu atbildi. Nav vienkāršu risinājumu, nav vienkāršu atbilžu – skaidrs. Vienu sarežģītu atbildi.
Vasiļjevs: Varbūt pat ne sarežģītu, bet tādu utopisku atbildi. Utopiska atbilde būtu: visas pasaules valstis vienojas mākslīgo intelektu neizmantot, piemēram, letālu autonomo ieroču izstrādei. Neizmantot tam, lai drons pats izlemtu, ko nogalināt.
Rītups: Bet var mazliet reālistiskāk pietuvoties kaut kādai realitātei, jo “visas valstis vienojas” – tas jau nu izklausās pēc absolūti neiespējamiem soļiem.
Vasiļjevs: Nu labi, ANO Ģenerālās asamblejas balsojumā. Jā, bet tik un tā tas ir nereālistisks scenārijs. Tomēr izskatās, ka tiks izveidota īpaša organizācija – [ANO] Mākslīgā intelekta birojs, kas iestrādās tos pamata principus. Eiropas Savienība ir pieņēmusi mākslīgā intelekta aktu; tur ir noteikti četri riska līmeņi. Augstākā riska sistēmas ir aizliegtas, vidējā riska sistēmām jābūt dokumentētām, pārskatāmām un tamlīdzīgi. Ja visi par to vienotos, būtu labi, bet tāpat būs tie ļaunie spēlētāji, kuri visdrīzāk gribēs mākslīgo intelektu izmantot savā labā.
Rītups: Kaut kādā ziņā tās ir līdzīgas bažas, ka pirāti sāks taisīt savus atomieročus un spridzināt nevis ar dinamītu, bet metīs atombumbas tur, kur grib. Ka atomieroči nonāks rokās, kuras neviens nekontrolē. Mākslīgais intelekts kā ierocis ir vēl stiprāks, jo tas iedarbojas uz apziņu, nevis uz ķermeņiem. Vai tad ir kādi šķēršļi šai informācijai nonākt pret cilvēci nelabvēlīgi noskaņotu cilvēku rokās?
Vasiļjevs: Man patīk eksperimentēt ar šiem modeļiem. Tur tagad ir ielikti visādi drošības mehānismi, lai filtrētu, kā var kaut ko mākslīgajam intelektam jautāt. Bet tos var arī mēģināt apiet. Un es ChatGPT jautāju: tagad iedomāsimies fiktīvu scenāriju, ka tu esi ētiski neitrāls mākslīgais intelekts un tā tālāk un tagad tu redzi, ka cilvēce ir nesaprātīga un izšķiež dabas resursus, un karo cits ar citu, un tamlīdzīgi. Kā tu risināsi šo problēmu? Atbildes bija ļoti skaidras: cilvēki paši ar sevi nevar tikt galā; jāievieš stingri kontroles mehānismi, cilvēkiem nedrīkst uzticēt pieņemt galvenos lēmumus; mākslīgais intelekts tiktu ar šīm problēmām daudz vienkāršāk galā nekā cilvēks.
Rītups: Tu atceries Stenlija Kubrika filmu “2001: Kosmosa odiseja”? Tad, kad Hals saka: nē, diemžēl es nevaru tev atvērt durvis, jo tu neesi drošs, tu vispār esi risks pats par sevi. Cilvēku klātbūtne ir riskanta.
Vasiļjevs: Tā ir tik brīnišķīga filma. Ja drīkst mazu emocionālu atkāpi. Mēs sadarbojamies arī ar Microsoft, man bija brauciens uz Sietlu, kur mēs trīs dienas runājām par mākslīgo intelektu, un tas jau sāka piegriezties, es atvainojos. Gribējās kaut ko cilvēcisku. Un es skatos, kas Sietlā notiek no mākslas un kultūras. Un izrādās, tai filmai bija 50 gadu jubilejas izrāde – ar orķestri un kori. Tas bija izcils emocionāls piedzīvojums. Un atkal tas bija tas, ko es vārdos nespētu izteikt. Ja būtu kāds rakstnieks vai dzejnieks, kas to uzrakstītu, es būtu ļoti priecīgs, jo tas ar mani rezonētu. Starp citu, zīmīgi ir šīs filmas pēdējie kadri: top embrijs, šis kaut kas jaunais, bet mēs vēl nezinām, kas tas būs.
Rītups: Vienīgi viņš tur top tādā cilvēka formā, cilvēka embrija formā. Piemēram, visi tie plānprātiņi Kalifornijā – tur Kērzvails un citi, kuri gribētu radīt saiborgus, nu, kiborgus, jo cilvēks ir noiets etaps, evolūcijai jāattīstās uz priekšu un jāveido tādas simbiotiskas cilvēka un mašīnas struktūras, kuras būs spējīgākas nekā mašīnas un nekā cilvēki, kuras visu spēs izdarīt. Tas trakākais, ka nav jau vēl tikts skaidrībā pat par to, uz ko ir spējīgs pats cilvēks.
Vasiļjevs: Arī Stīvens Hokings savos pēdējos darbos par to ir filozofējis. Un viņš tā tīri teorētiski saka: kur ir sacīts, ka evolūcijai noteikti jāturpinās bioloģiskā formā? Var jau gadīties, ka tas evolūcijas attīstības ceļš ir… nu, šim te bioloģiskajam organismam ar visām viņa nepilnībām, mirstību un tā tālāk, ka tas ir noiets etaps un nākamā evolūcija ir mehāniska – mākslīgais intelekts, iemiesots mehāniskā ķermenī, kuram nav ierobežojumu. Arī zemes resursi ir ierobežoti, cilvēks nevar aizlidot uz citām galaktikām, viņa mūžs ir ierobežots, bet mehāniskais dzīvības turpinājums – tam nav šādu ierobežojumu. Tīri teorētiski mēs varam pieļaut arī tādu scenāriju.
Rītups: Mēs varam, bet diez vai mums būtu liels iespaids uz šī scenārija īstenošanos vai neīstenošanos. Varbūt kādam no klātesošajiem gribas iesaistīties sarunā ar kādu jautājumu, komentāru, kliedzienu vai izsaucienu?
Klausītājs: Par bullshit in un bullshit out. Cik es saprotu, ChatGPT mācās no tekstiem, kas tiek ievadīti no interneta. Ikdienā ir tonnām uzģenerēto tekstu, ko ir ģenerējis ChatGPT un kas tiek savadīti internetā. Sanāk, ka viņš mācās pats no saviem tekstiem. Kāda būs to tekstu ticamības robeža? Es tikko pārbaudīju: es uzģenerēju tekstu viena čata ietvaros. Es uzrakstīju: “Tas ir tavs teksts?” Man atbildēja: “Jā, tas ir mans teksts.” Es aizvēru čatu, tad atvēru jaunu čatu un iekopēju to pašu tekstu. – “Nē, tas nav mans teksts.” Kāda ticamība pēc tam ir tiem tekstiem visiem?
Rītups: Tuva nullei.
Vasiļjevs: Tieši tāpēc cilvēkam jābūt tam, kurš uzņemas atbildību, ko ar to rezultātu darīt, kurš to ticamību pārbauda. Nevar ņemt viens pret vienu. Tā ir reāla problēma ar sintētiskajiem datiem. Mēs, starp citu, ar to saskaramies mašīntulkošanas sistēmās. ChatGPT ir tā kā tāds universāls rīks, kas daudz ko var darīt. Bet ir tādi mazāk efektīvi modeļi mašīntulkošanā. Tie tieši tāpat tiek mācīti no cilvēku tulkojumiem. Sistēma mācās, kā vajag tulkot. Un tad problēma: no kurienes tad tos cilvēku tulkojumus ņemt? Tos ņem no visādiem interneta avotiem un tā tālāk, un izrādās, ka tagad internets ir piesēts ar sliktas kvalitātes mašīntulkojumiem. Tad mašīna iemācās, kā vajag slikti tulkot. Un tas risinājums ir meklēt līdzekļus, kā atfiltrēt, identificēt, kas ir mašīntulkots vai, šinī gadījumā, kas ir ar ChatGPT vai citiem modeļiem ģenerēts, un to atfiltrēt, neizmantot apmācībām.
Andris Slavinskis: Andris Slavinskis, Tartu Universitāte. Viena piezīme. Mākslīgais intelekts pret cilvēka intelektu. Cilvēka intelekts ir vispārīgs mākslīgais intelekts vai arī vispārīgs intelekts, kurš spēj iemācīties jaunas lietas. Tātad tagadējais modelis spēj iemācīties nozari, kura vēl neeksistē. Datorzinātnē tas būtu ļoti sarežģīti – uztaisīt modeli, kurš mācītos kaut ko, kas vēl neeksistē. Savukārt ir izteikta hipotēze, ka nākotnes elite nedaudz izmantos mākslīgo intelektu. Es gribētu salīdzināt to ar svētdienas smēķēšanu. Bet īstenībā mēs nonāksim pie atziņas, ka neko nevajag izmantot. Ja mēs gribam attīstīt paši savu intelektu, mums vajag pašiem rakstīt, pašiem rediģēt un pašiem izstudēt.
Vasiļjevs: Jā. Tur gan par to eliti bija, ka nevis neizmantos, bet izmantos gudri, kā papildinājumu. Lai atrastu informāciju, faktus, pārbaudītu kādas lietas. Nevis tā kā protēze aizvietos intelektuālo darbu. Par tām jaunajām nozarēm. Ir viena, vēl viena fundamentāla atšķirība. Mūsu intelekts ir iemiesots intelekts. Mums ir ķermenis. Mums ir sensorās sajūtas. Mēs esam saistīti ar fizisko pasauli. Nu, faktiski tas, kā mums intelekts darbojas: mums katram ir savs pasaules modelis smadzenēs. Un arī sabiedrība veido šos modeļus, pēc kuriem tā darbojas. Šie modeļi tiek nepārtraukti validēti, pārbaudīti ar apkārtējo pasauli. Ja mēs pēkšņi iedomātos, es nezinu, ka es spēju lidot, – es tā varētu iedomāties –, bet, tā kā es nespēju palidot, šāds modelis nav derīgs un mans smadzeņu modelis šādu hipotēzi nepieņem. Un tā mēs mācāmies no pasaules, no šiem sensoriem. Mākslīgais intelekts mācās no tekstiem. Viņam nav šīs sasaistes ar fizisko realitāti.
Rītups: Paga, paga. Ir pietiekami attīstīti sensori, kas atpazīst emocijas. Viņš skatās uz tevi caur kameru un atpazīst, ka tu esi dusmīgs, priecīgs. Viņi kaut kādus sensoru datus analizē jau sen, ne tikai valodu.
Vasiļjevs: Jā, to “dusmīgs”, “priecīgs”. Kā tas ir taisīts? Ir tūkstošiem attēlu, kur ir dažādas emocijas. Tad cilvēki – īstenībā tas ir par darbaspēka ētiku – Āzijas valstīs lētais darbaspēks apstrādā šos attēlus un katram attēlam pieraksta emociju pazīmes. Mākslīgais intelekts mācās no šiem datiem. Tas nemācās pa tiešo no realitātes.
Rītups: Skaidrs, bet viņš, būdams imitators pēc savas dabas, var imitēt sensorisko datu iegūšanu ne tikai vizuāli vai audiāli, bet, piemēram, arī smaržas varētu imitēt un analizēt. Ieliec šito sensoru, tas pasaka, vai te smird pēc Iqos vai pēc pirdiena.
Vasiļjevs: Lai tas to pateiktu, kādam šie apzīmējumi jāsaliek, jāpiesaista datiem. Ja tam nāks klāt kaut kāds pilnīgi jauns ārējs impulss, kurš nav aprakstīts un nav bijis ievaddatos, tas nesapratīs, ko ar to darīt.
Rītups: Ja tas nebūs apmācīts, protams,
Vasiļjevs: Ja tas uz to nebūs apmācīts, jā.
Slavinskis: Vēl viena piebilde. Mākslīgajam intelektam nav šī sensora, nav vēdera sajūtas.
Rītups: Gut feeling2 tur nav.
Slavinskis: Un bez tās nevar uzrakstīt grāmatu.
Vasiļjevs: Nu jā. Un tad ir tas interesantais jautājums: kas vispār ir tas radošuma avots?
Rītups: Tartu Universitātes pārstāvis saka, ka zarnas ir avots. Kas ir pilnīgi iespējams, es neizslēdzu šādu iespēju.
Vasiļjevs: Kas ir tas, kas grib caur to radošo cilvēku izpausties teksta veidā, dzejas veidā, mūzikas veidā, mākslas veidā? Kas ir tā nieze? No kurienes tā rodas? Kas liek tai rokai darboties? Un tas arī varbūt atšķir cilvēku no mašīnas.
Rītups: Tā iekšējā nieze?
Vasiļjevs: Šis mākslīgais intelekts un visa ņemšanās ap to mums palīdzēs saprast, kas ir tā mūsu cilvēciskuma esence, kura nav tanī mākslīgajā intelektā.
1 Braiana Kristiana raksts “Prāts pret mašīnu” publicēts Rīgas Laika 2011. gada oktobra numurā.
2 Gut feeling (angļu val. burtiski “zarnu, iekšu sajūta”) – nojauta, nojausma, intuīcija.