Vai HAL 9000 pastrādāja slepkavību?
Foto: Vidapress
Apziņa

Daniels Denets

Vai HAL 9000 pastrādāja slepkavību?

Pagājušajā mēnesī Sanfrancisko Modernās mākslas muzejā es 47. reizi mūžā uz lielā ekrāna noskatījos filmu “2001: Kosmosa odiseja”. Fakts, ka šis šedevrs vairāk nekā pusgadsimtu kopš pirmizrādes 1968. gadā nav zaudējis savu vietu jebkurā kaut cik vērā ņemamā “10 labāko filmu” sarakstā un vēl joprojām tiek demonstrēts un apspriests, apliecina režisora Stenlija Kubrika, rakstnieka Artura Klārka un viņu pieredzējušo kino profesionāļu komandas veikuma vērtību kultūras vēsturē.

Kā vienmēr, skatoties šo filmu, es arī šoreiz atklāju vai novērtēju jaunas detaļas. Taču trīs ikoniskas ainas – Hals (HAL 9000 – heiristiski programmēts algoritmisks dators) atklātā kosmosa vakuumā pilnīgā klusumā nogalina astronautu Franku Pūlu, Hals ar medicīniskiem līdzekļiem pilnīgā klusumā nogalina trīs anabiozes stāvoklī uzturētos apkalpes locekļus un paša Hala smeldzīgi skumjā “nāve” – pamudināja uz dziļākām pārdomām, šoreiz par āķīgajām ētiskajām problēmām, kas saistītas ar mašīnas pastrādātu slepkavību un mašīnas slepkavību. Pēdējos gados eksperimentālas bezpilota automašīnas vairākkārt kļuvušas par cēloni gājēju un pasažieru bojāejai. Tikmēr mākslīgā intelekta vadīti boti inficē tīklus un iespaido dažādu valstu vēlēšanu iznākumu. Īlons Masks, Stīvens Hokings, Sams Hariss un daudzi citi vadošie mākslīgā intelekta (MI) pētnieki ceļ trauksmi: viņi apgalvo, ka, atstāts bez uzraudzības, mākslīgais intelekts var attīstīties tiktāl, ka kļūst nekontrolējams un sāk nopietni apdraudēt sabiedrību.

Un kā ar pretējo – cilvēkiem, kas “nogalinās” nākotnes datorus, tos atvienojot? Kad astronauti Franks un Deivs izolējas transporta kapsulā, lai apspriestu savas aizdomas par traucējumiem Hala funkcijās un vai nevajadzētu viņu atslēgt, Deivs iztēlojas Hala viedokli un saka: “Es tiešām nezinu, ko viņš par to domātu.” Vai būs ētiski (nevis vienkārši – vai nebūs nepatīkami) atslēgt (“nogalināt”) interaktīvu geriatriskās aprūpes robotu, kas dara savu darbu pie vientuļa veca cilvēka gultas?

Nenoliedzami turpmāka MI attīstība var radīt nopietnas problēmas, pirmkārt un galvenokārt – mūsu ekonomikai, automatizējot un tātad likvidējot miljoniem darbvietu ražošanā, mazumtirdzniecībā, ēdināšanas un juridisko pakalpojumu un pat medicīniskās diagnostikas jomā. Naivie mierinošie stāsti par kaut kādu neredzamo tirgus roku, kas aizvirzīs “pārkvalificētos darbiniekus” uz alternatīvām un jaunām profesiju kategorijām, un tamlīdzīgi ir bīstami ar savu pārspīlēto optimismu. Līdzīgi ir ar “zinātniski fantastiskajiem” draudiem, ka MI kļūs pilnīgi nekontrolējams. Lielākās briesmas MI jautājumā būs saistītas ar tīši ļaunprātīgu izmantošanu tīri savtīgiem jeb “cilvēciskiem” mērķiem.

Šo nākotnes pavērsienu filozofiskais kodols ir atbildības un vainas jēdzieni, citiem vārdiem – jautājums, ko uzdod filozofs Daniels Denets: “Vai Hals pastrādāja slepkavību?” Nav daudz filozofu, kuriem būtu tik dziļas un pamatīgas zināšanas par šīm aizraujošajām problēmām un kuri rakstītu tik precīzi un tieši. Viņa sarakstītā nodaļa gandrīz pirms 25 gadiem publicētajā rakstu krājumā “Hala mantojums”, kurā aplūkota Hala grandiozā ietekme uz domājošu mašīnu pētniecību un projektēšanu, vēl joprojām ir neaizstājams ievads sarežģītajās datoru pastrādātu slepkavību un datoru slepkavību problēmās. Deneta uzmanības centrā ir pats svarīgākais – mens rea jeb vainīgā prāta – jēdziens; viņš jautā, kā mēs jebkad spēsim noteikt, vai dators apzinās savu patību pietiekamā mērā, lai uz viņu (to) varētu attiecināt šo juridisko kritēriju un atzīt par vainīgu slepkavībā. Mans personīgais viedoklis ir tāds, ka vēl krietnu laiku mens rea, par ko vajadzētu uztraukties, drīzāk piederēs kādam varaskāram cilvēciskam ļaundarim, kurš izmantos MI savās interesēs, nevis ar apziņu apveltītai, autonomai un ļaunai MI sistēmai. Bet kas zina?

Ikvienam, kurš domā par ētikas jautājumiem, raizējas par iespējamiem MI draudiem un vēlas atbalstīt centienus gādāt par mūsu visu drošību, vajadzētu lasīt tālāk…

…un, protams, vēlreiz noskatīties “2001”.

Deivids Storks, 2020


Ja var ticēt manam arhīvam, pirmais robota pastrādātais nonāvēšanas gadījums reģistrēts 1981. gadā. Man saglabājies nodzeltējis avīzes izgriezums no The Philadelphia Inquirer – nejaukt ar National Enquirer –, datēts ar 1981. gada 9. decembri; virsraksts vēsta: “Ziņa no Japānas: robots nogalina mehāniķi”.

Pats stāsts virsraksta raisītās cerības neattaisnoja. Kādā korporācijas Kawasaki Heavy Industries rūpnīcā nepareizi funkcionējoša robotroka triekusi mehāniķi pret zobratu frēzmašīnu, kas šo cilvēku saspiedusi līdz nāvei. Mehāniķis nebija ievērojis drošības instrukcijas prasību izslēgt robotroku pirms ienākšanas darba telpā. Jājautā, kāpēc gan par šo ražošanas negadījumu ziņots Filadelfijas laikrakstā? Katru dienu kaut kur pasaulē kāda mašīna – tāda vai citāda – nogalina kādu strādnieku. Atšķirība, protams, slēpās tajā, ka, vismaz sabiedrības iztēlē, tas nebija nekāds parastais automāts. Tas bija robots, mašīna, kurai var būt pašai sava domāšana, var būt ļauni nodomi – kura var būt spējīga ne tikai vienkārši uz nonāvēšanu, bet arī uz apzinātu slepkavību. Angloamerikāņu jurisprudence runā par mens rea – burtiskā tulkojumā “vainīgo prātu”.

Lai varētu runāt par to, ka pastrādāta ar likumu aizliegta darbība, piemēram, citas cilvēciskas būtnes nogalināšana, šim nodarījumam jābūt paveiktam par vainīgu atzīstamā prāta stāvoklī jeb mens rea. Izšķir trīs šāda vainīga prāta stāvokļa paveidus: tie ir vai nu motivējoši nolūka stāvokļi, kognitīvi pārliecības stāvokļi, vai ar psihi nesaistīts nolaidības stāvoklis. (Kembridžas filozofijas vārdnīca, 1995)

Šī juridiskā jēdziena formulējumā nav ietverta prasība, lai darbības veicējs būtu spējīgs just vainu, sirdsapziņas pārmetumus vai jebkādas citas emocijas; tā sauktos aukstasinīgos slepkavas ne mazākajā mērā neattaisno viņu pasīvais emocionālais stāvoklis. “Zvaigžņu ceļa” Spoks, par spīti savam leģendārajam emociju trūkumam, pilnībā atbilstu mens rea prasībām. Garlaicīgie un pelēkie – taču tik iedarbīgie – “motivējošie nolūka stāvokļi” un “kognitīvie pārliecības stāvokļi” ir pilnīgi pietiekami, lai izdomātais Spoks gluži veikli tiktu galā ar savu ikdienas dzīvi. Un tas ir vispārzināms fakts, ka tie iestrādāti arī daudzās reāli eksistējošās datorprogrammās.

1996. gadā, kad Deep Blue uzvarēja Gariju Kasparovu abu mača pirmajā spēlē, IBM dators to paveica, izplānojot un ar nevainojamu laika izjūtu realizējot iznīcinošu uzbrukumu, kura stratēģija Kasparovam un viņa treneriem vēlāk kļuva vairāk nekā nepārprotami skaidra. Deep Blue panākumus izskaidro datora jūtīgums šīs stratēģijas uztverē un kognitīvā spēja saskatīt un izmantot tik tikko saskatāmu kļūmi Kasparova taktikā. Kasparovu neuzveica Marijs Kampbels, Fensjuns Sjui vai pārējie Deep Blue radītāji. To izdarīja Deep Blue. Ne Kampbels, ne Sjui neatklāja gājienu secību, kas ļāva izcīnīt uzvaru; to izdarīja Deep Blue. Zināmā spēles brīdī, kamēr Kasparovs gatavoja niknu uzbrukumu datora karalim, neviens cits kā Deep Blue izlēma, ka tam pietiks laika un drošības, lai izsistu no spēles kādu traucējošu Kasparova bandinieku, kurš tobrīd darbībā nepiedalījās, bet bija palicis gandrīz nepamanāmi neaizsargāts. Kampbels, tāpat kā cilvēciskās izcelsmes lielmeistari, kuri vēroja spēli, nemūžam neuzdrošinātos tik saspringtā situācijā pat apsvērt šādu nesatricināmi rāmu “nokopšanas” operāciju.



Lai turpinātu lasīt šo rakstu, lūdzu, pieslēdzies vai reģistrējies

Raksts no Marts 2020 žurnāla