Poskušajmo si predstavljati stroj, ki je inteligenten po človeških standardih. Recimo, Clarkov HAL iz “Odiseje 2001”. HAL se v tej fiktivni, dandanes že kultni stvaritvi, vede podobno, kot se vede človek v fazi norosti. Tako bi si vsaj pojasnil njegovo obnašanje neodvisni opazovalec. So morda programerji vgradili kakšno kodo, ki bi dajala HALu navodila kako se vesti, ko se mu po domače strga? So mu morda vgradili program za emocije, oziroma za določena stanja njegovih emocij, recimo za strah, ki ga na koncu izraža skozi besede: “I’m afraid. I’m afraid.” HALa je v trenutkih pred izključitvijo strah, tako kot vsakega normalnega človeka pred smrtjo. Če parafraziramo opazovalčevo ugotovitev, pridemo do vprašanja: so njegova čustva pristna ali zgolj golo izražanje vnaprej predvidenih stavkov, glede na okoliščine.
Ali HAL, kot primer AI stroja dejansko poseduje emocije, zavest, je seveda nemogoče odgovoriti, enostavno moramo predpostaviti, da je temu dejansko tako. HAL se pred svojim koncem mentalno zlomi. Ponavadi lahko rečemo, da je bitje dejansko inteligentno, če je na neki stopnji sposobno spoznati svoje napake in svoje meje. Zanimiva s tega vidika so razmišljanja o inteligenci ljudi z simptomi, ki jih povzroči poškodba možganov. Hladnokrvnost in gotovost v namenih, tako neracionalnih, kot jih prakticira HAL, je pri teh ljudeh pogosta. Takrat, ko je stroj tako nezmotljiv in razumen kot HAL, je razumljivo, da bo branil lastno avtoriteto. Kako daleč lahko s tem gre, oziroma, a mu ta pravica do samoobrambe zagotavlja tudi pravico do ubijanja, je v glavnem vprašanje okoliščin. Vsako nasprotje dejanjem, ki jih je prevzel HAL, je samomor in s tem zanj nesprejemljivo. To pa kaže na neko drugo lastnost stroja, ki zavoljo njegove analitičnosti in s tem posledično neprilagodljivosti situacijam, kar je ena največjih človekovih vrlin, ni sposoben svojega simuliranega življenja žrtvovati pod nobeno okoliščino, resda pa zgolj to, še ne more obveljati za dovolj resen argument proti zavestnosti, saj če zgolj iz samoohranitvenega nagona ne reši življenja nekoga drugega, to še ne pomeni, da ravna brez zavesti. Vztrajanje na svoji poziciji, kot je to v svojem primeru prakticiral HAL, je mogoče le, če je vera v lastno nepogrešljivost pri zadani nalogi absolutna, le tako je do neke mere, ne ravno opravičljivo, vsekakor pa veliko bolj razumljivo HALovo vztrajno upiranje svoji posadki. Problem torej nastane, ko združimo zavest in funkcionalnost stroja, ki po definiciji nista združljivi. Verjetno bi človek, kot model zavestnega bitja, ki bi ga postavili na HALovo mesto, ne ravnal nič kaj dosti drugače, vsekakor pa bi ravnal drugače v eni zelo pomembni točki, v trenutku, ko bi mu stvari ušle izpod kontrole ne bi deloval po pravilih, pač pa bi se veliko prej zanesel na goli človeški instinkt. Četudi je tak računalnik v vsem podoben človeku, v enem vendarle ni, namreč v njegovi funkcionalnosti. HAL je branil lastno eksistenco in zavest z vsemi njemu znanimi orožji in močmi, v vednosti, da je misija pomembnejša od življenja kateregakoli člana njegove posadke, kot nekoč humanoid v Alienu, svoji nalogi daje absolutno prioriteto, česar je v tako skrajni obliki predanosti zmožen le analitičen stroj, ki deluje po principu pravila brez izjeme. Z odstranitvijo svojih frustracij in vzpostavitvijo zapovedanega reda, bi HAL nadaljeval misijo neoviran in sam, napram naloženemu cilju. [Clarke, Arthur C.: 2001: A Space Odyssey, Legend (Random House), London 1990 in Dennett, C. D.: Did HAL Commit Murder?, v Rough Draft for Stork Volume, 1996]
Deep Blue
Ko je IBMov (HAL je IBMov anagram) računalnik Deep Blue premagal svetovnega šahovskega prvaka Garrya Kasparova, so mnogi opazovalci ugotavljali, da stroj ni poznal nikakršnega “strahu”, kar so povezovali z drznostjo nekaterih njegovih potez, ki so jih opisovali celo kot nore. To je posledica sposobnosti Deep Blueua, da prepoznava in v svoj prid obrne napake, ki jih dela njegov človeški nasprotnik. V igri, ki jo je igral, niso pomagala nikakršna navodila njegovega programerja, v situaciji je moral odločati sam. Poteze, ki jih je odigral Deep Blue, so nakazovale, če bi kdo opazoval to predstavo iz kota nevednosti, na neizmerno inteligenco in bistrost v vsakem možnem oziru. V določeni situaciji je bil Deep Blueov kralj v nevarnosti, sam igralec pa pod velikim pritiskom, ki pa ga je računalnik premagal z nadvse drzno in do tega trenutka skrito potezo, pri tem še zdaleč ni podlegel psihičnemu pritisku, kakor bi hipotetično v tem položaju reagiral človek.
Deep Blue je samo eden, morda ta hip najboljši, računski stroj opremljen z programom za igranje šaha, torej je strogo omejen samo na eno področje človekove izkušnje, ki ima največjo povezavo z analitičnim umom. Njegovo obnašanje je predvidljivo in razumljivo po atributih njegovih prepričanj in želja, kognitivnih stanj in motivacijskih stanj, z racionalnostjo, da ugotavlja, kaj početi z temi svojimi prepričanji. Ali so ti približki človeških prepričanj in želja dovolj, da lahko rečemo takšnemu računalniku, da je zavesten. Verjetno zavoljo njegove omejenosti na šahovnico, še zdaleč ne. Ker se z takim računalnikom ne moremo spuščati v debate, niti o njemu poznanem svetu šaha, nam ne preostane drugega, da v primeru, ko se sprašujemo, ali je računalnik mogoče obtožiti kakršnega koli zavestnega dejanja, v primeru Deep Blua, zmage nad prvakom šaha, je vsaj dandanes, še nepredstavljivo. Kdo si torej lahko lasti zmago nad Kasparovim? Vsekakor ostaja kandidat samo eden, intencionalni računalniški sistem Deep Blue kot celota, z vsem svojim ozadjem, z manjkom tistega, kar bi ga dejansko lahko naredilo za pravega zmagovalca, to je užitkom v zmagi. Le višja oblika intencionalnosti je brezpogojni pogoj za kakršnokoli moralno odgovornost in Deep Blue prikazuje kaj malo takšne sposobnosti. Z dodatkom določenega softwarea, bi Deep Blueu lahko omogočili samoopazovanje in samokritičnost v učenju, kar bi že tako ogromnemu programskemu projektu še razširilo horizonte in spremenilo Deep Blue v radikalno drugače pojmovan stroj, podobnih razsežnosti in zmožnosti, kot jih je posedoval HAL 9000, pri katerem smo že pokazali na nekatere vidike zavesti.
Dialog
Dialog med človekom in strojem, potrjuje tezo, da tudi zavest stroja ne privede do izraza, kakršnega človek pričakuje, kar lahko v konsekvenci privede do prav bizarnih situacij, posebej, če je stroj z zavestjo objekt tako presodne vsebine kot je bomba in je od dialoga med obema zavestnima bitjema, človekom in strojem, odvisno veliko življenj. Človeku preostane le, da poskuša izraziti svoje edino prednost pred prav tako zavestno bombo, to je z apelom in obuditvijo stroju neznanega občutka zavestnega paradoksa, ki ga je človek zmožen podati le skozi filozofijo.
Dialog iz filma Johna Carpentarja “Dark Star” med bombo z oznako “20” in polkovnikom Doolittlom, vodjo vesoljske odprave, ki poskuša z razgovorom odpraviti tehnično anomalijo, ki se je pojavila v sistemu in bombi ukazala, da eksplodira, še preden zapusti izstrelišče, puščam v originalu:
Doolittle: Hello, Bomb? Are you with me?
Bomb #20: Of course.
Doolittle: Are you willing to entertain a few concepts?
Bomb #20:I am always receptive to suggestions.
Doolittle: Fine. Think about this then. How do you know you exist?
Bomb #20: Well, of course I exist.
Doolittle: But how do you know you exist?
Bomb #20:It is intuitively obvious.
Doolittle: Intuition is no proof. What concrete evidence do you have that you exist?
Bomb #20:Hmmmm…..well…..I think, therefore I am.
Doolittle:That’s good. That’s very good. But how do you know that anything else exists?
Bomb #20: My sensory apparatus reveals it to me. This is fun!
Doolittle:Now, listen, listen. Here’s the big question. How do you know that the evidence your sensory apparatus reveals to you is correct? What I’m getting at is this. The only experience that is directly available to you is your sensory data. This sensory data is merely a stream of electrical impulses that stimulate your computing center.
Bomb #20:In other words, all that I really know about the outside world is relayed to me through my electrical connections.
Doolittle: Exactly!
Bomb #20:Why…that would mean that…I really don’t know what the outside universe is really like at all for certain.
Doolittle: That’s it! That’s it!
Bomb #20 : Intriguing. I wish I had more time to discuss this matter.
Doolittle:Why don’t you have more time?
Bomb #20:Because I must detonate in 75 seconds.
Doolittle:Wait! Wait! Now, bomb, consider this next question very carefully. What is your one purpose in life?
Bomb #20:To explode, of course.
Doolittle:And you can only do it once, right?
Bomb #20:That is correct.
Doolittle: And you wouldn’t want to explode on the basis of false data, would you?
Bomb #20:Of course not.
Doolittle: Well then, you’ve already admitted that you have no real proof of the existence of the outside universe.
Bomb #20:Yes…well…
Doolittle: You have no absolute proof that Sergeant Pinback ordered you to detonate.
Bomb #20:I recall distinctly the detonation order. My memory is good on matters like these.
Doolittle:Of course you remember it, but all you remember is merely a series of sensory impulses which you now realize have no real, definite connection with outside reality.
Bomb #20: True. But since this is so, I have no real proof that you’re telling me all this.
Doolittle:That’s all beside the point. I mean, the concept is valid no matter where it originates.
Bomb #20: Hmmmm….
Doolittle:So, if you detonate…
Bomb #20:In nine seconds….
Doolittle: …you could be doing so on the basis of false data.
Bomb #20:I have no proof it was false data.
Doolittle:You have no proof it was correct data!
Bomb #20: I must think on this further.
Tako poteka majevtični dialog med učiteljem(človekom) in študentom(strojem). Začasno zmedena Bomba#20 se umakne za bombno loputo in izgleda, da je najhujše preprečeno. Narednik Pinback naslovi na bombo nove ukaze, nakar ugotovimo, da je imel za Bombo#20 uvod v epistemologijo in ontologijo povsem nepričakovane posledice.
Pinback: All right, bomb. Prepare to receive new orders.
Bomb#20: You are false data.
Pinback:Hmmm?
Bomb #20:Therefore I shall ignore you.
Pinback: Hello…bomb?
Bomb #20: False data can act only as a distraction. Therefore, I shall refuse to perceive.
Pinback: Hey, bomb?!
Bomb #20: The only thing that exists is myself.
Pinback: Snap out of it, bomb.
Bomb #20: In the beginning there was darkness. And the darkness was without form and void.
Pinback: Umm. What the hell is he talking about? Bomb?
Bomb #20:And in addition to the darkness there was also me. And I moved upon the face of the darkness and I saw that I was alone.
Pinback: Hey…..bomb?
Bomb #20: Let There Be Light (detonira).
[odlomek iz filma Dark Star (1974), Johna Carpenterja]