19.5.04

Asimovin lait

I, Robot (pääosassa Will Smith) tulee teattereihin tänä kesänä.

Leffan nimi on otettu Isaac Asimovin (1920-1992) robottinovelleista, mutta se ei kuitenkaan suoraan liity mihinkään niistä. Periaatteessa Asimovin nimi on vain lätkäisty kanteen myynnin edistämiseksi; varsinaisen käsikirjoituksen ovat tehneet Jeff Vintar (Final Fantasy) ja Akiva Goldsman (Lost in Space, Batman & Robin). En lähde haukkumaan leffaa huonoksi, koska en ole sitä nähnyt, mutta pahalta näyttää näin etukäteen. Ohjaajana on Alex Proyas (Crow, Dark City), joten ehkä ihan kaikkea ei ole vielä menetetty.

Asimovin leffaksi sitä ei voi kuitenkaan sanoa, oli se sitten hyvä tai huono. Harlan Ellison teki novelleihin perustuvan käsikirjoituksen jo vuonna 1978, mutta se ei koskaan päässyt leffaksi asti (”the greatest science fiction movie never made"). Ellisonin käsikirjoituksesta olisi saanut luultavasti paljon paremman leffan, mutta minkäs teet. Aivoton hömppä menee paremmin kaupaksi.

Kuuluisat robotiikan kolme lakia (tai pääsääntöä) ovat lyhykäisyydessään:

1. Tekoäly ei saa vahingoittaa ihmistä teoillaan tai tekemättömyydellään.
2. Tekoälyn täytyy totella ihmisten antamia käskyjä mikäli ne eivät ole ristiriidassa ensimmäisen lain kanssa.
3. Tekoälyn tulee suojella itseään, mikäli se ei ole ristiriidassa ensimmäisen tai toisen lain kanssa.


Lisäksi on vielä neljäs (tai nollas) laki:

0. Tekoäly ei saa vahingoittaa "ihmisyyttä" teoillaan tai tekemättömyydellään.

Nollas laki sallisi sen, että tekoäly voi vahingoittaa yhtä ihmistä, jos se niin tekemällä suojelee koko ihmiskuntaa.

Asimov ei luonut lakejaan vakavissaan otettavaksi malliksi. Ne olivat juonielementti. Hän kutsui kolmea lakia tottelevia robotteja Asenion-roboteiksi erotukseksi muista roboteista, joita ei ole alistettu tottelemaan lakeja väkisin. Silti monet tuntuvat ottavan Asimovin lait tosissaan, ikäänkuin todellisen maailman robotit ja tekoälyt pitäisi alistaa tottelemaan fiktion lakeja.

Miksi Asimovin lait eivät sitten toimi?

No, miten robotti määrittelee ”ihmisen”? Minkä se määrittelee ”vahingoittamiseksi”? Jos robotti näkee ihmisen näköisen robotin jäävän auton alle, määritteleekö se robotin ihmiseksi ulkonäön perusteella ja menee auttamaan? Entä jos se määrittelee kaikki robotit ihmisiksi? Pystyykö tekoäly muuttamaan määritelmiään, vai täytyykö sille antaa vielä yksi laki: älä muuta ihmisten antamia määritelmiä sille, mikä on ihminen. Mutta hetkinen, eikös tällaisen lain määritteleminen johtaisi siihen, etteivät ihmiset saa ikinä muuttua? Entä jos robotille sanotaan, että vain sinisilmäiset ihmiset ovat oikeita ihmisiä ja muut valeihmisiä? Pitäisikö sille antaa mahdollisuus päivittää määritelmiään? Mutta hetkinen - entä sitten, jos se päättääkin päivittää määritelmiään niin, että vain robotit ovat ihmisiä? Mikä estää sitä päivittämästä itseään täysin ihmismäiseksi?

Entä mitä robotti tekee, jos se huomaa vahingoittaneensa ihmistä vahingossa? Jos se on vaikka jättänyt kuumaa kahvia yöpöydälle, jotta ihminen voisi juoda kupillisen heti herättyään - mutta ihminen kaataakin kahvin vahingossa kasvoilleen herätessään! Tulkitseeko se tilanteen ihmisen tekemäksi virheeksi vai omaksi virheekseen? Mitä se on ohjelmoitu tekemään epäonnistuessaan? Tuhoaako se itsensä rangaistukseksi? Sammuuko se häpeästä? Onko se pahoillaan? Meneekö se sekaisin ja tappaa kaikki?

Entä jos robotit päättävät, että kätevin keino suojella ihmiskuntaa on laittaa ihmiset tiukkaan kontrolliin? Silloinhan robotit vain tottelevat nollatta lakia (vaikka se näyttääkin ”kapinoinnilta”) ja yrittävät laittaa kaikki ihmiset tiukasti vartioituihin pehmustettuihin selleihin pystyäkseen suojelemaan heitä tehokkaammin. Jos muutama ihminen vastustaa robottien suojelupyrkimyksiä, niin vastustajat täytyy vain siivota pois tieltä ihmiskunnan yhteisen edun ja nollannen lain nimissä.

Tai pitäisikö esimerkiksi lemmikkieläimiin, kissoihin ja koiriin, ohjelmoida samanlaiset käskyt?

1. Lemmikki ei saa vahingoittaa ihmistä
2. Lemmikin tulee totella ihmisen antamia käskyjä
3. Lemmikin tulee suojella itseään, mikäli tämä ei ole ristiriidassa edellisten käskyjen kanssa.

Tai pitäisikö samanlaiset käskyt määrätä ihmisille? Sehän tekisi maailmasta hienon paikan, jos kaikki pakotettaisiin olemaan kilttejä toisilleen! Robotit, ihmiset ja eläimet - kaikki tottelemassa ikuisesti samoja yksinkertaisia käskyjä. Kaikki vain tottelisivat ”luontoaan”. Kukaan ei pystyisi ohjelmoimaan itseään uudelleen. Mutta hei, sitten tulisikin juonikäänne ja joku voisi kiertää lait...

Tällaisia kysymyksiä kehittelemällä saa aikaan paljon juonia robottitarinoihin - ja juuri tätä tarkoitusta varten Asimovin lait on luotu. Jos lait toimisivat oikeasti, robottitarinoiden juonet olisivat tylsiä, koska mitään robottikapinoita ei koskaan tapahtuisi.

On siis korkea aika päästä Asimovin lakien luomasta harhasta eroon. Singularity Institute on aloittanut 3 Laws Unsafe –kampanjan, jonka tarkoituksena on tehdä selväksi, miksi Asimovin lakeja ei pidä käyttää oikeaa tekoälyä luotaessa. Oikean tekoälyn ei pidä tehdä ”robotit vs. ihmiset” –tyylisiä mustavalkoisia vastakkainasetteluja. Oikean tekoälyn täytyy haluta olla ystävällinen. Sen pakottaminen ystävälliseksi lakien avulla on väärin.


Linkit
www.asimovlaws.com (sivu on tällä hetkellä vielä vaiheessa)

Singularity Institute for Artificial Intelligence
Why Work Toward Singularity?
What is General Intelligence?
What is Friendly AI?

1 kommentti:

Anonyymi kirjoitti...

Helv hyvin kirjoitettu tuo Asimovin lakeja koskeva pakina, ihan asiaa oli :) jatka samaan malliin!