Pričakovane koristi od etičnih strojev

Za robota bo treba vsako dolžnost relativizirati in pri tem upoštevati kontekst: dolžnost je pomembna, ne pa absolutna.

Objavljeno
16. januar 2017 23.10
Italija.Benetke.02.06.2011 Nathaniel Mellors.Foto:Matej Druznik/DELO
Susan Leigh Anderson
Susan Leigh Anderson

V razpravi o razvoju umetne inteligence si že dolgo zastavljamo zapletena etična vprašanja. Toda pogosto se posvečamo predvsem temu, kako lahko mi, ki smo ustvarjalci umetne inteligence, uporabljamo napredne robote in kako bi jih morali uporabljati. V razpravi pozabljamo, da bi morali razviti urejena etična pravila, ki bi veljala za stroje, ter omogočiti strojem, da bi razreševali etične dileme, s katerimi bi se spoprijemali. Samo tako bi lahko inteligentni stroji delovali samostojno in sprejemali etične odločitve med opravljanjem svojih nalog brez človeškega posega.

Za zelo nevarne ali neprijetne naloge

Veliko dejavnosti bi radi popolnoma prepustili samostojno delujočim strojem. Roboti lahko opravljajo izjemno nevarne ali zelo neprijetne naloge. Pomagajo nam lahko pri delu, za katero ne moremo dobiti delavcev na trgu dela. Poleg tega lahko opravljajo zelo ponavljajoče se naloge ali naloge, pri katerih je treba biti izjemno pozoren na podrobnosti – takšno delo je primernejše za robote kakor za ljudi.

Toda nihče ne bo mogel biti zadovoljen s samostojno delujočimi stroji, ki ne upoštevajo nobenih etičnih pravil. (Hollywoodu je zadnja leta uspelo opozoriti na nekatera tovrstna tveganja.) Zato moramo usposobiti robote, da bodo znali prepoznati etične dileme, povezane z nekim stanjem, v katerem se bodo znašli, in se znali ustrezno odzvati nanje (denimo tista stanja, ki bi lahko koristila ali škodila neki osebi). Torej jih moramo usposobiti tako, da bodo vedeli, da je njihova dolžnost ustrezno ukrepati (da bodo čim koristnejši in bodo povzročili čim manj škode).

V resničnem življenju se je na različne etične dileme seveda mogoče odzvati na različne ustrezne načine in nekateri ustrezni odzivi lahko nasprotujejo drug drugemu. Za robota bo torej treba vsako dolžnost relativizirati in pri tem upoštevati kontekst: dolžnost je torej pomembna, ne pa absolutna. Dolžnost, ki se na prvi pogled zdi življenjsko pomembna, lahko v posebnih okoliščinah nadomesti druga dolžnost.

Kdaj bi stroji lahko delovali samostojno

Ključni dejavnik pri odločanju v takšnih okoliščinah bi morala biti prednostna etična načela, ki bi jih vnesli v stroj, preden bi ta začel delati. Če bi stroji upoštevali takšen kritični pogled, bi se znali ustrezno odzvati na nepričakovane dogodke in celo utemeljiti svojo odločitev.

Odločitev o tem, katera načela stroj potrebuje, bi bila deloma odvisna od tega, za kaj bi stroj uporabili. Robot, ki bi iskal in reševal ponesrečence v neki nesreči, denimo, bi moral med opravljanjem svoje naloge, ki določa, da mora rešiti čim več življenj, znati določiti prednostne naloge, in sicer na podlagi odgovorov na vprašanja, kakršna so, denimo: koliko žrtev je mogoče odkriti na nekem območju ali kako verjetno je, da bodo ponesrečenci preživeli. O takšnih vprašanjih se ne bo treba spraševati robotu za osebno nego, ki skrbi samo za eno starejšo osebo. Takšen stroj bo namesto tega med drugim moral znati spoštovati samostojnost svojega varovanca.

Strojem bi smeli dovoliti delovati samostojno samo na področjih, pri katerih bi se etiki strinjali o tem, kaj je sprejemljivo vedenje. Drugače bi lahko ljudje začeli ostro nasprotovati temu, da bi sploh kateremu koli stroju dovolili delovati samostojno.

Toda etiki ne bi sami odločali o teh vprašanjih. Prav nasprotno, pri razvoju etike za stroje bomo potrebovali interdisciplinarne raziskave, ki temeljijo na dialogu med etiki in strokovnjaki za umetno inteligenco. Če bi radi bili uspešni, morata obe strani upoštevati strokovno znanje – in potrebe – druga druge.

Strokovnjaki za umetno inteligenco morajo priznati, da je etika področje, ki ga že dolgo proučujejo znotraj filozofije; njena dognanja močno presegajo intuicijo nestrokovnjakov. Etično vedenje je povezano ne samo s tem, da nečesa ne storimo, ampak tudi s tem, da nekaj storimo, da bi omogočili idealno stanje. Toda do zdaj smo pri odkrivanju in reševanju etičnih vprašanj, povezanih z vedenjem strojev, večinoma poudarjali samo tisti del, ko nečesa ne smemo storiti, da bi tako preprečili strojem, da bi se vedli etično nesprejemljivo. Tako smo pogosto po nepotrebnem omejevali njihovo morebitno vedenje in področja uporabe.

Uporaba teorije etike v resničnem svetu

Hkrati bi morali etiki razumeti, da je programiranje stroja izjemno natančno delo, zato bodo morali biti še bolj pozorni pri svojem pristopu k etičnim razpravam, morda celo tako zelo pozorni, kakor do zdaj še niso bili. Poleg tega bodo morali bolj poudarjati uporabo svojega teoretičnega dela v resničnem svetu in tako pravzaprav spodbuditi razvoj etike.

S tem, ko bomo poskušali določiti etična pravila za stroje, bomo hkrati začeli na novo določati načela, ki bi jih bilo treba upoštevati pri reševanju etičnih dilem. Ukvarjali se bomo z vedenjem strojev, zato bomo lahko objektivnejši pri razmišljanju o etičnih vprašanjih, kakor bi bili, če bi razpravljali o človeškem vedenju, čeprav bi se to, kar bomo ugotovili, moralo nanašati tudi na ljudi.

V stroje gotovo ne bomo vnašali evolucijsko razvitega vedenja ljudi, denimo dajanja prednosti sebi in svoji skupini. Namesto tega bomo zahtevali od njih, da se do vseh ljudi vedejo spoštljivo. Zato se bodo stroji verjetno vedli bolj etično od večine ljudi in bodo postali pozitiven zgled za vse nas.

Etični stroji ne bi ogrožali človeštva. Prav nasprotno, zelo bi nam lahko pomagali, in to ne samo tako, da bi delali za nas, ampak tudi tako, da bi nam pokazali, kako se je treba vesti, če bi radi preživeli kot vrsta.

Susan Leigh Anderson,

častno upokojena profesorica filozofije na Univerzi v Connecticutu

Project Syndicate, 2016

––––––

Prispevek je mnenje avtorja in ne izraža nujno stališča uredništva.