Zasnova avtonomnih vozil v vrtincu moralnih dilem

Je lahko avtonomno vozilo moralno in deluje kot bi deloval človek? Lahko od njega pričakujemo, da bo deloval na način, kot bi človek pričakoval od drugega človeka? Med številnimi poglavitnimi vprašanji, ki si jih danes zastavljamo v zvezi z vse bolj realno prihodnostjo samovozečih vozil, je to verjetno eno najtežjih in daleč od preprostih. Kljub temu, pa nedavna študija prvič razkriva, da je na osnovi človeške moralnosti mogoče razviti model oz. da so sistemsko zasnovane odločitve v principu še kako možne.

Na Inštitutu za kognitivno znanost na Univerzi v Osnabrück-u so s pomočjo navidezne resničnosti oz. s simuliranjem različnih scenarijev proučevali človeško vedenje v cestnem prometu. Udeležence so prosili, da se na megleni dan zapeljejo po tipičnem predmestnem naselju, kjer so se morali soočiti z različnimi nepredvidljivimi in neizogibnimi situacijami. Rezultate so v okviru različnih konceptov pretvorili v statistične modele in pravila, s katerimi so lahko podkrepili opazovano vedenje voznikov. Raziskava je pokazala, da je moralne odločitve moč pojasniti in jih oblikovati v model, ki temelji na eni sami vrednoti in to je življenje za vsakega človeka, žival ali nepremičen predmet. Eden od prvih avtorjev študije, Leo Sütfeld, trdi, da je do zdaj veljalo prepričanje, da so moralne odločitve močno odvisne od konteksta in jih je zato nemogoče oblikovati v model oz. jih opisati z določenim algoritmom. Ugotovitve omenjene študije so močno vplivale na potek razprave o delovanju oz. vedenju samovozečih vozil, zlasti v neizbežnih situacijah.

Eden vodilnih avtorjev raziskave, prof. Gordon Pipa, je zato opozoril na pomen vključitve širše javnosti v nujno in resno razpravo o vrsti vprašanj, ki zadevajo moralno presojanje znotraj delovanja avtonomnih transportnih sistemov. Ali sodobno tehnologijo zasnovati na način, ki bo vključeval tudi moralno odločanje in ali bo to temeljilo bodisi na posnemanju človeških odločitev bodisi etičnih teorijah, in če, katere bodo to, in komu oz. čemu pripisati krivdo v primeru, če sistem enkrat zataji. Kot primer, recimo znotraj novih nemških etičnih načel, lahko izpostavimo otroka, ki zbeži na cesto in predstavlja tveganje za nastanek prometne nesreče, kar mu kot t.i. krivcu daje manjšo pravico do preživetja v primerjavi z odraslo osebo, ki pravilno stoji na pločniku in nima aktivne vloge pri povzročitvi incidenta.

Bi se s to moralno vrednoto lahko strinjala večina ljudi in kje postaviti meje njene interpretacije? Medtem ko po mnenju avtorjev študije človeške etične odločitve lahko prenesemo v naprave, pa se moramo kot družba kljub temu soočiti z dvojno dilemo, in sicer ali moralne vrednote sploh vključiti kot smernice za vedenje naprav in če, ali bi se morale te vesti kot bi se vedli ljudje. Znašli smo se torej na pragu nove epohe, ko bomo morali postaviti jasna pravila in preprečiti potencialno nevarnost, da bodo roboti nekega dne sprejemali odločitve brez nas.

Vir: Frontiers

Slikovno gradivo: Popular Machines