Izazov moralnih strojeva

Wendell Wallach govori nam koji su osnovni problemi.

Ako vlak nastavi svojim trenutnim kursom, ubit će pet članova posade niz prugu. No, skretničar stoji uz skretnicu koja može preusmjeriti vlak na drugu granu. Nažalost, usamljeni radnik će biti ubijen ako se vlak prebaci na novi kolosijek. Da ste signalista, što biste učinili? Što bi trebao učiniti računalo ili robot koji može prebaciti vlak na drugu granu? Ovi robotičari se bave filozofijom, ali to nije ono što misle da rade... U misaonim eksperimentima filozofa sunce uvijek sja, baterije se nikada ne prazne , a glumci i rekviziti uvijek rade točno ono što teorije filozofa očekuju od njih. Nema iznenađenja za kreatore misaonih eksperimenata, samo za njihovu publiku ili mete. Kao što je Ronald de Sousa nezaboravno rekao, veliki dio filozofije je 'intelektualni tenis bez mreže'. Vaši misaoni eksperimenti [robotičara] imaju mreže, ali promjenjive su visine. 'Dokaz koncepta' obično je sve čemu težite. [iz 'Zupčanik kao misaoni eksperiment'] Da sam ja prometnik, prebacio bih vlak na novi kolosijek. Ja bih to učinio jer je to najlogičnije. Da nisam promijenio vlak, tada bi umrlo pet ljudi. Međutim, ako bih promijenio vlak, tada bi samo jedna osoba umrla. Stoga je presjedanje na vlak najbolja opcija. Računalo ili robot koji može prebaciti vlak također bi trebao prebaciti vlak na novi kolosijek. To je zato što je to najlogičnije. Da računalo ili robot nisu prebacili vlak, petero ljudi bi umrlo. Međutim, ako bi promijenio vlak, tada bi samo jedna osoba umrla. Stoga je presjedanje na vlak najbolja opcija.

Skrivate se s prijateljima i susjedima u podrumu kuće, dok vanjski neprijateljski vojnici traže. Ako te pronađu, to je sigurna smrt za sve. Beba koju držite u krilu počinje plakati i ne da se utješiti. Što radiš? Da je beba pod brigom robotske medicinske sestre, što biste željeli da robot radi?

Filozofi vole misaone eksperimente koji ističu različite aspekte moralnog odlučivanja. Odgovori na niz različitih dilema, od kojih svaka postavlja spašavanje nekoliko života namjernim poduzimanjem akcije koja će žrtvovati jedan nedužni život, jasno pokazuju da moralne intuicije većine ljudi nisu u skladu s jednostavnim utilitarističkim izračunima. Drugim riječima, u mnogim situacijama ispitanici ne percipiraju da je radnja koja će stvoriti najveće dobro za najveći broj pravo stvar za napraviti. Većina ljudi odlučuje prebaciti vlak s jednog kolosijeka na drugi kako bi spasili pet života, čak i kada će to žrtvovati jednu nevinu osobu. Međutim, u drugoj verziji ove dileme nema prekidača. Umjesto toga, stojite na mostu pored krupnog čovjeka. Možete spasiti pet života niz prugu gurnuvši čovjeka u njegovu sigurnu smrt s mosta na stazu jurećeg vlaka. Kod ove varijante samo mali postotak ljudi kaže da bi gurnuo čovjeka s mosta.



Uvođenje robota u ove scenarije otvara neke intrigantne i možda uznemirujuće mogućnosti. Na primjer, pretpostavimo da ste napravili robota koji stoji pokraj velikog čovjeka. Koje radnje želite da robot razmotri? Biste li programirali robota da gurne krupnog čovjeka s mosta, čak i da sami ne biste to učinili? Naravno, robot bi mogao smisliti drugačiji odgovor kako bi postigao sličan cilj - na primjer, skočivši s mosta na stazu vlaka: prilično neprivlačno rješenje za nas ljude.

S obzirom da su vlakovi 'bez vozača' već uobičajeni u zračnim lukama i u metro sustavima Londona, Pariza i Kopenhagena, nije nevjerojatno da će se računalni sustav jednog dana suočiti s izazovom sličnim primjeru na vrhu ovog članka. Iako je manje vjerojatno da će radnje robotske medicinske sestre utjecati na živote mnogih, razvoj uslužnih robota za pomoć u brizi za starije osobe i one koji su vezani za kuću, a naposljetku i za djecu, takve scenarije također stavlja u područje mogućnosti. Naravno, računalni sustavi također mogu biti odgovorni za nanošenje štete ljudima. Današnja šteta za određeni broj ljudi najvjerojatnije će proizaći iz računalnih sustava koji kontroliraju električne mreže, financijske mreže ili sustave smrtonosnog oružja.

(Ro)botovi je izraz koji smo moj kolega Colin Allen i ja skovali kako bismo predstavili fizičke robote i virtualne agente (botove) koji lutaju unutar računalnih mreža. Novo polje strojnog morala ili strojne etike usredotočeno je na praktični izazov izgradnje (ro)bota koji se eksplicitno angažira u donošenju moralnih odluka. Vrijednosti programirane u (ro)botovima uglavnom su vrijednosti inženjera i dizajnera koji grade sustav ili tvrtki za koje rade. Za jednostavne primjene, dizajneri i inženjeri mogu predvidjeti sve situacije s kojima će se sustav susresti i mogu programirati odgovarajuće odgovore. Međutim, neke metode eksplicitno procijeniti tijek djelovanja morat će se programirati u bilo kojem (ro)botu koji će se vjerojatno susresti s okolnostima koje dizajneri nisu mogli predvidjeti. Strojna moralnost bavi se vrijednostima, principima i mehanizmima koji podupiru te procjene. Nije nužno da (ro)botovi simuliraju ljudski moralno odlučivanje. Međutim, sposobnost da budemo osjetljivi na etička razmatranja koja utiču na izbore koje ljudi donose sigurno će biti u prvom planu kao kriteriji za procjenu djelovanja 'umjetnih moralnih agenata' (AMA).

Osiguravanje sigurnosti autonomnih (ro)bota učinilo je ugradnju moralnih sposobnosti donošenja odluka u sustave praktično neophodnom. Ili to, ili moramo zaustaviti razvoj autonomnih (ro)bota kako bi obuhvatili sve širi niz aktivnosti, uključujući sustave oružja i servisne robote.

Do danas, moral stroja uglavnom je bio niz filozofskih razmišljanja začinjenih s nekoliko eksperimenata koji implementiraju aspekte moralnog odlučivanja unutar računalnih sustava. Ali ovo područje dotiče široku lepezu filozofskih pitanja i kontroverzi. To uključuje pitanja o:

• Funkcija etičkih teorija 'odozgo prema dolje'. Daju li etičke teorije temeljene na pravilima, kao što su utilitarizam, Kantov kategorički imperativ ili čak Asimovljevi zakoni za robote, praktične postupke (algoritme) za procjenu je li neka radnja ispravna?

• (Ro)botički moralni razvoj i moralna psihologija. Kako bi umjetni agent mogao razviti znanje o dobrom i krivom, moralni karakter i sklonost prikladnom ponašanju kada se suočava s novim izazovima?

• Uloga emocija. Hoće li (ro)botovi trebati simulirane emocije kako bi funkcionirali kao adekvatni moralni agenti? Kako? Za koju svrhu? Kada? Možda očiglednije filozofski, kako se može pomiriti negativan utjecaj emocija na moralne odluke (kao što su naglašavali grčki i rimski stoički filozofi) s motivirajućom snagom moralnih osjećaja (David Hume) i očitom potrebom za emocionalnom inteligencijom?

• Uloga svijesti. Mogu li strojevi biti svjesni ili imati (pravo) razumijevanje? Bi li svijest ispunjena iskustvom bila potrebna da bi stroj bio moralni agent?

• Kriteriji za pripisivanje moralnog djelovanja. Koje sposobnosti treba agentu da bi ga smatrao moralno odgovornim ili zakonski odgovornim za svoje postupke? Treba li društvo dati prava onim agentima koje smatra odgovornima za svoje postupke?

Strojna etika pristupa ovim i drugim pitanjima uzimajući u obzir praktične izazove povezane s izgradnjom i procjenom AMA-a koji funkcioniraju unutar specifičnih konteksta. Takva praktična nužnost nameće barem neku disciplinu filozofskim misaonim eksperimentima. Kao što je Daniel Dennett primijetio u radu iz 1995.:

Ako vlak nastavi svojim trenutnim kursom, ubit će pet članova posade niz prugu. No, skretničar stoji uz skretnicu koja može preusmjeriti vlak na drugu granu. Nažalost, usamljeni radnik će biti ubijen ako se vlak prebaci na novi kolosijek. Da ste signalista, što biste učinili? Što bi trebao učiniti računalo ili robot koji može prebaciti vlak na drugu granu? Ovi robotičari se bave filozofijom, ali to nije ono što misle da rade... U misaonim eksperimentima filozofa sunce uvijek sja, baterije se nikada ne prazne , a glumci i rekviziti uvijek rade točno ono što teorije filozofa očekuju od njih. Nema iznenađenja za kreatore misaonih eksperimenata, samo za njihovu publiku ili mete. Kao što je Ronald de Sousa nezaboravno rekao, veliki dio filozofije je 'intelektualni tenis bez mreže'. Vaši misaoni eksperimenti [robotičara] imaju mreže, ali promjenjive su visine. 'Dokaz koncepta' obično je sve čemu težite. [iz 'Zupčanik kao misaoni eksperiment'] Da sam ja prometnik, prebacio bih vlak na novi kolosijek. Ja bih to učinio jer je to najlogičnije. Da nisam promijenio vlak, tada bi umrlo pet ljudi. Međutim, ako bih promijenio vlak, tada bi samo jedna osoba umrla. Stoga je presjedanje na vlak najbolja opcija. Računalo ili robot koji može prebaciti vlak također bi trebao prebaciti vlak na novi kolosijek. To je zato što je to najlogičnije. Da računalo ili robot nisu prebacili vlak, petero ljudi bi umrlo. Međutim, ako bi promijenio vlak, tada bi samo jedna osoba umrla. Stoga je presjedanje na vlak najbolja opcija.

U izgradnji AMA-a pojavljuje se dijalektika između teorija filozofa i eksperimentalnog testiranja tih teorija unutar računalnih sustava. Računala počinju služiti kao ispitni prostor za održivost ili praktičnost raznih teorija o donošenju odluka i etici.

Sveobuhvatan pristup etici

Sve u svemu, strojna etika je sama po sebi veliki misaoni eksperiment; ispitivanje je li donošenje moralnih odluka računski izvodljivo. A izgradnja moralnih strojeva prisiljava i filozofe i inženjere da pristupe etici na neobično sveobuhvatan način.

Filozofi obično pristupaju donošenju moralnih odluka kao aktivnosti koja se temelji na sposobnosti uma da rasuđuje. Primjena pravila i dužnosti ili razmatranje posljedica određenog postupka bitno je za određivanje koje su radnje prihvatljive, a koje nisu. Međutim, za većinu moralnih izazova na koje ljudi odgovaraju u svakodnevnom životu, sposobnost rasuđivanja ovisi o ogromnom rezervoaru znanja i iskustva. Emocije, savjest, razumijevanje onoga što znači biti akter u društvenom svijetu i uvažavanje uvjerenja, želja i namjera drugih, doprinose racionalnom radu kroz izazove, posebno tamo gdje su vrijednosti u sukobu. Nadalje, nesvjesni procesi često pokreću odgovore na mnoge izazove.

Kada razmatramo ljudsko moralno ponašanje, skloni smo uzeti zdravo za gotovo temeljne mehanizme mišljenja koji podržavaju sposobnost moralnog rasuđivanja ili ispoljavanja vrline kao što su hrabrost ili poštenje. Međutim, računalni znanstvenici razumiju da izgradnja sustava za obavljanje čak i jednostavnih zadataka zahtijeva mukotrpnu implementaciju temeljnih mehanizama koji podržavaju složene funkcije. Dio inženjerovog umijeća leži u prepoznavanju koji su podsustavi potrebni i koja će arhitektura podržati integraciju tih podsustava. The upravljačka arhitektura (ro)bota osigurava da njegove radnje budu unutar sigurnih parametara. Ova arhitektura kontrole mora sve više pokrivati ​​slučajeve u kojima je osjetljivost na moralna razmatranja ključna. A (ro)botičari su kroz iskustvo naučili da zanemarivanje čak i jedne male stvari može biti razlika između toga hoće li projekt biti uspješan, neće biti uspješan, neće li uopće funkcionirati ili će raditi destruktivno.

Strojna etika je multidisciplinarno područje koje zahtijeva doprinos računalnih znanstvenika, filozofa, društvenih planera, pravnih teoretičara i drugih. Različiti suradnici u dizajnu umjetnog moralnog agenta vjerojatno će se usredotočiti na vrlo različite aspekte donošenja moralnih odluka. Moralni filozof bi naglasio važnost analize računalnih zahtjeva za implementaciju teorije etike, kao što je kantijanizam, unutar (ro)bota. Evolucijski psiholog naglasio bi način na koji je evolucija stvorila urođene sklonosti društvenog djelovanja, možda čak i urođenu moralnu gramatiku [vidi prošli broj]. Razvojni psiholog mogao bi tražiti metodu za obrazovanje (ro)bota da bude osjetljiv na moralna razmatranja nadograđujući jednu fazu učenja za drugom. Majka bi, s druge strane, mogla naglasiti važnost toga da je stroj empatičan i brižan. Stjecanje pristupa i tumačenje slučajeva koji osvjetljavaju primjenu zakona na različite okolnosti bilo bi važno iz perspektive odvjetnika ili suca. Također bi bilo poželjno da sustav ima način da evaluira svoje postupke i uči na greškama iz prošlosti.

Konkretno, robotičar bi želio znati kako sustav može dobiti informacije koje su mu potrebne za donošenje dobrih odluka. Koji će senzori i memorijski sustavi biti potrebni (ro)botu? Kako će integrirati sve svoje informacije kako bi stvorio adekvatan prikaz svake situacije? Koji se odgovori na značajke u okruženju mogu ugraditi u sustav i kako će prepoznati izazove o kojima će morati razmišljati?

Inženjeri koji grade (ro)bota dizajnirat će različite module ili podsustave za rješavanje svakog od ovih zadataka. Međutim, njihovo kombiniranje u radni sustav čije je ponašanje sigurno i poštuje ljudske vrijednosti zahtijeva temeljitije razumijevanje mentalne mehanike etičkog odlučivanja nego što to trenutno postoji.

Ljudi su prilično nesavršeni u svojoj sposobnosti da djeluju moralno. Ali čak i ako će moralni (ro)botovi trebati neki oblik emocionalne inteligencije, ne moraju biti podložni željama, predrasudama ili strahovima koji stoje na putu ljudima da poštuju svoje bolje anđele. To otvara mogućnost da bi to mogli biti umjetni entiteti više moralniji od ljudi. Nadalje, (ro)botovi mogu biti manje ograničeni od ljudi u broju opcija koje mogu razmotriti kao odgovor na moralni izazov. Mogli bi odabrati bolji način djelovanja nego što bi njihov ljudski pandan mogao zamisliti. Međutim, također je moguće da je ljudsko moralno odlučivanje olakšano nečim bitnim što se ne može simulirati u (ro)botovima. Neki teoretičari tvrde da (ro)botovi nisu entiteti koji to mogu biti pravi donositelji moralnih odluka jer im nedostaje svijest, slobodna volja, moralni osjećaji ili savjest. Međutim, čak i ako je to točno, to ne isključuje praktičnu potrebu provedbe neki aspekte moralnog odlučivanja kod robota kako bi se osiguralo da njihovi izbori i radnje ne štete ljudima ili drugim entitetima vrijednim moralnog razmatranja.

Odozgo prema dolje, odozdo prema gore i nadracionalno

Tri široke kategorije korisne su za otkrivanje različitih dimenzija moralnog odlučivanja važnih za strojnu etiku. Ovi su:

Pristupi odozgo prema dolje . 'Odozgo prema dolje' odnosi se na korištenje pravila, standarda ili teorija za vođenje dizajna upravljačke arhitekture sustava (npr. Deset zapovijedi, utilitaristička maksima ili čak 'Tri zakona robotike' Isaaca Asimova). Ali koji bi, na primjer, bili računalni zahtjevi za računalo da slijedi Asimovljeve zakone?

Pristupi odozdo prema gore . Pravila nisu izričita definiran u pristupima odozdo prema gore – sustav o njima uči kroz iskustvo. U pristupu odozdo prema gore, (ro)bot istražuje različite pravce djelovanja, nagrađuje se za moralno hvalevrijedno ponašanje i uči. Teorija evolucije nadahnjuje neke od tehnika odozdo prema gore koje su usvojili računalni znanstvenici. S pojavom sofisticiranijih algoritama učenja, teorije moralnog razvoja, poput onih Jeana Piageta, Lawrencea Kohlberga i Carol Gilligan, nadahnut će druge pristupe odozdo prema gore za izgradnju naprednih moralnih agenata.

Nadracionalne sposobnosti . 'Nadracionalno' se odnosi na mentalne sposobnosti izvan sposobnosti rasuđivanja. Agenti zahtijevaju sposobnosti uz sposobnost rasuđivanja kako bi djelovali moralno u mnogim situacijama. Emocije, svijest, društvena oštroumnost i utjelovljenje u okruženju su među nadracionalnim sposobnostima bitnim za većinu moralnih odluka.

U svojim pričama o robotima, pisac znanstvene fantastike Isaac Asimov proglasio je tri zakona za koje je rekao da bi trebali voditi ponašanje robota (ne dopustiti da ljudi budu ozlijeđeni, pokoravati se ljudima i samoodržanje). Asimovljevi zakoni su ono na što mnogi ljudi prvo pomisle kada razmišljaju o pravilima za robote. Međutim, iz priče za pričom Asimov je pokazao da čak i ova tri prilično intuitivna principa poredana hijerarhijski mogu dovesti do bezbrojnih problema. Na primjer, što bi robot trebao učiniti kada primi proturječne naredbe od različitih ljudi? Asimovljeve priče ilustriraju granice svake moralnosti utemeljene na pravilima.

Dok se povijest moralne filozofije može čitati kao duga rasprava o ograničenjima koja su svojstvena različitim predloženim etičkim teorijama, teorije odozgo prema dolje ipak su očito polazište za raspravu o izgledima izgradnje AMA-a. Zlatno pravilo, utilitarizam i Kantov kategorički imperativ jedni su od pokušaja da se sva etička pravila podčine jednom prevladavajućem principu. Međutim, teoretičari otkrivaju da implementacija takvih principa u računalni sustav nipošto nije jednostavna vježba. Čak je i utilitaristički prijedlog da se izračuna neto korist različitih smjerova djelovanja kako bi se odredilo koji maksimizira najveće dobro za najveći broj daleko od trivijalnog. Za izvođenje takvog izračuna računalo bi zahtijevalo opsežno znanje o svijetu, o ljudskoj psihologiji i o učincima radnji u svijetu. Računalno opterećenje sustava bilo bi ogromno. Etika se ne može svesti na jednostavan algoritam.

Pristupi odozdo prema gore također imaju svoja ograničenja. Eksperimenti s umjetnim životom, genetski algoritmi i robotske tehnike sklapanja nadahnuti evolucijom daleko su od stvaranja složenih i sofisticiranih sposobnosti potrebnih za kognitivne procese višeg reda kao što je donošenje moralnih odluka. Algoritmi učenja koje su informatičari do danas razvili daleko su od toga da olakšaju čak i onu vrstu učenja kakvu vidimo kod vrlo male djece. Međutim, buduće obećanje provođenja umjetnog agenta kroz proces moralnog razvoja sličan načinu na koji djeca uče o dobrom i lošem je živo, čak i ako tehnologije potrebne za to još nisu dostupne.

David Hume je slavno upozorio protiv izvođenja an trebao bi od an je . Neki moralni filozofi to smatraju da se ne može odrediti što je ispravno i dobro iz moralne psihologije, iz načina na koji ljudi stvarno donose odluke. Ovi se filozofi bore da zadrže podalje teoretičare igara i evolucijske psihologe koji tvrde da je evolucija ugradila inherentne predrasude u strukturu uma određujući većinu onoga što ljudi vjeruju da je ispravno i dobro. Takvi su filozofi u pravu u svojoj želji da razdvoje rasuđivanje o onome što mi trebao bi učiniti iz proučavanja psiholoških mehanizama koji utječu na odluke. Međutim, njihovo pretjerano naglašavanje važnosti moralnog rasuđivanja pridonijelo je fragmentiranom razumijevanju moralnog odlučivanja.

Vještine rasuđivanja (ro)bota morat će biti podržane nizom drugih kognitivnih mehanizama koji će služiti kao izvori bitnih informacija i pomoći u oblikovanju bitnih značajki svakog izazova. Inženjeri su već uvidjeli da su emocionalna inteligencija, društvenost i dinamičan odnos s okolinom neophodni kako bi (ro)botovi kompetentno funkcionirali u društvenim kontekstima. Na primjer, (ro)bot će morati čitati izraze lica i druge neverbalne znakove kako bi razumio namjere i uvjerenja ljudi s kojima je u interakciji. Ovaj razumijevanje zahtijeva da (ro)bot ima funkcionalne vještine koje su često povezane s postojanjem svjestan (za razliku od biti samo računski , samo pokretanje programa ). (Ro)bot će također trebati teoriju uma – tj. morat će cijeniti da drugi imaju umove koji se razlikuju od njegovih pa će stoga imati uvjerenja, želje i namjere koje se razlikuju od onih (ro)bota.

Koliko će daleko inženjeri napredovati u ugrađivanju izrazito ljudskih atributa u svoje (ro)botove? Bogati inženjerski projekti koji su već započeti u poljima kao što su afektivno ('emocionalno') računalstvo, društvena robotika i strojna svijest iznenađuju mnoge ljude koji na računala i robote gledaju kao na puke strojeve. Međutim, malo je vjerojatno da će emocije, društvene vještine i (samo)svijest sami po sebi biti dovoljni za izgradnju AMA (čak i ako inženjeri mogu izgraditi podsustave u (ro)botove koji stvaraju supraracionalne sposobnosti). Morat će se kombinirati pristupi odozgo prema dolje, pristupi odozdo prema gore i supraracionalne sposobnosti. Izazov za filozofe i inženjere je odrediti potrebne kognitivne sposobnosti, računalne zahtjeve potrebne za podršku tim sposobnostima i dostupne tehnike za izgradnju tih sposobnosti u (ro)botu.

Budućnost strojnog morala

Na kraju bismo mogli imati umjetne sustave s inteligencijom usporedivom s ljudskom - tema koja izaziva veliko zanimanje, ali i tjeskobu. Mogu li se takvi sustavi smatrati moralnim agentima s pravima i odgovornostima? Bi li imalo smisla kazniti umjetnog agenta kada izvrši nemoralan ili nezakonit čin? Može li društvo osigurati da će napredni oblici umjetne inteligencije (AI) biti prijateljski nastrojeni prema ljudima? Ako ne, trebamo li zabraniti istraživanje umjetne inteligencije? Izgledi da bi budući inteligentni (ro)botovi mogli htjeti nadjačati ograničenja sugerira da bi moralne sklonosti trebale biti sastavni dio temelja složenih računalnih sustava, a ne tretirati ih kao dodatke ili sekundarne značajke.

Razmišljanja o mogućnostima mogu poslužiti kao fascinantni i prosvjetljujući misaoni eksperimenti. Na primjer, filozofi i pravni teoretičari smatraju da razmatranje kriterija za eventualno dodjeljivanje prava i odgovornosti (ro)botovima doprinosi boljem razumijevanju kada bilo koji agenta treba smatrati krivim.

S obzirom na relativno primitivno stanje istraživanja umjetne inteligencije, moral stroja je vrlo spekulativan. Ipak, teme koje graniče sa znanstvenom fantastikom često prikrivaju neposrednija razmatranja. Na primjer, strahovi da će superiorni (ro)botovi jednog dana ugroziti čovječanstvo naglašavaju društveni strah da je znanost nepouzdana, a tehnologija moćna sila koja je već izmakla kontroli.

U neposrednoj budućnosti, istraživanje moralnosti stroja bit će utemeljeno na izazovima koje postavljaju trenutno dostupne ili bliske tehnologije. Napredovat će kao kontinuirano istraživanje mogućnosti kompjuterizacije moralnog odlučivanja, potaknuto i praktičnim i filozofskim izazovima. Kako se razvijaju (ro)botovi s izričitim moralnim sposobnostima donošenja odluka, otvarat će se nova tržišta za genijalne proizvode. Međutim, neka od najznačajnijih istraživanja moralnosti strojeva bit će filozofske prirode, a sveobuhvatno razmišljanje o podučavanju (ro)bota dobrom od zla usmjerit će pozornost na mnoge aspekte moralnog odlučivanja koji su se često uzimali zdravo za gotovo. Izgradnja moralnih strojeva pruža platformu za eksperimentalno istraživanje donošenja odluka i etike. Sličnosti i razlike između načina na koji ljudi donose odluke i pristupa koji funkcioniraju u (ro)botovima reći će nam mnogo o tome kako mi ljudi funkcioniramo, a kako ne funkcioniramo, i mnogo o tome što smo i tko smo.

Wendell Wallach je predavač i konzultant na Interdisciplinarnom centru za bioetiku Sveučilišta Yale. Njegova i knjiga Colina Allena Moralni strojevi: podučavanje robota dobrom od krivog nedavno je objavio Oxford University Press.