今天,我既兇殘又仁慈。我故意殺死了領取養老金者和幾條狗。我撞了無家可歸者,殺死了兩名運動員,軋過了肥胖者。但是,我始終努力救孩子。
我在“道德機器”(Moral Machine)——麻省理工學院(MIT)運行的一項公開實驗——上完成測試后發現,我的道德觀跟很多人不一樣。有些人辯稱,在道德困境上把公眾意見匯集到一起,是向無人駕駛汽車等智能機器賦予有限道德推理能力的有效手段。然而,在測試之后,我不相信眾包是形成殺戮道德(本質上就是這么回事)的最佳途徑。這個問題并不單純是學術層面的:一輛配備“半自動式”Autopilot的特斯拉(Tesla)汽車的駕車者死亡,導致該公司在中國被起訴。特斯拉否認那起事故的過錯在于該項技術。
任何人只要有臺電腦,利用咖啡時間就可以參加麻省理工學院的大眾實驗。該實驗想象一輛全自動駕駛汽車的剎車失靈。這輛車載滿了乘客,正朝行人開過去。實驗給出了這一“無軌電車難題”的13個版本。這是一個經典的道德難題,需要決定誰將死于一輛失控電車的車輪之下。
您已閱讀34%(434字),剩余66%(851字)包含更多重要信息,訂閱以繼續探索完整內容,并享受更多專屬服務。