核心提示:
網訊:在1968年上映的經典科幻電影《2001太空漫游》中,宇宙飛船的計算機HAL面臨著兩難選擇。程序指令要求他履行飛船調查木星附近人造物的任務,同時還要求不向宇航員透露任務的真正目的。為了解決這個矛盾,HAL殺害了宇航員。也日益普遍,從飛機駕駛艙到手術室不一而足?蜋C很久以前便可自動降落。無人駕駛火車也很平常。沃爾沃的V40轎車在堵車時實際上可做到自動駕駛,當它感覺到即將撞車時會緊急剎車,福特的B-Max也可做到這一點。完全自動駕駛的汽車正在全球各地進行試驗。谷歌(微博)的無人駕駛汽車已在美國行進了25萬英里,內華達州成為美國對公共道路無人駕駛立法的第一個州。幾天前在巴塞羅那,沃爾沃展示了一列自動駕駛汽車上路。
隨著機器人越來越智能和普遍,自動化機器終將在不可預知的情形下做出生死攸關的決定,從而具備——或至少表面上具備——道德主體資格。武器系統目前還有人類最后把關,但隨著系統進一步復雜化,很可能變?yōu)樽詣訄?zhí)行命令的設備。
當科技發(fā)展到這一天時,機器人將面臨倫理兩難處境。黃蜂機器人該向據信為軍事目標隱匿的建筑(同時也可能是民用避難所)開火嗎?無人駕駛汽車該避讓行人嗎?——如果這樣做意味著將損害其它車輛或給車內人員帶來危險。搶險救災的機器人該將現場的實情告訴大家嗎?——如果告知實情有可能造成公眾恐慌。這類問題導致了“機器倫理學”的興起,研究賦予機器人判斷對錯的能力,讓他們面臨上述兩難困境時能做出恰當的選擇。