圖片與內(nèi)容不符 呂甲 攝
英國《自然》雜志近日在線發(fā)表了一項人工智能(AI)研究:美國麻省理工學院(MIT)報告了全球道德偏好調(diào)查,調(diào)查內(nèi)容為:在無法避免的事故中,無人駕駛汽車應如何作出決定拯救哪一方。研究結(jié)果結(jié)合了全球參與者貢獻的約4000萬個決策,為制定社會普遍接受的人工智能(AI)道德標準提供了重要借鑒。
無人駕駛汽車不僅要能導航路線,還要在不可避免的事故中自行應對道德困境,因此,需要制定一套道德準則來指導AI系統(tǒng)處理這類場景。如果無人駕駛汽車大量投入使用,就必須先確定社會普遍接受的道德準則。
MIT研究團隊此次搭建了一個名為“道德機器”的大型在線調(diào)查平臺,用來統(tǒng)計全球公民的道德偏好。實驗將參與者置身于一個不可避免的事故場景中,事發(fā)時一輛無人駕駛汽車正行駛在雙行道上。每個場景都會讓行人和乘客身處不同的危險,而汽車可以選擇不變道,或急轉(zhuǎn)到另一條道上。參與者必須選擇救誰,并決定汽車的前進路線。這項實驗共記錄了約4000萬個此類決定。
研究人員識別出了許多共同的道德偏好,諸如救多數(shù)不救少數(shù)、救年紀小的不救年紀大的、救人不救動物。同時還發(fā)現(xiàn)了不同文化之間的道德偏好差異,例如,來自中美洲和南美洲國家、法國以及前法屬海外領地和現(xiàn)法屬領地的參與者,呈現(xiàn)出先救女性和強壯個體的強烈偏好;而來自收入差距較大國家的參與者在決定救誰時,往往會考慮其社會地位。
科學家最后指出,放手讓汽車進行道德抉擇之前,有必要進行全球性的對話,將我們的偏好告知那些道德算法設計公司以及執(zhí)行監(jiān)管的政策制定者。 (張夢然)
責任編輯: