研究者希望能給人工智能加上安全裝置,讓它真正行穩(wěn)致遠
人工智能用于醫(yī)療出現(xiàn)誤診誰擔責,是提供技術(shù)的公司,還是醫(yī)院、或者是醫(yī)生?
自動駕駛汽車上路發(fā)生交通事故,責任在車主還是車輛生產(chǎn)方?
并非所有人都有能力邁過技術(shù)性和社會性壁壘,未來會否出現(xiàn)“無用人群”?
……
人工智能浪潮方興未艾,正帶來知識生產(chǎn)和利用方式的深刻變革。不過,對研究者來說,還有一件更重要的事兒——人工智能的倫理道德問題。
當?shù)貢r間4月8日,歐盟委員會發(fā)布了一份人工智能(AI)道德準則。
據(jù)外媒報道,該準則由2018年12月公布的人工智能道德準則草案演變而來,提出了實現(xiàn)“可信賴人工智能”的7個要素。
此前的草案為“可信賴人工智能”提出了一個官方解釋:首先,它應(yīng)該尊重基本權(quán)利、規(guī)章制度、核心原則及價值觀,以確!暗赖履康摹保黄浯,它應(yīng)該在技術(shù)上強健且可靠,因為即使有良好的意圖,缺乏對技術(shù)的掌握也會造成無意的傷害。
歐盟負責數(shù)字經(jīng)濟的官員瑪利亞·加布里埃爾解讀了這7項要求。她認為,在人工智能使用上,“透明性”是一切的關(guān)鍵,同時也要“以人為本”。
加布里埃爾表示:“任何公司在使用人工智能技術(shù)時,其受眾都應(yīng)當具有知情權(quán)。人們應(yīng)該知道和他們進行溝通的是算法還是真人。同時,任何由算法做出的決定,都必須由公司出面解釋!
歐盟出臺準則的背后,是人工智能不可忽視的挑戰(zhàn)。
比如,在社交媒體中,人工智能將觀點相近的人相互聚攏,新聞推送也常常存在路徑依賴。當人們的信息來源越來越依賴于智能機器,偏見會在這種同化和路徑依賴中被強化。這時候,人工智能就可能造成偏見強化,加劇社會分化與撕裂。
再比如,人工智能的發(fā)展,讓技術(shù)的壟斷越來越嚴重。一方面這些技術(shù)給生活帶來便利,另一方面也在某種程度上控制著人類的生活。
在科學家看來,人工智能和其他技術(shù)特點不一樣,很多人工智能技術(shù)具有自主性,如果沒有適當?shù)姆婪洞胧,一旦失控就不堪想象!斑@就像在蓋房子之前要先打好地基。不能等到出現(xiàn)了嚴重的問題,再制定措施去防止。”
此前,研究人員一直希望以最簡單的辦法,確保以機器人為代表的人工智能不給人類帶來任何威脅。
大家所熟知的最早關(guān)于機器人的倫理規(guī)定,是著名科幻作家阿西莫夫上世紀設(shè)計的防止機器人失控的“機器人三定律”:機器人不能傷害人類;它們必須服從于人類;它們必須保護自己。后來又加入了“第零定律”:機器人不得傷害人類整體,不得因不作為使人類整體受到傷害。
但是隨著人工智能不斷發(fā)展,“機器人三定律”已經(jīng)遠不能適應(yīng)時代。
新的倫理原則制定也正提上各國政府的議事日程。綜合看來,盡管新原則各有不同,但突出以人為本的理念始終不變。百度公司創(chuàng)始人李彥宏在2018年中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上提出了“人工智能倫理四原則”,首要原則就是安全可控。
顯然,人工智能正幫助人類社會向充滿不確定性的未來疾馳。在沖進未知之門前,需要給它裝上安全裝置,讓它真正能行穩(wěn)致遠。
去年,中國發(fā)展研究基金會發(fā)布報告《未來基石——人工智能的社會角色與倫理》中,就建議各國政府促進數(shù)據(jù)共享技術(shù),為人工智能培訓和測試提供共享的公共數(shù)據(jù)集。在個人信息得到保護的前提下,促進數(shù)據(jù)的自由流通;并加強國際合作,建立多層次的國際人工智能治理機制。
歐盟委員會也表示,提出人工智能道德準則只是第一步,未來他們還將邀請工業(yè)界、研究機構(gòu)和政府機構(gòu)對該準則進行測試和補充,最終制定以人為本的人工智能共識。