(相關(guān)資料圖)
近日,在2022人工智能合作與治理國際論壇上,專家圍繞該話題進(jìn)行了討論。
中國工程院院士、鵬城實驗室主任高文認(rèn)為,現(xiàn)階段很多技術(shù)還處于發(fā)展的過程中,如果過早地說這個不能用、那個不能用,可能會抑制技術(shù)本身的發(fā)展。但反過來,如果什么都不管,也不行。
“因此,現(xiàn)在更多還是從道德層面多進(jìn)行引導(dǎo)。同時,做技術(shù)的人,也要盡量把一些可能的風(fēng)險、抑制工具,即約束風(fēng)險的工具,盡快想明白。自己也做,同時號召大家做,兩者結(jié)合。”他說。
清華大學(xué)智能產(chǎn)業(yè)研究院國強(qiáng)教授、首席研究員聶再清認(rèn)為,我們要保證能夠創(chuàng)新,但同時不能讓創(chuàng)新對我們的生活產(chǎn)生破壞性的影響,最好的辦法就是把責(zé)任歸結(jié)到個人。
“技術(shù)的背后是有人在控制的。這個人應(yīng)該時刻保證工具或創(chuàng)新在危險可控的范圍內(nèi)。同時,社會也要進(jìn)行集體的監(jiān)督,發(fā)布某個產(chǎn)品或技術(shù),要能夠召回、撤銷。在創(chuàng)新和監(jiān)管之間,當(dāng)然是需要平衡的,但歸根結(jié)底,還是要把責(zé)任落實到個人身上。”他指出。
瑞萊智慧RealAI公司聯(lián)合創(chuàng)始人、首席執(zhí)行官田天補(bǔ)充道,在技術(shù)可解釋性方面,需要去進(jìn)行技術(shù)發(fā)展與相應(yīng)應(yīng)用場景的深度結(jié)合。大家需要一個更加可解釋的AI模型,或者更加可解釋的AI應(yīng)用。
“但我們真正想落地的時候,會發(fā)現(xiàn)每個人想要的可解釋性完全不一樣。比如:模型層面的可解釋,可能從研發(fā)人員角度覺得已經(jīng)很好了,但是從用戶的角度是看不懂的,這需要一些案例級的解釋,甚至通過替代模型等方式進(jìn)行解釋。因此,在不同領(lǐng)域,需要不同的可解釋能力,以及不同的可解釋級別,這樣才能讓技術(shù)在應(yīng)用場景發(fā)揮最好的作用。”他說。
將倫理準(zhǔn)則嵌入到人工智能產(chǎn)品與系統(tǒng)研發(fā)設(shè)計中,現(xiàn)在是不是時候?
高文認(rèn)為,人工智能軟件、系統(tǒng)應(yīng)該有召回的功能。如果社會或倫理委員會發(fā)現(xiàn)這樣做不對,可能帶來危害,要么召回,要么撤銷。
高文說,應(yīng)用的開發(fā)者,系統(tǒng)提交或者最終用戶讓他去調(diào)整的時候,他應(yīng)該有責(zé)任。如果開發(fā)者發(fā)現(xiàn)已經(jīng)踩線了,應(yīng)該給他一個保護(hù)機(jī)制,他可以拒絕后面的支持和維護(hù),甚至可以起訴。“不能只說哪一方不行,光說是開發(fā)者的責(zé)任,他可能覺得冤枉,因為他只提供工具,但有時候是有責(zé)任的,只是說責(zé)任怎么界定。”
“在人工智能的發(fā)展過程中,一方面要建立一些紅線。”田天建議,比如,對于人工智能的直接濫用,造假、個人隱私泄露,甚至關(guān)聯(lián)到國家安全、生命安全的,這些領(lǐng)域一定要建立相關(guān)紅線,相應(yīng)的懲罰規(guī)定一定要非常清晰,這是保證人工智能不觸犯人類利益的基本保障。
“在這個基礎(chǔ)上,對于處于模糊地帶的,希望能留有更多空間。不光是從限制角度,也可以從鼓勵更加重視倫理的角度,促進(jìn)合規(guī)地發(fā)展。”田天稱。
2022人工智能合作與治理國際論壇由清華大學(xué)主辦,清華大學(xué)人工智能國際治理研究院(I-AIIG)承辦,中國新聞網(wǎng)作為戰(zhàn)略合作伙伴,聯(lián)合國開發(fā)計劃署(UNDP)、聯(lián)合國教科文組織(UNESCO)等國際組織、國內(nèi)外學(xué)術(shù)機(jī)構(gòu)支持。(中新財經(jīng))