未來10—20年,AI技術將滲透至與人類密切相關的領域,比如醫療、司法、生產、金融科技等風險敏感型領域,AI技術如果犯錯,就會造成較大系統風險。”2020年12月29日,在未來科學大獎周舉辦的“青年對話”活動中,清華大學計算機系長聘副教授、中國科協全國委員會委員崔鵬說。
活動中,騰訊科學技術協會秘書長張謙表示,面對AI技術所引起的風險問題,首先應該關注的是守住AI產品底線,即避免技術作惡。
在這方面,美團首席科學家夏華夏認為,法律法規方面需要做大量工作,包括制定AI行業的標準、規范,以及從國家層面完善、出臺相關法律法規,從而對AI技術發展進行把控。
談及AI標準化的實踐,中國人民大學法學院副教授、未來法治研究院社會責任和治理中心主任郭銳提到兩個原則——人的根本利益原則和責任原則,“這兩個原則的宗旨是讓AI的決策和行動盡可能通過人的干預來避免對人的傷害”。
“徒法不足以自行。”郭銳坦言,法律本身也存在局限,規避AI技術潛在風險,需管理者對AI技術有透徹的了解,這樣才能對其進行有效管制,“法律是建立包容性社會的重要工具,法律界要和企業、技術等方面專家合作,這樣通過法律來對AI技術進行管理約束的目標才能達成。”
星界資本管理合伙人方遠認為,各大核心數據平臺處于AI風險管理的重要位置,“在互聯網和大數據時代,大平臺是數據的采集者也是守護者。務必要對數據使用權做出清晰界定,這對整個社會的AI發展有重要意義”。
“AI技術的風險治理需要科技工作者、企業管理者、政策制定者、相關法律專家以及投資人多方努力。”中科院計算所研究員山世光說。
除了守住底線,與會者還提到,要厘清邊界,引導技術向善。
崔鵬指出,犯錯并非AI特有的風險,人也會犯錯。“但人犯錯大多數可控、可預測。而目前AI技術犯錯的話是不可預測的,或者犯錯后人們會發現其犯錯機制是無法從技術層面解釋的。這涉及到AI在決策和行為上的邊界問題。”
厘清邊界具體包括AI需要明白它會什么、不會什么,以及人需要明白AI什么事能做、什么事不能做等問題。崔鵬認為,如不厘清邊界,AI還會犯更多低級錯誤,帶來更大風險。
郭銳認為,目前AI遇到的倫理問題,實際上是因為它遠未達到人類智能的程度,卻已被賦予為人類做決策的責任,“還有人把AI技術當作借口,用科學的名義做不符合倫理的決策,這樣做是不對的。需要人決策的地方應該由人決策”。
2020年新冠肺炎疫情期間,英國用一套算法得出學生成績,結果近40%的學生成績低于教師的預估分數,導致很多學生與名校失之交臂。山世光說,有些人工智能模型或數據模型沒有考慮到社會公平、優勢累計惡果,導致看起來運算過程很嚴謹、結果很準,但卻并不足以支持AI做出科學決策。
有專家表示,這并非AI技術的錯。夏華夏說,真正應承擔社會責任的是使用AI技術的人、企業等。AI技術向善需要社會整體文明發展到一定階段,形成良好氛圍。張謙則提到,技術并不可怕,可以通過技術進一步發展解決技術存在的問題。
山世光稱:“說到底,我們還是希望AI技術能得到健康發展,滿足對科技真、善、美的追求。”