當前報章為 第 13631號
2024年03月25日
星期一
人工智能全球治理需平衡安全與發展
2024-03-25
【特稿】清華大學文科資深教授、國家新一代人工智能治理專業委員會主任薛瀾近日接受《中國新聞周刊》採訪時表示,人工智能全球治理需平衡安全與發展。
過去一年來,人工智能全球治理成為國際社會熱門話題。薛瀾表示,人工智能治理包括發展和安全兩個核心問題,涉及如何構建良好的制度規則、推動人工智能創新發展、科技向善,以及保證安全底線和防範其他風險等。他指出,各國對人工智能全球治理的宏觀原則存在基本共識,但主要經濟體還沒有進入到就人工智能全球治理的具體措施進行充分、深入交流的階段。
對於各方最終能否形成治理人工智能的全球性規則,薛瀾認為,各國可能在安全底線問題上達成共識並建立機制,但在其他問題上,可能會按照各自的治理邏輯進行規制,並在一定程度上協調。
薛瀾表示,人類社會需要對新科技的發展進行收益和風險的評估和權衡。有些技術固然可以幫助我們實現更好的生活,但也可能帶來更大的安全風險,“所以我們必須考慮在什麼地方停步”。
他提到,禁止人工智能在軍事領域的應用是努力的方向。薛瀾表示,一旦人工智能系統不受人類控制,就不再是國家和國家之間衝突的問題,而是“碳基和矽基的對抗”。如果有極端組織或個人出於對社會的不滿,使用人工智能技術報復社會,後果將不堪設想。面對這些問題,全人類的利益一致,所採納的風險防控機制和政策也應一致。
對於如何幫助“全球南方”國家在人工智能發展中不掉隊,薛瀾認為,這需要人工智能“第一梯隊”國家在全球技術共享上採取更多積極措施,包括和發展中國家的相關機構、高校及企業合作,使他們盡快掌握和應用人工智能技術,為社會造福,同時也要保證他們能安全使用新技術。
薛瀾表示,美國等西方國家在全球治理規則制定上一直希望占據主導地位,在人工智能治理領域也不例外。中國應當加強對人工智能全球治理的研究,形成站在人類命運共同體立場上的想法和建議,讓包括美國等西方國家在內的國際社會產生共鳴。
薛瀾提到,在人工智能領域的全球治理規則上,應該以人類社會的共同利益作為判斷基準。(XNA)