必須加強人工智能發展的潛在風險研判和防范,制定相應規則,規范人工智能的發展,確保人工智能安全、可靠、可控
人工智能是引領這一輪科技革命和產業變革的戰略性技術,將對人們的生產生活產生深遠影響。比如,人工智能在研發新材料、預測蛋白質結構等方面具有優勢,有望進一步重塑科學研究范式;智能駕駛的普及,將改變城市規劃和交通管理方式……各行各業對人工智能的需求日趨增大的同時,經濟社會的方方面面正受到人工智能的多重影響。
隨著人工智能不斷取得突破,一些潛在的隱患和道德倫理問題也逐步顯現出來。例如,人工智能在安全、隱私等方面存在一定風險隱患:“換臉”技術有可能侵犯個人隱私,信息采集不當帶來數據泄露,算法漏洞加劇認知偏見……這說明,人工智能不單具有技術屬性,還具有明顯的社會屬性。唯有綜合考慮經濟、社會和環境等綜合因素,才能更好應對人工智能技術帶來的機遇和挑戰,推動其健康發展。人工智能的進一步發展,給人工智能治理帶來更多課題,亟待相關法律和倫理工作者作答。
為此,必須加強人工智能發展的潛在風險研判和防范,制定相應規則,規范人工智能的發展,確保人工智能安全、可靠、可控。要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德。只有正確處理好人和機器的關系,才能更好走向“人機混合”的智能時代。
目前,業界已經展開了一定程度的探索。譬如,構建有效的優化訓練數據集,防止人工智能生成對公共安全、生產安全等有害的內容;在編程設計階段,通過技術手段防止數據謬誤,增加智能系統的透明度和公平性;預先設立應急機制和應對措施,對人工智能使用人員進行必要培訓。這些舉措,都在技術層面進一步夯實了人工智能治理的基礎。
近年來,我國陸續發布《新一代人工智能倫理規范》《關于加強科技倫理治理的意見》《全球人工智能治理倡議》等,旨在提升人工智能治理能力,有效防控人工智能發展風險。各地區各行業也正在建立更加完善的多方治理機制,形成協作格局,貢獻治理智慧,共享治理成果。同時,我國還通過積極搭建人工智能發展各方參與的開放性平臺,推動形成具有廣泛共識的國際人工智能治理方案,向國際社會貢獻中國智慧。著眼長遠,在發展、應用的同時加強監管和規范,人工智能就能更好造福人類。(劉詩瑤)
評論