對于任何一個國家的政策制定者而言,不論可用的數(shù)據(jù)有多么不完美,作出決策的最佳方式都是基于證據(jù)之上。但是,當證據(jù)缺乏或者根本不存在時,國家領導人們應該如何做呢?這就是那些不得不應對“高級預測算法”帶來負面影響的人們面臨的窘境。所謂“高級預測算法”,是一種關于機器學習和人工智能的二進制構建模塊。
在學術圈里,關注人工智能的學者不是“奇點主義者”就是“現(xiàn)代主義者”。前者認為雖然人工智能會對人類構成一定威脅,但總體而言利大于弊;后者關注新技術的公平性、可追責性和透明度,譬如,他們擔憂自動化將對勞動力市場造成何種影響。
基于目前的研究結果,不存在“可供使用的真相”來支持兩者中任何一方的觀點。顯然,世界需要一個新的框架來分析和管理人工智能造成的技術擾動。
當前,絕大多數(shù)關于人工智能的決策都發(fā)生在“北半球”,這使得欠發(fā)達國家的擔憂沒有得到足夠的重視,管理軍民兩用技術也變得更加困難。更糟糕的是,政策制定者往往沒有考慮潛在的環(huán)境影響,僅僅關注對自動化、機器人和機器的人為影響。
而在人工智能領域采取預防性措施,將幫助重新平衡全球政策討論,在當前被企業(yè)利益壟斷的辯論中給予弱者更大的影響力。同時,決策過程也會變得更具包容性、更加深思熟慮,產(chǎn)出更能反映社會需求的解決方案。
此外,通過應用預防性原則,治理機構可以將責任的重擔轉移至算法創(chuàng)建者的身上。要求解釋算法決策過程可以改變誘因、防止“黑箱操作”,使得商業(yè)決策變得更加透明,令公共部門在技術研發(fā)方面有機會追趕上私營部門。與此同時,通過強迫企業(yè)和政府識別和考慮多種選項,預防性原則將會使得此前被忽視的問題,比如環(huán)境影響,受到關注。
在算法、機器學習和人工智能領域,人類承受不起等待的代價。預防性原則的美妙之處不僅在于它是建立的國際公共法的基礎上,還在于它在各種各樣的科學場景里構建了一種管理創(chuàng)新的框架。在進步帶來的益處無法眾人平等共享時,或者尚未造成不可逆轉的傷害時,我們應當歡迎它。
(本文作者為歐洲大學學院跨國管理學院政策問題學者馬切伊·庫茲穆斯基。)