中國政府最近宣布,計(jì)劃投入大量資金發(fā)展人工智能產(chǎn)業(yè),目標(biāo)到2030年使中國在該領(lǐng)域處于世界領(lǐng)先水平。近幾十年來,一場技術(shù)革命不僅改變了世界,也變革了我們生活、工作和溝通的方式,而人工智能則代表著這場技術(shù)革命的最新目標(biāo)。
在人工智能領(lǐng)域,中國計(jì)劃在2020年趕上美國等競爭對手,然后在接下來的十年時間里超越他們,使得人工智能成為經(jīng)濟(jì)轉(zhuǎn)型的驅(qū)動力。
這些承諾聽上去擲地有聲,但人們不禁要問人工智能究竟是什么呢?
絕大多數(shù)普通人的腦海里會浮現(xiàn)出自動駕駛汽車,并對自動駕駛汽車的潛在優(yōu)勢欣賞不已。不過,對于很多人而言,想到機(jī)器終有一天會比人類更智能,就會聯(lián)想到科幻小說里預(yù)測的未來場景——機(jī)器掌控世界,如噩夢般可怕。
如果我們想要避開潛在危險,人工智能應(yīng)當(dāng)朝著何種方向發(fā)展?對于這個問題,甚至就連技術(shù)專家們也存在分歧。
伊隆?馬斯克是美國電動汽車巨頭“特斯拉”(Tesla)和太空探索技術(shù)公司“Space X”的首席執(zhí)行官(CEO),他最近半開玩笑半認(rèn)真地說,人類之所以應(yīng)當(dāng)開拓火星殖民地,是因?yàn)榫哂兴伎寄芰Φ臋C(jī)器人注定要接管地球,屆時火星可以成為人類的避難所。這位人工智能懷疑論者擔(dān)憂,人類會意外地為科技所害、導(dǎo)致自我毀滅。早在2014年,他就把人工智能稱為人類最大的存在性威脅。
英國著名物理學(xué)家史蒂芬?霍金也發(fā)出過類似的警示。
部分科技創(chuàng)新者則持更加輕松的心態(tài)。雷蒙德?庫茨魏爾是人工智能領(lǐng)域頂尖的技術(shù)開發(fā)人員,他相信合理的掌控可以防范末日世界的到來,他以生物技術(shù)的發(fā)展為例,宣稱生物技術(shù)指導(dǎo)準(zhǔn)則在過去數(shù)十年間運(yùn)作良好?!斑^去39年沒有發(fā)生過任何嚴(yán)重問題,無論是意外還是有意為之,”庫茨魏爾2014年在一篇博客中寫道,“我們看到醫(yī)療領(lǐng)域取得重大進(jìn)步、投入臨床實(shí)踐,到目前為止,人們擔(dān)憂的問題都沒有發(fā)生?!鄙锛夹g(shù)曾一度被視作人類面臨的潛在威脅,有人擔(dān)憂不法科學(xué)家或利用該技術(shù)篡改人類的DNA。
庫茨魏爾等人認(rèn)為,人類過去面臨過不少存在性挑戰(zhàn),但總是跨越了阻礙。這種觀點(diǎn)令人感到安慰。自古以來絕大多數(shù)新發(fā)明新創(chuàng)造都存在潛在的兩面性,可用于善可用于惡。像是原始人的長矛可以用來獵取食物,也能用作殺人的武器。再比如,中國古代四大發(fā)明之一的火藥,如果只被用來制做煙花而不是被他人用于戰(zhàn)爭,人類社會可能會變得更好。
但是,正如我們絕大多數(shù)都承認(rèn)的,人類不能停止進(jìn)步。人工智能遲早會變成現(xiàn)實(shí),好消息是全世界的科學(xué)家正在攜手合作,確保人工智能不會遭到濫用。
過去十年間,美國麻省理工學(xué)院(MIT)開始在人工智能及其他高科技領(lǐng)域與清華大學(xué)等中國科研院所進(jìn)行合作。MIT在一份2010年的報(bào)告中寫道:“如果我們要參與到全球性問題的解決當(dāng)中來,不論是可持續(xù)城市、氣候變化、資源枯竭、疾病控制,還是其他,我們都必須理解并讓中國參與其中。”
隨著中國計(jì)劃在人工智能研發(fā)領(lǐng)域占據(jù)領(lǐng)先地位,中國和中國的國際合作伙伴也應(yīng)看到這項(xiàng)新技術(shù)可能會在就業(yè)和全球安全領(lǐng)域產(chǎn)生潛在破壞性后果。
正如全球人工智能專家、谷歌云全球首席科學(xué)家日前接受采訪時所言,人工智能既可以用來造福人類,也可能會造成極為惡劣的后果,關(guān)于人工智能的討論,“硅谷的業(yè)界領(lǐng)袖、院校的教授學(xué)生、立法者、政策制定者、教育屆人士……所有人都應(yīng)當(dāng)加入進(jìn)來”。(編譯:諶融)
本文作者為《中國日報(bào)》高級編輯顧問哈維?莫里斯。