他們的擔(dān)憂從何而來?人工智能開發(fā)會(huì)否危及人類的“文明控制權(quán)”?AI的發(fā)展是否已來到需要按下“暫停鍵”的轉(zhuǎn)折點(diǎn)?
一封公開信,四問AI風(fēng)險(xiǎn)
近期,美國(guó)億萬富翁埃隆•馬斯克和人工智能領(lǐng)域頂尖專家、圖靈獎(jiǎng)得主約書亞•本吉奧(Yoshua Bengio)等人聯(lián)名簽署了一封公開信,呼吁暫停開發(fā)比GPT-4更強(qiáng)大的AI系統(tǒng)至少6個(gè)月,稱其“對(duì)社會(huì)和人類構(gòu)成潛在風(fēng)險(xiǎn)”。
呼吁暫停巨型AI訓(xùn)練的公開信。圖片來源:“未來生命研究所”網(wǎng)站
這封發(fā)布在非營(yíng)利性組織“未來生命研究所”(Future of Life Institute)網(wǎng)站上的公開信主張,在開發(fā)強(qiáng)大的AI系統(tǒng)之前,應(yīng)先確認(rèn)其帶來影響是積極的、風(fēng)險(xiǎn)是可控的。
信中詳述了具有人類水平智能的AI系統(tǒng)可能對(duì)社會(huì)和人類帶來極大的風(fēng)險(xiǎn),稱“這一點(diǎn)已經(jīng)得到大量研究和頂級(jí)AI實(shí)驗(yàn)室的認(rèn)同”,并連續(xù)拋出四個(gè)疑問:
- 我們是否應(yīng)該讓機(jī)器用宣傳和謊言淹沒我們的信息渠道?
- 我們是否應(yīng)該讓所有的工作自動(dòng)化,包括那些令人滿意的工作?
- 我們是否應(yīng)該發(fā)展最終可能在數(shù)量上超過我們、在智能上超越我們、能夠淘汰并取代我們的非人類思維?
- 我們應(yīng)該冒著失去對(duì)我們文明控制的風(fēng)險(xiǎn)嗎?
公開信指出,如果不能迅速實(shí)施此類暫停,政府應(yīng)當(dāng)介入并采取措施。此外,“AI實(shí)驗(yàn)室和獨(dú)立專家應(yīng)該利用這次暫停,共同開發(fā)和實(shí)施一套用于高級(jí)AI設(shè)計(jì)和開發(fā)的共享安全協(xié)議,并由獨(dú)立的外部專家進(jìn)行嚴(yán)格審計(jì)和監(jiān)督”。
信中還呼吁開發(fā)人員和政策制定者合作,大幅加快強(qiáng)大的AI治理系統(tǒng)的開發(fā)。這其中至少應(yīng)當(dāng)涉及監(jiān)管機(jī)構(gòu)、審計(jì)和認(rèn)證系統(tǒng)、監(jiān)督和追蹤高性能AI系統(tǒng)、人工智能造成傷害后的責(zé)任問題、為AI技術(shù)安全研究提供公共資金等方面。
公開信在最后提到,如今,我們的社會(huì)已經(jīng)暫停其他可能造成災(zāi)難性影響的技術(shù),對(duì)于人工智能也應(yīng)該如此,“讓我們享受一個(gè)漫長(zhǎng)的‘AI之夏’,而不是毫無準(zhǔn)備地進(jìn)入秋天”。
技術(shù)、倫理、利益,呼吁放慢腳步為哪般?
從這些內(nèi)容中不難看出,比起技術(shù),公開信的支持者更在意的,是人工智能可能出現(xiàn)的“野蠻生長(zhǎng)”,以及它的發(fā)展可能帶來的社會(huì)和倫理難題。
公開信中提到,此番暫停并不意味著從總體上暫停人工智能的開發(fā),而是從危險(xiǎn)競(jìng)賽中“后退一步”。人工智能的研究和開發(fā)應(yīng)該重新聚焦于使當(dāng)今強(qiáng)大的、最先進(jìn)的系統(tǒng)變得更加準(zhǔn)確、安全、可解釋、透明、穩(wěn)健、一致、可信且可靠。
紐約大學(xué)教授加里•馬庫斯所人為,“這封信并不完美,但精神是正確的”,他認(rèn)為,人們需要放慢腳步,直到可以更好地理解這一切帶來的后果。
目前,該公開信已獲上千人簽署,其中不乏開源人工智能公司Stability AI首席執(zhí)行官莫斯塔克(Emad Mostaque)、谷歌母公司Alphabet旗下人工智能企業(yè)DeepMind研究人員、計(jì)算機(jī)科學(xué)家斯圖亞特•羅素(Stuart Russell)等專家學(xué)者和科技公司高管。
發(fā)布公開信的“未來生命研究所”則主要由馬斯克基金會(huì)、硅谷社區(qū)基金會(huì)等資助。特斯拉首席執(zhí)行官馬斯克正在將人工智能應(yīng)用于自動(dòng)駕駛系統(tǒng),他也一直坦率表達(dá)自己對(duì)人工智能的擔(dān)憂。
路透社還稱,歐洲刑警組織(Europol)日前也表達(dá)了對(duì)ChatGPT等先進(jìn)人工智能在倫理和法律方面的擔(dān)憂,警告此類系統(tǒng)可能會(huì)被濫用于網(wǎng)絡(luò)釣魚、虛假信息和網(wǎng)絡(luò)犯罪。此外,英國(guó)政府也公布了關(guān)于建立AI監(jiān)管框架的提議。
在網(wǎng)絡(luò)上,這封信也引起熱烈討論,有網(wǎng)友表示認(rèn)同,人們需要知道發(fā)生了什么,“僅僅因?yàn)槲覀冎揽梢越ㄔ焖?,并不意味著?yīng)該建造”。
但也有人懷疑馬斯克的動(dòng)機(jī),“馬斯克之所以會(huì)簽署它,因是為他想用自己的人工智能來賺錢。”
還有人分析,“這很可怕,但我認(rèn)為有些項(xiàng)目不需要停止。技術(shù)正在發(fā)展迅速,負(fù)責(zé)任的創(chuàng)新也是必要的。”
關(guān)于人類和AI關(guān)系的思考,從技術(shù)誕生之初就沒有停過。著名物理學(xué)家霍金也曾說過,“成功創(chuàng)造了人工智能,很可能是人類文明史上最偉大的事件。但如果我們不能學(xué)會(huì)如何避免風(fēng)險(xiǎn),那么我們會(huì)把自己置于絕境”?! ∪缃?,從通過資格考試,到進(jìn)行藝術(shù)“創(chuàng)作”,AI能做的事越來越多,朝著“智能”的方向越走越遠(yuǎn)。但同時(shí),利用AI技術(shù)進(jìn)行網(wǎng)絡(luò)詐騙勒索、傳播非法信息等犯罪行為也層出不窮。
不同于物理世界技術(shù)創(chuàng)新成果轉(zhuǎn)化的漫長(zhǎng)周期,AI技術(shù)突破往往會(huì)通過互聯(lián)網(wǎng)一夜之間散播全球。在人類未能就AI倫理、監(jiān)管等找到妥善解決之道前,這些討論和擔(dān)憂并不多余。