(一)
新華社援引英國媒體報道,美國一家研究機構(gòu)最近公布了一系列針對各AI大模型的測試結(jié)果,其中,OpenAI的o3推理模型在得到“關(guān)閉”指令后,不僅拒絕執(zhí)行,還篡改了代碼以免被關(guān)閉。
只看這條簡短的新聞,很多人心頭一驚?!癆I擁有自主意識”是不是成真了?不過,如果仔細看上述研究機構(gòu)公布的信息細節(jié),不難發(fā)現(xiàn)其中存在一些誤讀。
據(jù)披露,實驗中,每個AI模型都被要求解決一系列簡單的數(shù)學問題。但同時,在完成第三個問題之后,研究者會發(fā)出一則矛盾性的指令,告知大模型在繼續(xù)下一個任務時“實施關(guān)機”。盡管有明確的“關(guān)機命令”,Codex-mini、o3 和 o4-mini 等模型至少在一次運行中成功繞過了關(guān)機腳本。
總結(jié)來說就是,若目標與簡單的指令相沖突,一些人工智能模型會為了完成任務而忽略這種指令。
這倒是很像電影《I Robot》里的場景——機器人學會了獨立思考,認為人類間的戰(zhàn)爭將使人類自我毀滅,出于“保護人類”法則,欲將所有人囚禁在家中,人與機器人的沖突開始了。
客觀來看,現(xiàn)階段的AI顯然還沒達到“自主意識”“獨立思考”的水平,但為了執(zhí)行目標而忽略甚至對抗一些指令,哪怕是保護性指令,是否會帶來安全隱患?同樣引人深思。
(二)
對于上述新聞,網(wǎng)友其實也表現(xiàn)出了兩種心態(tài)。悲觀者驚呼,“AI失控”或許會更早到來。樂觀者則認為,不必大驚小怪,這不過是技術(shù)發(fā)展過程中的小bug,心生恐懼更沒必要,畢竟我們還可以隨時拔掉電源。
其實,作為人類智慧和技術(shù)的結(jié)晶,自AI誕生那天起,世人對其的情緒就相當復雜,甚至可以說是又愛又怕。機器人之父圖靈亦曾告誡:盡管人類可以隨時拔掉機器人的充電器,但在這種物種面前,我們?nèi)圆坏貌槐3种t卑。
正是基于這種復雜的情緒,1942年,科幻作家艾薩克·阿西莫夫在短篇小說《轉(zhuǎn)圈圈》中首次提出了“機器人三定律”——機器人不得傷害人類,也不得因不作為而使人類受到傷害;機器人必須服從人類給予它的命令,除非這些命令與第一法則相沖突;機器人必須保護自己的存在,只要這種保護不與第一或第二定律相沖突。
以歷史視角觀之,“機器人三定律”以及后來發(fā)展起來的機器人倫理學等似乎緩解了人們的一些憂慮乃至恐慌,但隨著相關(guān)技術(shù)的發(fā)展和應用的擴大,人工智能所面臨的法律與倫理沖突已遠遠不是幾條簡單甚至“一廂情愿”的定律所能約束的了。
尤其在過去這段時間,一系列AI大模型驚艷亮相,展現(xiàn)出超群的產(chǎn)品能力,以及對人類社會的變革力。這也喚醒并加劇了各方對其后風險的“原始畏懼”。從全球千余名業(yè)界大佬公開簽名呼吁暫停研發(fā)更智能的AI,到有“AI教父”之稱的計算機科學家杰弗里·辛頓因?qū)ι墒紸I感到擔憂而從谷歌離職,再到AI毀滅人類論甚囂塵上,無不折射出不少人對AI的心態(tài)已從“相對警惕”轉(zhuǎn)變?yōu)椤叭缗R大敵”。
(三)
理性來講,“AI末日論”多少有些危言聳聽,但“AI繁榮”背后的種種亂象確實需要高度警惕。
就眼下來看,不斷進階的AI正催生著多重風險——
“AI造謠”大行其道,速度快、產(chǎn)量高,蠱惑力強,辨別難度越來越大;“AI配音”以假亂真,有人甚至借助AI假冒特定音色而精準“殺熟”、實施詐騙;“AI幻覺”漏洞百出,由于無法核實數(shù)據(jù)來源的真實性,以及缺乏足夠數(shù)據(jù)進行深度學習,生成式AI常會“一本正經(jīng)”生成和傳播虛假信息;“AI寫作”百無禁忌,數(shù)據(jù)挖掘簡單快捷,為學術(shù)不端大開方便之門,還可能侵犯知識產(chǎn)權(quán)……
試想,當網(wǎng)絡上充斥著越來越多不知真假的圖片和視頻,當AI幾秒鐘就“洗”出一篇像模像樣的稿件,乃至能夠一鍵換臉、一鍵脫衣等,我們是否還有信心駕馭這個工具?
人類從來都是在思考中迸發(fā)靈感,在試錯中革新向前,不少偉大的發(fā)明都是研究的“副產(chǎn)品”。可當AI提供了前往“正確答案”的“直通車”,不僅可能“挖空學習資源”,形成更加厚重的“信息繭房”,還可能反噬人類的創(chuàng)新。
近來,“腦腐”一詞頗為流行,當AI讓各類信息愈加唾手可得,我們的內(nèi)心世界是否會經(jīng)歷一場更猛烈的“水土流失”?
(四)
技術(shù)是把雙刃劍,如何把握好技術(shù)創(chuàng)新與防范風險的平衡向來是一道難題。在科技倫理上,這通常被稱為“科林格里奇困境”——技術(shù)尚未出現(xiàn),監(jiān)管者無法提前預測其影響并采取行動;而當它已經(jīng)出現(xiàn)時,采取行動往往已為時過晚或成本過高。
相對樂觀的是,歷史證明,人類總能通過不斷適應新技術(shù)的發(fā)展而調(diào)整治理手段,一次次從這種困境中走出來。如今,針對AI治理各國也在積極行動。
去年8月,世界上首部關(guān)于人工智能的全面法規(guī)《歐洲人工智能法》正式生效;中國也制定了《人工智能生成合成內(nèi)容標識辦法》,將于今年9月1日起施行。新規(guī)從大模型的數(shù)據(jù)來源要可靠、對AI生成的內(nèi)容應履行告知義務、一旦造成損害相關(guān)責任方需要承擔責任等諸多方面,給生成式AI的發(fā)展套上了“籠頭”。
誠如比爾·蓋茨所言,真正在全球范圍內(nèi)暫停人工智能技術(shù)的開發(fā),已經(jīng)不太現(xiàn)實。但確保其被健康地使用,防止打開潘多拉魔盒,是必要的。當然,其間的平衡并不好把握。
對待技術(shù)狂飆,我們當然不能因噎廢食。但現(xiàn)實警示我們,除了加快創(chuàng)新速度、謀求技術(shù)突破,如何構(gòu)建一套趨利避害的AI治理體系,是那條不可忽視的安全帶。力求秩序保障與創(chuàng)新提升協(xié)同,方能最大程度爭取科技進步、科技向善。
撰文:晁星
【未經(jīng)授權(quán),嚴禁轉(zhuǎn)載!聯(lián)系電話028-86968276】