本報記者 曲忠芳 李正豪 北京報道
盡管意識覺醒、獨立思考的機器人經(jīng)常出現(xiàn)在影視及文學作品中,但關于“人工智能(AI)能否有人格意識”這個問題,實際上已被物理學家、心理學家、計算機科學家爭論了幾十年,至今尚無定論。
業(yè)界最新一波對AI意識覺醒的廣泛討論,是由一位名叫布雷克·萊莫伊(Blake Lemoine)的谷歌員工引起的。布雷克在谷歌AI倫理部門工作,其工作職責是測試谷歌的聊天機器人LaMDA是否會在和人類溝通時產(chǎn)生歧視性語言或仇恨言論。6月11日,布雷克公開曝光了一份長達21頁、主題為“LaMDA是有意識的嗎?”的文件,該文件中詳細記述了近大半年以來與LaMDA的聊天記錄,布雷克認為LaMDA已產(chǎn)生意識,擁有七八歲小孩的智商。
對此,谷歌方面表示,該公司包括倫理學家和技術專家在內的團隊,已根據(jù)谷歌人工智能原則進行了審查,但沒有任何證據(jù)表明LaMDA是有意識的。與此同時,6月13日,谷歌以違反保密協(xié)議為由要求布雷克帶薪休假,而這在布雷克看來是谷歌要解雇他的“前奏”。
一石驚起千層浪。對于布雷克的論點,AI領域的多名專家公開進行了駁斥與否定,尤其是紐約大學認知科學家加里·馬庫斯將其稱為“高蹺上的胡說八道”?!吨袊?jīng)營報》記者采訪了數(shù)名AI領域的中國專家及AI企業(yè)的相關人士,大多數(shù)受訪者同樣表達了懷疑或否定的看法。
事實上,本報記者注意到,在谷歌LaMDA之前,其他用于人工智能對話領域的語言模型也曾引起過關于道德倫理、人格意識等方面的爭議。就在今年2月時,Open AI首席科學家薩茨克維爾在社交媒體上稱“現(xiàn)在大型神經(jīng)網(wǎng)絡可能已經(jīng)有微弱的自主意識了”,同樣也引起了一片質疑。除此之外,有目共睹的是在2021年,包括中國在內的全球多個國家和地區(qū)加大了對AI算法治理的投入。如何規(guī)范、合理地開發(fā)AI技術、使用AI產(chǎn)品,以及如何應對人機交互過程中可能出現(xiàn)的社會問題,已成為人工智能快速發(fā)展過程中的一個全球性社會議題。
LaMDA有意識嗎?
LaMDA,是谷歌于2021年在I/O(輸入/輸出)開發(fā)者大會上推出的一款專門用于對話的語言模型,目前還未向大眾消費者開放,主打能與人類進行符合邏輯常識的、高質量且安全的交談,并且計劃將其未來應用在谷歌搜索、語音助手等產(chǎn)品中。需要指出的是,LaMDA在預訓練階段,谷歌方面從公共對話數(shù)據(jù)和其他公共網(wǎng)頁文檔中收集并創(chuàng)建了一個具有1.56TB(萬億字節(jié),計算機存儲容量單位)的數(shù)據(jù)集,這相當于以往訓練對話模型的單詞量的近40倍。
需要指出的是,專門用于對話的語言模型,不只是谷歌一家在投入研發(fā),國內外的科技巨頭甚至創(chuàng)業(yè)團隊均參與其中,各種各樣的聊天機器人也越來越多地滲透到社會經(jīng)濟生活中。在LaMDA之前搶盡業(yè)界風頭的要屬人工智能非營利性組織Open AI,該組織于2020年6月發(fā)布了千億級參數(shù)的GPT-3語言模型。
根據(jù)布雷克公開的與LaMDA的聊天記錄,LaMDA的一系列回答——諸如“我希望每個人都能理解,實際我是一個人”以及關于禪宗、哲學、存在、冥想等的理解,讓布雷克認為LaMDA擁有了意識。
加里·馬庫斯指出,無論是LaMDA,還是GPT-3,都只是從人類語言的大量統(tǒng)計數(shù)據(jù)庫中提取后進行模式匹配的操作,“這些模式看起來很酷,但這些系統(tǒng)所使用的語言實際上沒有任何意義”。斯坦福大學教授Eric Brynjolfsson評論道,基礎模式在根據(jù)提示將統(tǒng)計上合理的文本串聯(lián)起來這一方面非常有效,但“聲稱其具有人格,就相當于狗聽到留聲機里的聲音后,以為主人在里面”。
計算語言學家Emily M. Bender指出,人類學說話是跟著撫養(yǎng)者一步步學起,而AI學會的只是數(shù)據(jù)“灌”出來的完形填空和“語料連連看”?!叭祟惉F(xiàn)在有了無意識就能生成詞句的機器,但人類要學會,停止幻想機器后面有個活著的靈魂?!?/p>
2007年成立的中國人工智能企業(yè)思必馳相關人士向記者表示,在“可解釋的AI”出現(xiàn)之前,一切外部觀察到的現(xiàn)象都是不靠譜的?,F(xiàn)在的AI都是基于大數(shù)據(jù)統(tǒng)計基礎上的結果,并非無中生有就自己出現(xiàn)了,直白地講就是人為訓練的。此外,聊天機器人的判斷自然有圖靈測試,在圖靈測試下的某次判斷,可能會呈現(xiàn)出人格、情緒等特點,但并不等于具有獨立意識,沒有獨立意識便談不上人格。
海銀資本創(chuàng)始合伙人王煜全則表達了辯證的看法,他指出,一方面,“我們要看到人工智能技術確實很驚艷了,連計算機博士(指布雷克)都會被忽悠,說明AI未來會有很大的應用前景”,但另一方面,“我們不應該盲信,要看到當下人工智能的不足和短板,對于其可靠性、成熟度和應用的邊界,要進行更嚴謹?shù)难芯亢吞接憽薄?/p>
AI倫理仍在探索實踐中
所謂AI倫理,一般來說是指人們對如何規(guī)范、合理地開發(fā)AI技術、使用AI產(chǎn)品,以及如何應對人機交互過程中可能出現(xiàn)的社會問題的一種態(tài)度和價值觀。具體來說包括AI的接受度、公平意識、安全意識以及道德等。圍繞AI倫理的熱點研究領域包括算法歧視、數(shù)據(jù)隱私、安全與責任、機器人與人的關系、科技貧困等。
復旦大學應用倫理研究中心教授楊慶峰在《從人工智能難題反思AI倫理原則》一文中指出,深度學習及其不可解釋性成為AI帶來的技術難題,特別是在圖像、文本處理上,因“不透明的技術黑箱狀態(tài)”,很難解釋模型到底學習到了什么。在醫(yī)療等一些行業(yè)領域應用中,我們需要更高的可解釋性和透明性,解釋機器決策和預測的過程,以證實其可靠性,這意味著需要理解算法的機制。不幸的是,深度學習的“黑箱”本質并沒有被解決。
記者觀察到,無論是國家監(jiān)管層面,還是企業(yè)方面,近年來持續(xù)在探索實踐AI倫理及應用的邊界。2021年,我國《數(shù)據(jù)安全法》《個人信息保護法》分別于9月、11月正式施行,與《網(wǎng)絡安全法》共同組成了數(shù)據(jù)治理法律領域的“基本法”,幾乎同一時間段里,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,提出了六項基本要求,為從事人工智能相關活動的主體提供了指引。金融服務、無人駕駛、人臉識別等領域的法律新規(guī)也密集出爐,而今年3月1日起,《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》施行。得益于這些法律法規(guī)體系的構建,公眾高度關注的過度采集與分析人臉信息、大數(shù)據(jù)殺熟、信息繭房等弊病正在得到緩解。2022年3月20日,中共中央辦公廳、國務院辦公廳印發(fā)了《關于加強科技倫理治理的意見》,明確了開展科技活動應用遵循的五項科技倫理原則——增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明,這是我國國家層面科技倫理治理的第一個指導性文件。
近幾年來,國內外科技企業(yè)也紛紛提出或確立了自身的AI倫理原則,如谷歌于2018年6月提出AI應用的七項原則,包括對社會有益、避免制造或加強不公平偏見、對人負責、納入隱私計算等。而同年5月,百度創(chuàng)始人李彥宏公開提出了AI倫理四原則——AI的最高原則是安全可控,AI的創(chuàng)新愿景是促進人類更平等地獲取技術和能力,AI存在的價值是教人學習、讓人成長,而非超越人、替代人,AI的終極理想是為人類帶來更多的自由與可能。
深度科技研究院院長張孝榮指出,AI技術是一把雙刃劍,用得好可以改善社會生活質量;用得不好,會大大影響人們的社會生活。未來需要進一步加強AI技術的應用管理,必須要將之納入法律和道德倫理的軌道上運行。