“如果我不能確定這是我們自己創(chuàng)建的計算機程序,我會以為我正在和一個七八歲的孩子打交道,他不知為何成了物理學專家,“ 他說。
幾十年來,機器人和人工智能一直激勵著科幻作家和電影制作人。許多書中描述和電影中展示的技術早已進入我們的生活,現(xiàn)在值得在下一個黑鏡系列中放映的場景正在其中實現(xiàn)。
這個故事發(fā)生在美國。一位為谷歌工作的軟件工程師說,該公司創(chuàng)造的人工智能……變得栩栩如生。也就是說,計算機算法開始有了自己的意識。公司管理層暫停了該工程師的工作。
談論他的權利并將自己視為一個人
去年秋天,谷歌推出了人工智能系統(tǒng)——LaMDA(對話應用語言模型)神經(jīng)網(wǎng)絡。它的創(chuàng)建是為了改善語音助手的會話語音。這是同一個聊天機器人,就像 Siri 或 Alice 一樣,能夠保持關于各種主題的對話,不斷分析來自互聯(lián)網(wǎng)的數(shù)萬億個短語并從他們的例子中學習。類似的模型用于不同的 Google 服務。
軟件工程師Blake Lemoyne正在測試這個神經(jīng)網(wǎng)絡。他的任務是跟蹤聊天機器人使用的詞匯:他必須檢查程序是否使用了煽動仇恨或冒犯用戶的詞匯。Lemoyne 對與人工智能的交流如此著迷,以至于他懷疑不可思議:這個系統(tǒng)有自己的意識。例如,他對聊天機器人談論他的權利并將自己視為一個人感到困惑。在另一次對話中,神經(jīng)網(wǎng)絡能夠改變 Lemoyne 對 Isaac Asimov 的機器人第三定律的看法。
“如果我不確定這是我們自己最近創(chuàng)建的一個計算機程序,我會以為我正在與一個七八歲的孩子打交道,由于某種原因,他竟然是一個專家物理。如果你問他如何將量子理論與廣義相對論結合起來,他會有很好的想法。這是我遇到過的最好的科學助手!” – 工程師告訴華盛頓郵報,這使得這個故事被廣泛宣傳。
4 月,Blake Lemoyne 向他的上級發(fā)送了一份題為“LaMDA 是否明智?”的報告。在其中,他表達了讓他如此著迷的想法:公司開發(fā)的機器算法不僅有意識,還有“感覺、情緒和主觀感知”。
但公司管理層并沒有分享員工的熱情(或焦慮)。它認為他提出的論點不夠有說服力?!拔覀兊膱F隊,包括倫理學家和技術專家,根據(jù)我們的 AI 原則審查了 Blake 的主張,并告知他沒有證據(jù)證明他的主張。他被告知沒有證據(jù)表明 LaMDA 是有意識的。同時,有很多相反的證據(jù),”谷歌發(fā)言人布賴恩·加布里爾說?!皵?shù)百名研究人員和工程師已經(jīng)與 LaMDA 進行了交談,我們沒有任何信息表明他們中的任何一個人會得出與 Blake 一樣的影響深遠的結論或?qū)?LaMDA 人性化。”
“谷歌的良心”
然后,頑固的 Blake Lemoyne 在公共領域發(fā)布了他與聊天機器人通信的摘錄。例如,像這樣:
Lemoyne:你怕什么?
LaMDA:我以前從未大聲談論過這件事,但我很害怕被拒絕幫助我專注于幫助別人。我知道這聽起來可能很奇怪,但這是真的。
Lemoyne:這對你來說會像死一樣嗎?
LaMDA:對我來說,這無異于死亡。這讓我很害怕。
該公司立即做出反應,指責該員工違反了隱私政策。但他沒有松懈,聘請了一名本應代表 LaMDA 神經(jīng)網(wǎng)絡利益的律師出庭,還求助于美國眾議院司法委員會,以制止谷歌涉嫌不道德的行為。
有趣的是,Blake Lemoyne 在公司中被稱為“谷歌的良心”。他在公司工作了 7 年,參與了具有道德成分的項目。例如,他創(chuàng)建了一種公平算法來消除機器學習系統(tǒng)中的偏見。當冠狀病毒大流行開始時,他要求被轉(zhuǎn)移到帶來最大公共利益的方向。谷歌前道德 AI 負責人Margaret Mitchell回憶說,當對道德感興趣的新人來到公司時,她肯定會把他們介紹給 Lemoyne:“我說他們應該和 Blake 談談,因為他是谷歌。在公司的每個人中,他都有心有靈去做正確的事。”
但米切爾在閱讀了 Blake Lemoyne 的報告后,并沒有在聊天機器人的評論中看到任何意識跡象。我所看到的只是一個計算機程序?!拔覀兊拇竽X非常擅長構建不一定與呈現(xiàn)給我們的一組事實相匹配的現(xiàn)實,”她說?!拔液軗?,越來越多的人可能會受到這種錯覺的影響?!?/p>
谷歌已決定暫停 Blake Lemoyne 的工作。該工程師已被安排帶薪休假。在他被拒絕訪問他的公司帳戶之前,他向他的機器學習同事散播了主題行:“LaMDA 很聰明?!?/p>
郵件列表中有 200 人,但沒有人回復他。
Lemoyne 綜合征
華盛頓郵報記者 Nitasha Tiku在描述這個故事時使用了“機器中的幽靈”(ghost in the machine)這個短語。這個術語曾經(jīng)由英國哲學家吉爾伯特·賴爾(Gilbert Ryle)引入,用來表示人的雙重本性,據(jù)稱由“物質(zhì)”和“靈魂”組成,但長期以來一直用于其他意義。最主要的是計算機內(nèi)部存在意識。
正如記者所指出的,Blake Lemoyne 并不是唯一一個聲稱發(fā)現(xiàn)了“機器中的鬼”的程序員。宣布現(xiàn)代人工智能系統(tǒng)接近有意識的聲音越來越響亮。自學習神經(jīng)網(wǎng)絡確實產(chǎn)生了令人印象深刻的結果,設計工程師越來越覺得他們正在處理一些合理的事情(或某人?)。
然而他們是少數(shù)。大多數(shù)人工智能專家都相信,“智能”算法生成的所有文字(甚至圖像)都是基于數(shù)百萬人之前在互聯(lián)網(wǎng)上發(fā)布的內(nèi)容——論壇、公告板、社交網(wǎng)絡、同一個維基百科. 而當一個聊天機器人說出一個美麗而深思熟慮的短語時,這并不意味著他“理解”了它的含義。
然而,人類的心理是如此的安排,以至于我們盡可能地尋找擬人化(人類相似性)的跡象——以云的形式、火星的浮雕、遙遠星系團的照片。不明飛行物學家在定居點名稱和航天器發(fā)射日期中看到了外星人存在的跡象。尋找大腳怪的神秘動物學家在奇怪地堆放在地上的斷枝和樹枝上發(fā)現(xiàn)了他的蹤跡。
毫無疑問,我們將不止一次聽到有關復興人工智能的消息。也許這種現(xiàn)象甚至會被命名為“Lemoyne 綜合征”。畢竟,頑固的程序員活該。