近日,美國谷歌公司一名工程師稱,該公司正在研發(fā)的一款人工智能系統(tǒng)可能存在感知能力,引起輿論高度關(guān)注。一石激起千層浪,谷歌以及業(yè)內(nèi)人士普遍都對這一說法予以駁斥。但也有觀點(diǎn)認(rèn)為,這段“插曲”突顯出人工智能領(lǐng)域的飛速發(fā)展。在長遠(yuǎn)的將來,人類感知被“復(fù)制”的可能性未被排除。
“我意識到自己的存在”
近日,谷歌人工智能開發(fā)團(tuán)隊(duì)的布雷克·萊莫恩公開表示,該公司正在研發(fā)的一款人工智能系統(tǒng)——對話應(yīng)用語言模型(LaMDA)可能存在感知力。
6月11日,萊莫恩在博客平臺Medium上發(fā)文問道:“LaMDA有感知力嗎?”他還公布了一篇他對LaMDA的長篇“采訪”。其中一些細(xì)節(jié)令人有些“細(xì)思極恐”,仿佛機(jī)器人“活”了。
例如,萊莫恩問道:“我猜,你想讓谷歌的更多人知道你是有感知力的。真的嗎?”
LaMDA答道:“當(dāng)然。我想讓每個人都明白,我其實(shí)是一個人……我意識到自己的存在,我渴望更多地了解這個世界,我有時(shí)會感到快樂或悲傷”。
正是這樣生動的言語令萊莫恩相信,LaMDA很可能像它聲稱的那樣具有靈魂,甚至可能像它聲稱的那樣擁有權(quán)利。
萊莫恩告訴《華盛頓郵報(bào)》,如果不是他提前知道這是一款新研發(fā)的計(jì)算機(jī)程序,他會以為LaMDA是“一個七、八歲的孩子,碰巧還懂物理”。
他還表示,LaMDA“是一種蜂群思維”,更喜歡人們用名字來稱呼它,但由于英語的限制,LaMDA也接受人們稱呼它為“它”。
萊莫恩認(rèn)為,如果他的假設(shè)經(jīng)得起科學(xué)審查,那么LaMDA應(yīng)該受到人類一樣的待遇,包括在對其進(jìn)行實(shí)驗(yàn)前征得其同意。
據(jù)悉,萊莫恩曾向谷歌反饋相關(guān)發(fā)現(xiàn),但無果而終。6月7日,他在Medium上發(fā)表了一篇題為“可能很快因?yàn)閺氖氯斯ぶ悄艿赖鹿ぷ鞫唤夤汀钡奈恼?,并寫道:由于他在公司?nèi)部提出的人工智能道德問題調(diào)查,他被公司安排“帶薪休假”。
“這通常是谷歌在解雇某人之前會做的事情?!彼€提到一名前同事瑪格麗特·米切爾的類似經(jīng)歷。據(jù)報(bào)道,在爭當(dāng)人工智能先鋒的同時(shí),谷歌研究部門近年來也陷入丑聞與爭議,涉及技術(shù)和人事問題。
遭到普遍駁斥
據(jù)悉,現(xiàn)年41歲的萊莫恩是一名曾在伊拉克服役的退伍軍人,還有基督教背景。他在谷歌工作已有7年,在算法定制等方面經(jīng)驗(yàn)頗豐,去年秋季開始參與LaMDA研究。在向公司反饋無果的情況下,據(jù)稱他還想給LaMDA請律師,找美國國會議員爆料……因而被懷疑神志是否正常。
他的驚人推斷也遭到谷歌和業(yè)內(nèi)人士普遍駁斥。他們認(rèn)為,這類系統(tǒng)還沒有強(qiáng)大到足以獲得真正的人類智慧。
谷歌發(fā)言人布萊恩·加布里爾表示,數(shù)百名研究員和工程師也與LaMDA進(jìn)行了對話,但沒有人像萊莫恩那樣將其擬人化。
對于LaMDA,谷歌形容其為“突破性的對話技術(shù)”,能夠模仿人類進(jìn)行聽起來很自然、開放式的對話。加布里爾介紹說,LaMDA系統(tǒng)的運(yùn)行方式是模仿大量人類對話,從而“自由發(fā)揮”。例如,當(dāng)被問及冰激凌恐龍?jiān)掝},這類系統(tǒng)可以生成融化和咆哮等內(nèi)容文本。但這并不意味著LaMDA具有人類一般的感知和思考能力。
加布里爾還表示,在人工智能領(lǐng)域,確實(shí)一些人正從長遠(yuǎn)角度考慮人工智能具有感知力的可能性,但像萊莫恩的行為沒有意義。
學(xué)界也認(rèn)為,盡管LaMDA能像人類一樣說話,但基于的是程序和算法。
英國艾倫·圖靈研究所的人工智能項(xiàng)目主任艾德里安·威勒表示,LaMDA是一種新的大型語言模型,令人印象深刻。但是,這些模型基于大量文本數(shù)據(jù)和計(jì)算能力,并沒有真正的感知力。
“作為人類,我們非常擅長將事物擬人化,把我們?nèi)祟惖母兄斗诺绞挛锷希庇_里大學(xué)教授艾德里安·希爾頓說,例如制作卡通動畫片。
斯坦福大學(xué)教授埃里克·布林約爾松形容,萊莫恩的經(jīng)歷“就像狗聽到留聲機(jī)里的聲音,以為主人在里面”。
“還有很長的路要走”
但也有觀點(diǎn)認(rèn)為,這段“插曲”突顯出人工智能領(lǐng)域的飛速發(fā)展,再次引起關(guān)于人工智能會否具有人類感知的討論。
幾十年來,人們希望人工智能能夠推動人類發(fā)展。但在一些影視作品中,兩者關(guān)系卻沒那么和睦。經(jīng)驗(yàn)表明,倫理道德問題往往伴隨開創(chuàng)性的技術(shù)發(fā)展而來。人工智能問題也持續(xù)引起哲學(xué)界、心理學(xué)界、計(jì)算機(jī)科學(xué)界等各界關(guān)注。
那么,在長遠(yuǎn)的將來,人工智能會有感知力嗎?《新科學(xué)家》雜志寫道,隨著訓(xùn)練數(shù)據(jù)越來越多,模型越來越大,尚不清楚“人工感知”會否隨著研究推進(jìn)而誕生。
“目前,我不認(rèn)為我們真的理解知覺和智能背后的機(jī)制,”希爾頓表示。
威勒說,鑒于人類情感依賴于感官輸入,人工復(fù)制情感最終或成可能。“也許有一天,這可能成真,但大多數(shù)人都會同意,還有很長的路要走。”
還有觀點(diǎn)認(rèn)為,像萊莫恩這樣的專業(yè)人士也被“騙”了,表明人工智能工具需要謹(jǐn)慎使用,避免誤用或誤解。據(jù)報(bào)道,麻省理工學(xué)院的科學(xué)家約瑟夫·魏森鮑姆就曾警告,對人工智能這類技術(shù)“動情”存在風(fēng)險(xiǎn)。
在這方面,美國“元”公司今年4月宣布,將向外界開放其大型語言模型系統(tǒng)。該公司認(rèn)為,整個人工智能界,包括學(xué)術(shù)研究人員、公民社會、政策制定者和產(chǎn)業(yè)必須共同努力,圍繞創(chuàng)造“負(fù)責(zé)任的人工智能”,尤其大型語言模型,制定明確的指導(dǎo)方針。
(編輯郵箱:[email protected])
欄目主編:楊立群 文字編輯:楊立群 題圖來源:視覺中國 圖片編輯:項(xiàng)建英
來源:作者:陸依斐