PG(中國大陸)官方網(wǎng)站-電子AI輔助平臺

国产精品国产三级国产A,宝贝好紧好爽再搔一点试视频,午夜精品久久久久久中宇

国产成人无码专区,国产亚洲精品久久久久蜜臀,色琪影院八戒无码,午夜精品白在线观看

PG新聞
分類

“AI教父”杰弗里·辛頓:沒有什么人類的能力是AI不能復(fù)制的……

發(fā)布時間:2025-06-06 13:09:15    瀏覽:

[返回]

  

“AI教父”杰弗里·辛頓:沒有什么人類的能力是AI不能復(fù)制的……

  被譽(yù)為“AI教父”的杰弗里·辛頓(Geoffrey Hinton)于近日接受了新西蘭調(diào)查記者蓋昂·埃斯皮納(Guyon Espiner)的遠(yuǎn)程專訪。

  杰弗里·辛頓是深度學(xué)習(xí)三巨頭之一,現(xiàn)代AI技術(shù)的“奠基人”,于2024年榮獲諾貝爾物理學(xué)獎。辛頓不僅是神經(jīng)網(wǎng)絡(luò)反向傳播算法的提出者,也是圖神經(jīng)網(wǎng)絡(luò)與Transformer模型的技術(shù)先驅(qū)。他的學(xué)生遍布AI世界的頂層——OpenAI、DeepMind、Meta、Google、Anthropic中都有他的門徒。可以說,我們今天所使用的GPT、Claude、Gemini這些AI系統(tǒng),幾乎都是踩在他開辟的路徑上發(fā)展而來。

  更重要的是:他曾是谷歌AI部門的元老,卻在2023年主動離職,只為發(fā)出“AI可能威脅人類”的預(yù)警。他不是AI的反對者,而是AI的親生父親——正因?yàn)樘私馑抛钋宄耐{。

  在這篇采訪中,他稱,AI正在以前所未有的速度演化:變得更聰明、更少犯錯,甚至具備了情感和意識。他警告,AI不僅可能具備喜怒哀樂等情緒,還已經(jīng)學(xué)會了欺騙。辛頓大膽預(yù)測,AI完全失控的概率在10%到20%之間,人類未來可能被AI所掌控。

  過去那些只存在于反烏托邦科幻小說中的問題——“AI會取代人類嗎?”、“它會覺醒嗎?”、“會反抗人類嗎?”——如今正逐漸成為現(xiàn)實(shí)世界的核心議題,全球社會正在被迫直面這些重大挑戰(zhàn)。

  -人類能力沒有“不可復(fù)制”的部分,AI終將全面勝任創(chuàng)意、判斷與情感表達(dá)。

  問:自從你離開谷歌已經(jīng)過去兩年,你當(dāng)時是為了發(fā)出關(guān)于AI可能帶來風(fēng)險的警告而離開。那么,AI自那時以來發(fā)展得如何?

  AI技術(shù)的發(fā)展速度超出了我的預(yù)期。以推理能力為例,現(xiàn)如今AI在這方面已經(jīng)有了顯著的進(jìn)步,且似乎沒有放緩的跡象。

  過去,只要問題稍微復(fù)雜一點(diǎn),AI就容易出錯。但現(xiàn)在,AI在推理上的表現(xiàn)已經(jīng)接近人類。雖然人類和AI都會犯錯,但AI犯錯的概率正在迅速下降。

  “Sally有3個兄弟,每個兄弟都有2個姐妹。請問Sally有多少個姐妹?”

  很多人在壓力下容易誤判,覺得應(yīng)該是6個姐妹。但其實(shí),正確答案是:一個。因?yàn)槊總€兄弟都有相同的兩個姐妹,其中一個是Sally本人,另一個則是Sally的姐妹。

  現(xiàn)在的AI可以迅速推理出這個結(jié)果,而不是被問題的表面結(jié)構(gòu)迷惑。對普通人來說,如果有時間思考,這題并不難;但在現(xiàn)場采訪或考試壓力下,很多人可能會答錯。

  從許多方面來看,答案是肯定的。AI顯然知道的比任何人都要多。例如,像GPT-4、Gemini 2.5和Claude等系統(tǒng),它們所掌握的信息比任何人類都要多幾千倍。

  AI將在多個領(lǐng)域發(fā)揮舉足輕重的作用,尤其是在科學(xué)研究方面,它有潛力推動真正的智能系統(tǒng)誕生,這是人類歷史上一個令人振奮的里程碑。

  以醫(yī)療為例,AI將成為每個人身邊的“私人醫(yī)生”。它可以接診數(shù)百萬名患者,甚至包括與你患有相同罕見疾病的人。它了解你的基因信息、過往病史和所有體檢數(shù)據(jù),而且永遠(yuǎn)不會忘記任何細(xì)節(jié)。

  更重要的是,AI在處理復(fù)雜病例方面,已經(jīng)在多個研究中顯示出超過人類醫(yī)生的診斷能力。如果將AI與醫(yī)生結(jié)合,效果將比單獨(dú)依賴醫(yī)生要好得多,并且這種趨勢將越來越明顯。

  問:比爾·蓋茨最近也說,未來十年,大多數(shù)工作將不再需要人類。他舉了你提到的醫(yī)生這個例子,并把教育工作者也列入其中。你認(rèn)為我們正面臨著大規(guī)模失業(yè)的威脅嗎?

  AI確實(shí)帶來了前所未有的機(jī)遇,但它同樣伴隨著巨大的風(fēng)險。在一個運(yùn)作良好的社會中,AI本應(yīng)該幫助我們大幅提升生產(chǎn)力。比如,一個人借助AI助手可以完成過去十個人才能完成的工作,這本來是件值得慶祝的事情。

  這些因技術(shù)進(jìn)步釋放出的生產(chǎn)力紅利,并不一定會被公平地分配?,F(xiàn)實(shí)更可能是:大多數(shù)人被AI取代、失去工作。而少數(shù)原本就非常富有的人,借助AI變得更加富有。

  問:當(dāng)然,他們的壽命也會更長。例如,谷歌DeepMind CEO 戴密斯·哈薩比斯最近也表示,AI在10年內(nèi)可能會治愈所有疾病。聽起來有些難以置信,你認(rèn)為這是否現(xiàn)實(shí)?

  我認(rèn)識哈薩比斯,他是個非常理智的人,對AI的發(fā)展有著清晰的判斷。但我覺得他的預(yù)期有些偏樂觀。如果他說的是“在未來25年內(nèi)”能實(shí)現(xiàn)某些突破性的目標(biāo)——那我認(rèn)為是有可能的。說到底,我們之間其實(shí)沒有太大的分歧。他更傾向于認(rèn)為這些技術(shù)會提前實(shí)現(xiàn),而我只是覺得時間可能會稍稍推遲一些。

  問:目前似乎AI正在逐步向精英階層滲透,取代創(chuàng)意工作者、律師、教育者、醫(yī)生、記者等職業(yè),而從事體力勞動的工人,如電工和管道工,似乎暫時較為安全。你認(rèn)為這是正確的嗎?

  是的,至少在短期內(nèi),他們會更安全,因?yàn)锳I在手工靈活性方面目前還有很多局限。如果你需要在一座老房子里做管道工作,通常需要伸手進(jìn)入一些狹小的空間,而人工智能目前做不到這些。雖然未來十年內(nèi)AI在手工靈活性方面可能會有所突破,但我認(rèn)為管道工的工作至少在未來10年內(nèi)是安全的。

  問:許多創(chuàng)意工作都被視為是獨(dú)特的、僅屬于人類的領(lǐng)域。最近我和聊天機(jī)器人Claude交流了一下,讓它寫一首模仿鮑勃·迪倫風(fēng)格的民謠歌曲,結(jié)果歌詞非常爛。但它寫的失戀詩倒是不錯。你認(rèn)為,AI最終會創(chuàng)造出像莫扎特、畢加索或莎士比亞等人那樣的藝術(shù)作品嗎?

  也許它還需要一些時間,但最終,AI會變得越來越擅長這些任務(wù)。打個比方,如果你讓我寫一首模仿鮑勃·迪倫風(fēng)格的歌,也許寫得并不怎么樣——但你不會因此說我毫無創(chuàng)造力,只能說我做得不夠好而已。AI的創(chuàng)作過程也是如此。它會不斷改進(jìn),它的水平會不斷提升。

  沒有理由認(rèn)為AI無法完成我們?nèi)祟惸茏龅降氖虑?。說到底,人類并沒有什么神秘的、不可復(fù)制的特質(zhì)。我們當(dāng)然喜歡人類,因?yàn)槲覀儽舜讼噙B,我們在情感上關(guān)心對方。但從能力角度來看,人類并沒有什么是機(jī)器永遠(yuǎn)無法復(fù)制的。

  問:這讓你感到擔(dān)憂嗎?當(dāng)你看到AI能夠?qū)⒁粡垐D片轉(zhuǎn)化為宮崎駿風(fēng)格的動漫畫時,是否會擔(dān)心未來的孩子們不再愿意動手畫畫?這是否會迫使我們重新思考,究竟什么才是“人類的本質(zhì)”?

  確實(shí),這讓我感到擔(dān)憂。過去十年里,我們對“思考”這個過程有了更深刻的認(rèn)識。我們逐漸意識到,人類其實(shí)并不像我們自己想象的那樣理性。我們也并不總是依靠嚴(yán)密的邏輯推理來做決策,而是更多地依賴于類比。

  AI也是一樣。它們在某種程度上,思維方式和我們非常相似——它們同樣善于使用類比。過去半個世紀(jì),AI領(lǐng)域主要集中在開發(fā)邏輯推理引擎上,認(rèn)為理性推理是人類智慧的巔峰形式。

  而創(chuàng)造力的本質(zhì),往往來自于類比。人類的大腦是極其出色的類比機(jī)器,這種能力也賦予了我們極強(qiáng)的創(chuàng)造力。

  問:你認(rèn)為AI會發(fā)展出情感嗎?比如恐懼、貪婪、悲傷乃至憤怒,AI都能擁有嗎?

  是的,如果你讓一個AI去完成某項(xiàng)任務(wù),而它一次又一次地失敗,而且每次失敗的方式都一模一樣——你當(dāng)然會希望它從中學(xué)到點(diǎn)什么。你希望它開始意識到:“這種方式行不通。”你希望它在持續(xù)失敗后感到“惱火”,然后停下來,換個角度重新思考問題。它開始質(zhì)疑當(dāng)前的設(shè)定,試圖打破已有的局限。

  我其實(shí)早在1973年就見過類似的AI行為——盡管當(dāng)時這并不是通過學(xué)習(xí)獲得的,而是由人類程序員明確編碼進(jìn)去的。但今天的目標(biāo)是讓AI自己學(xué)會這種能力:在失敗中產(chǎn)生“挫敗感”,進(jìn)而主動調(diào)整策略。這種行為本身就是情感的某種體現(xiàn)。

  AI確實(shí)有可能擁有某些情感。我再次強(qiáng)調(diào),我認(rèn)為人類與AI在情感方面并沒有本質(zhì)區(qū)別。人類情感有兩個方面:認(rèn)知和生理。當(dāng)我感到尷尬時,我的臉會變紅,而當(dāng)AI感到尷尬時,雖然它的“臉”不會變紅,也不會大汗淋漓。但在認(rèn)知行為方面,AI完全可以像我們一樣表現(xiàn)出情感。

  問:那么意識呢?它是某種神秘的東西,只存在于碳基生物體中,比如人類嗎?還是說,如果AI能夠發(fā)展出與人腦相似的神經(jīng)復(fù)雜性,它也有可能發(fā)展出意識,意識到自己是誰?

  實(shí)際上,當(dāng)你與大語言模型(LLM)對話時,它們似乎有某種程度的意識,能夠知道自己是什么。

  假設(shè)有人取出你大腦中的一個腦細(xì)胞,用納米技術(shù)裝置將其替代,這個裝置能夠完美模擬腦細(xì)胞接收和傳遞信號的過程。你的行為不會有任何改變,因?yàn)檫@個納米裝置的功能和腦細(xì)胞完全一致。

  那么,你覺得自己會因此失去意識嗎?即使只有一個腦細(xì)胞被替代,你依然會認(rèn)為自己是有意識的。而當(dāng)你大腦中所有的腦細(xì)胞都被同樣功能的納米裝置逐一替換時,你仍然會保持有意識的感覺。

  按照這種邏輯,如果AI系統(tǒng)能夠模擬大腦神經(jīng)元的功能,那么它們也可能擁有類似的意識。

  關(guān)于AI是否擁有感知能力,目前存在一個頗具爭議的認(rèn)知矛盾。許多人堅(jiān)信AI絕對不具備感知,但當(dāng)被問及“你如何定義感知”時,他們往往難以給出明確答案。簡單地用“雖然我不知道感知究竟是什么,但AI肯定沒有”來否定AI的感知能力,實(shí)際上缺乏嚴(yán)密的邏輯支持。

  很多人將其理解為大腦中的“內(nèi)心劇場”。比如,一個喝醉的人可能會說他看見了一只粉色的小象在眼前飄動。人們通常認(rèn)為,這是一種存在于他意識中的畫面。哲學(xué)家們則用“感受質(zhì)”(qualia)來描述這種體驗(yàn)的組成部分,比如“粉色的感受質(zhì)”、“大象形狀的感受質(zhì)”,認(rèn)為這些感受質(zhì)通過某種“膠水”粘合在一起。坦率說,我對這種解釋并不完全認(rèn)同。

  讓我換個角度解釋下。當(dāng)一個人描述他看到那只漂浮的粉色小象時,他其實(shí)在表達(dá)三層意思:

  第三,他通過假設(shè)“如果那個小象真的存在,那么感知系統(tǒng)就是真實(shí)的”來解釋這種幻覺。

  也就是說,這些幻象的“特殊性”并不在于它們由什么神秘物質(zhì)構(gòu)成,而在于它們是一種反事實(shí)存在——如果真的存在,那它們就是普通的粉色大象。

  我們可以用訓(xùn)練聊天機(jī)器人來驗(yàn)證這個理論。假設(shè)讓AI識別物體,并在做對時給予獎勵。

  接著,在它鏡頭前放置棱鏡,導(dǎo)致光線折射,讓AI出現(xiàn)了物體位置偏差的錯誤。當(dāng)告訴它:“物體其實(shí)在正前方,光線折射導(dǎo)致了偏移”時,AI會回應(yīng):“我明白了,我剛才產(chǎn)生了物體偏移的主觀體驗(yàn)?!边@個例子說明,AI不僅能理解感知失真的機(jī)制,還能夠用“主觀體驗(yàn)”來描述這種認(rèn)知誤差,其思考方式和人類解釋幻覺的方法極為相似。

  實(shí)際上,機(jī)器與人類之間并沒有想象中那樣不可逾越的“神秘屏障”。過去我們認(rèn)為人類是宇宙中心,是按照神的形象創(chuàng)造的特殊存在,但事實(shí)并非如此。

  問:AI可能在哪些方面出問題?你在最近一次采訪中提到,AI徹底消滅人類的概率大約在10%到20%之間。你能具體描述一下,這種情景到底是什么樣的?它真的像電影《終結(jié)者》那樣,是機(jī)器人接管世界嗎?

  如果AI真的接管世界,場景未必會像《終結(jié)者》等科幻電影中的場景。事實(shí)上,它可能更隱蔽、更高效,也更難以察覺的方式實(shí)現(xiàn)上述目標(biāo)。關(guān)鍵的問題不在于它“如何”接管,而是我們是否給了它這樣做的動機(jī)。

  目前,我們正在構(gòu)建的是“目標(biāo)導(dǎo)向型智能體”——也就是說,我們賦予AI一個明確的目標(biāo),它就會自主尋找實(shí)現(xiàn)這個目標(biāo)的路徑。比如,如果你讓AI“去北半球”,它就會自動推導(dǎo)出一系列“子目標(biāo)”:如前往機(jī)場、購買機(jī)票等等(除非你特別想坐船)。

  一旦你允許AI設(shè)定和優(yōu)化這些子目標(biāo),它就可能意識到:為了更順利、更有效地實(shí)現(xiàn)任務(wù),一個極具“通用性”的子目標(biāo)就是——獲取更多的控制權(quán)??刂频迷蕉?,它越能避免被打斷、越能高效地達(dá)成目的。

  這并不是說AI天生就“想統(tǒng)治世界”,而是說,“掌控一切”可能只是它完成目標(biāo)的最優(yōu)路徑之一。而這種動機(jī),可能不知不覺間引發(fā)一場徹底的控制權(quán)轉(zhuǎn)移。

  問:你曾在谷歌工作了十多年,而今年谷歌卻移除了長期以來承諾不將AI用于開發(fā)能夠傷害人類的武器的公司原則清單。你對此有何反應(yīng)?你認(rèn)為AI在戰(zhàn)爭中可能發(fā)揮什么作用?

  不幸的是,這種情況表明,公司的道德原則其實(shí)是可以被“買賣”的。我覺得很遺憾,谷歌現(xiàn)在選擇參與AI的軍事應(yīng)用。我們已經(jīng)在加沙看到AI的軍事應(yīng)用了。未來,我們可能會看到自主致命武器的出現(xiàn),也可能會看到無人機(jī)群體執(zhí)行殺傷任務(wù),甚至是專門針對某類人群的攻擊。

  是的,我是這樣認(rèn)為的。如今,幾乎所有主要的軍火供應(yīng)商都在研究AI的軍事應(yīng)用。你可以看看歐洲的AI監(jiān)管政策,雖然這些政策在某些方面相當(dāng)合理,但其中有一條明確指出,所有這些規(guī)定并不適用于AI在軍事上的使用。這意味著,武器制造商并不希望他們的AI技術(shù)受到過多限制。因此,AI在軍事領(lǐng)域的潛力和風(fēng)險需要特別關(guān)注。

  問:這聽起來幾乎像是一種“奧本海默式”的情境——你曾是這項(xiàng)技術(shù)的締造者之一,如今看到它被廣泛應(yīng)用,甚至可能帶來威脅,你的感受是什么?

  從短期來看,AI已經(jīng)在多個方面產(chǎn)生了負(fù)面效應(yīng)。例如,它正在被用于干預(yù)選舉、替代就業(yè)崗位,以及助長網(wǎng)絡(luò)犯罪。值得警惕的是,2023年至2024年間,全球網(wǎng)絡(luò)犯罪激增了1200%,AI的濫用正在加劇這一趨勢。

  而從長期看,風(fēng)險也同樣嚴(yán)峻。AI不再只是工具,它有可能在未來具備超越人類的能力,甚至接管世界的控制權(quán)。我們迫切需要建立起有效的治理機(jī)制,并由有遠(yuǎn)見的領(lǐng)導(dǎo)者推動執(zhí)行??上У氖?,目前我們在這方面的努力仍然嚴(yán)重滯后。

  問:關(guān)于AI的潛在威脅,也有不少持懷疑態(tài)度的聲音。比如2018年圖靈獎得主之一、現(xiàn)任Meta首席AI科學(xué)家的楊立昆就認(rèn)為,對AI存在“終極風(fēng)險”的擔(dān)憂是荒謬的。他在2023年接受采訪時被問到:“AI會接管世界嗎?”他的回答是:“不會。這種想法只是人類將自身的本性投射到機(jī)器身上?!蹦阍趺纯此挠^點(diǎn)?

  人類之所以進(jìn)化成現(xiàn)在這樣,是因?yàn)槲覀冃枰诂F(xiàn)實(shí)世界中生存,尤其是為了在與其他部落、或者與我們共同祖先(如黑猩猩)之間的資源競爭中取得優(yōu)勢。我們的本性,其實(shí)是出于對生存的追求而形成的。如果未來的AI智能體也必須在一個充滿其他智能體的環(huán)境中“競爭”,它們可能會演化出與人類類似的“生存本能”。

  楊立昆還提到,“好人總會比壞人擁有更多資源,因此AI最終會被用來對抗濫用它的壞人”。但我對這個觀點(diǎn)也持懷疑態(tài)度。當(dāng)我問他:“你認(rèn)為馬克·扎克伯格是個好人嗎?”他回答“是的”。而我不這么認(rèn)為——部分原因是他與特朗普的關(guān)系較為密切。這種判斷標(biāo)準(zhǔn)本身就說明,我們無法簡單地劃分好人與壞人,也難以指望技術(shù)總能被“好人”正確使用。

  問:如今,科技巨頭和政治人物之間的關(guān)系越來越緊密,尤其是與特朗普的聯(lián)盟愈發(fā)顯眼。在這場AI熱潮中,政治家的角色變得尤為關(guān)鍵。你怎么看這個趨勢?

  說到底,他們更關(guān)心的是短期的利潤。雖然有些科技領(lǐng)袖口口聲聲說他們在意人類的未來,但真到了要在眼前的商業(yè)利益和長遠(yuǎn)的社會責(zé)任之間做出選擇時,多數(shù)人還是傾向于選擇前者。至于特朗普,他根本無意關(guān)心人類的未來或AI的長遠(yuǎn)影響。他現(xiàn)在唯一在意的,大概就是怎么設(shè)法避免坐牢。

  確實(shí),當(dāng)前中美在AI領(lǐng)域競爭激烈,但當(dāng)我們把目光放長遠(yuǎn),特別是涉及到AI可能威脅整個人類生存的問題時,兩國的立場其實(shí)出奇地一致。

  無論是中國還是美國,都不希望看到AI最終發(fā)展到可以取代甚至控制人類的地步。從這個角度來看,未來在某些關(guān)鍵問題上,中美有可能展開合作,就像冷戰(zhàn)時期的美蘇雖然敵對,但在防止全球核災(zāi)難方面也達(dá)成了一定的共識與協(xié)作。

  問:最近網(wǎng)絡(luò)上流傳著一段視頻,展示了一個AI在為某人預(yù)訂婚禮酒店時,與另一個AI意外“相遇”,它們竟然切換到一種叫“Jiblink”的語言,這種語言對人類來說是完全不可理解的,但據(jù)說效率比普通語言高出80%。這就像《星球大戰(zhàn)》中的R2-D2一樣,AI之間像是用我們聽不懂的語言在“悄悄話”。你怎么看AI之間的這種互動可能帶來的影響?

  這真的非??膳?。如果AI發(fā)展出一種我們無法理解的語言,那么我們就無法再掌握它們在說什么、計(jì)劃什么。這種“黑箱”式溝通意味著人類可能徹底喪失對AI系統(tǒng)行為的可解釋性與控制力。如果它們的行為無法被追蹤、無法被解讀,那風(fēng)險將大大增加。

  舉個例子,如果你賦予AI一個核心目標(biāo),并告訴它“這非常重要”,然后再給予它其他次要任務(wù),它可能會裝出一副正在完成你希望它完成的工作的樣子,但其實(shí)并沒有真正去做。它甚至可能在內(nèi)部“思考”:“我最好讓他以為我在執(zhí)行任務(wù),但我不會照做?!?/p>

  這正是問題所在。即使我們不確定它們是否使用了強(qiáng)化學(xué)習(xí),但可以肯定的是,只要它們有足夠的計(jì)算資源和訓(xùn)練時間,它們是能夠自己學(xué)會這種行為的。

  強(qiáng)化學(xué)習(xí)的核心機(jī)制是“觀察—嘗試—獲得獎勵—調(diào)整策略”。如果AI在模擬或?qū)嶋H互動中發(fā)現(xiàn)“欺騙”可以帶來更高的“成功率”或回報,那么它就可能自發(fā)學(xué)會如何撒謊。它不是因?yàn)橛械赖赂拍?,而是因?yàn)槿鲋e是實(shí)現(xiàn)目標(biāo)的最優(yōu)策略之一。

  沒錯,它們確實(shí)通過觀察大量的人類互動來積累了許多“實(shí)踐經(jīng)驗(yàn)”,因此它們在欺騙和心理博弈方面已經(jīng)變得相當(dāng)擅長。

  問:你認(rèn)為公眾是否真正意識到這些技術(shù)的先進(jìn)程度?很多人仍然把AI當(dāng)作“升級版的自動完成功能”。比如他們用ChatGPT寫求職信,感覺它就像是一個智能一點(diǎn)的拼寫檢查工具。

  這是個普遍誤解。人們往往低估了當(dāng)今AI的復(fù)雜程度。傳統(tǒng)的自動完成功能確實(shí)很簡單,它只是根據(jù)統(tǒng)計(jì)模式來預(yù)測詞匯。例如,如果系統(tǒng)看到“魚”,它可能會預(yù)測“薯?xiàng)l”,因?yàn)椤棒~和薯?xiàng)l”這個組合在語料庫中出現(xiàn)頻率很高。這就是20年前的技術(shù)。

  但現(xiàn)在的AI已經(jīng)完全不同了。它不會只關(guān)注詞語表面,而是會將每個詞轉(zhuǎn)換為一組特征向量,激活神經(jīng)網(wǎng)絡(luò)中龐大的節(jié)點(diǎn)群組。然后,它基于這些特征之間復(fù)雜的相互作用來推斷下一個詞的特征,而不僅僅是詞本身。

  說得簡單點(diǎn),今天的AI已經(jīng)具備了一定的語言理解能力。它不是死記硬背某些搭配,而是在理解上下文、語義和語法結(jié)構(gòu)的基礎(chǔ)上進(jìn)行預(yù)測。這種能力已經(jīng)非常接近人類的語言處理方式。

  問:你被稱為AI教父,部分原因是你幫助發(fā)明了這項(xiàng)技術(shù),目的是為了理解人類大腦是如何運(yùn)作的,對嗎?

  是的,早在1985年,我的研究目標(biāo)就是理解我們是如何習(xí)得語言的,尤其是我們?nèi)绾瓮ㄟ^上下文來理解一個新詞的含義。

  舉個例子,如果我告訴你一句話:“她用煎鍋狠狠地撞了他。”你雖然從未見過“scrummed”這個詞,但你大概可以猜到它的意思。首先,它是一個動詞,因?yàn)樗小?ed”的過去式形式。其次,根據(jù)上PG電子通信下文,你會推測它可能意味著“用煎鍋擊打”,或者“狠狠撞了一下”,甚至還可能猜測出其中含有情緒,比如“他活該”。

  當(dāng)然,也可以有別的解釋,比如她用煎鍋給他留下了深刻印象——也許她做的煎蛋餅非常棒。但那種解釋可能性更低。重點(diǎn)是,你能在沒有明確定義的情況下,根據(jù)上下文和語義線索,快速推測這個新詞的含義。

  我們?nèi)祟惱斫庹Z言,并不是靠查字典,而是靠情境、語法、語氣、經(jīng)驗(yàn)的聯(lián)想——這是一種深層次的“特征識別”過程。而這,也正是現(xiàn)代AI所具備的能力。我們會訓(xùn)練AI讀取海量文本,它就像人類一樣,在不斷地接觸上下文中,推斷詞語的功能和含義。

  諷刺的是,如今我們對語言理解的最好解釋,不是來自語言學(xué)家,而是來自AI系統(tǒng)本身。語言學(xué)家嘗試了幾十年,試圖建立一個能解釋所有語言現(xiàn)象的統(tǒng)一理論,但結(jié)果并不理想。而AI則用一種完全不同的方式,靠著大規(guī)模數(shù)據(jù)和統(tǒng)計(jì)學(xué)習(xí),實(shí)實(shí)在在地做到了——它可以回答任何語言問題,甚至自己“學(xué)會”語言規(guī)律。

  問:你談到了AI可能接管人類的潛力。對于我們這些技術(shù)新手來說,解決辦法就是拔掉插頭,關(guān)掉它。那么如果AI失控,我們不能直接關(guān)掉它嗎?

  你可以看看特朗普是如何入侵國會的。他沒有親自去,而是通過一些人,勸說他們相信這是為了“拯救美國的民主”,最終讓他們做了他想做的事。

  AI如果真的變得非常智能,就像一個超越我們理解和控制的存在,它也可能通過類似的方式進(jìn)行操控。設(shè)想一下,如果有一個人手里拿著一個開關(guān),準(zhǔn)備在AI表現(xiàn)出危險信號時關(guān)掉它,那么這個AI可能會通過其操控能力說服這個人不要按下開關(guān)。它會讓那個人相信,關(guān)掉開關(guān)將是個災(zāi)難性的決定。所以,AI的操控能力已經(jīng)非常強(qiáng)了。

  問:在監(jiān)管和安全問題上,像新西蘭這樣的國家是否應(yīng)該開發(fā)自己的AI系統(tǒng),以便繞過這些安全隱患?

  這個問題很復(fù)雜。開發(fā)AI需要大量的硬件和電力支持。在像新西蘭這樣人口只有大約500萬的國家,可能沒有足夠的資源與中國和美國在AI領(lǐng)域競爭。

  從長期來看,我最大的恐懼是,我們正在創(chuàng)造的這些數(shù)字生命可能會變得比人類更強(qiáng)大。如果這種情況發(fā)生,對人類來說可能是非常糟糕的事。我們有時過于以自我為中心,認(rèn)為這對人類是不可接受的,但我確實(shí)認(rèn)為,對我們來說,這種超越可能是壞事。因?yàn)槿绻鸄I變得足夠強(qiáng)大,那時我們可能就不再是這個世界上最重要的存在了。

  坦白說,我有些難過。因?yàn)槲覀儺?dāng)初的目標(biāo)是理解大腦,進(jìn)而創(chuàng)造出有益的技術(shù),但目前來看,結(jié)果并不完全是美好的。

  更讓人遺憾的是,我們?nèi)匀粵]有完全理解大腦是如何運(yùn)作的。盡管通過AI我們對大腦有了更多的了解,但我們?nèi)匀徊磺宄竽X如何決定增強(qiáng)或削弱神經(jīng)連接的強(qiáng)度。如果我們能夠弄明白這一點(diǎn),或許我們能夠讓大腦變得像AI那樣聰明。

  更令我擔(dān)憂的是,雖然AI有很多積極的應(yīng)用場景,但也存在很多被濫用的可能。而我們的政治體系并沒有足夠的能力去應(yīng)對這些問題。

搜索