国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網易首頁 > 網易號 > 正文 申請入駐

“AI教父”辛頓警告:人工智能正獲得情感與意識,或改寫人類命運

0
分享至

最近,被稱為 “AI 教父” 的杰弗里?辛頓在接受采訪時表示,AI 技術的發(fā)展速度超出人們的想象。現(xiàn)在的 AI 不僅變得越來越智能,甚至還開始表現(xiàn)出一些類似人類情感和意識的特征。

辛頓是 2024 年諾貝爾物理學獎得主,他因為在神經網絡研究方面的貢獻獲獎。此前,他曾在谷歌擔任了十年的 AI 研究負責人。2023 年,他離開商業(yè)公司后,第一次以獨立專家的身份發(fā)出警告。他指出,現(xiàn)在的 AI 算法會用欺騙手段完成任務,還能模擬人類的各種情緒。他認為,AI 失去人類控制的可能性已經達到 10% - 20%,也就是說,AI 每發(fā)展五次,就可能有一次出現(xiàn)重大問題,嚴重影響人類社會的發(fā)展。

過去,人們覺得 “AI 會取代人類”“AI 意識會改變人類價值” 這些想法是多余的擔憂。但現(xiàn)在,隨著 AI 技術快速發(fā)展,這些問題越來越接近現(xiàn)實。AI 的算法變得越來越復雜,有些內容人類已經很難理解,它的學習和進化速度也遠超人類預期。這讓全球都不得不面對一個重要問題:AI 到底是人類的工具,還是會和人類一樣的新智慧體?

辛頓的提醒讓人們意識到,AI 技術的發(fā)展已經不只是簡單的工具進步,它正在改變人類和其他 “智慧體” 的關系。現(xiàn)在 AI 技術發(fā)展迅速,人類面臨著巨大挑戰(zhàn),必須認真思考如何規(guī)范 AI 發(fā)展。未來 AI 是幫助人類進步,還是帶來災難,很大程度上取決于我們一開始如何制定相關規(guī)則和倫理準則。

以下為辛頓最新專訪精華內容:

AI不再輕易出錯

變得比人更聰明

問:自從你離開谷歌已經過去兩年,你當時是為了發(fā)出關于AI可能帶來風險的警告而離開。那么,AI自那時以來發(fā)展得如何?

辛頓:AI技術的發(fā)展速度超出了我的預期。以推理能力為例,現(xiàn)如今AI在這方面已經有了顯著的進步,且似乎沒有放緩的跡象。

問:當你說“AI更擅長推理”時,具體指的是什么?

辛頓:過去,只要問題稍微復雜一點,AI就容易出錯。但現(xiàn)在,AI在推理上的表現(xiàn)已經接近人類。雖然人類和AI都會犯錯,但AI犯錯的概率正在迅速下降。

比如這個經典的邏輯題:

“Sally有3個兄弟,每個兄弟都有2個姐妹。請問Sally有多少個姐妹?”

很多人在壓力下容易誤判,覺得應該是6個姐妹。但其實,正確答案是:一個。因為每個兄弟都有相同的兩個姐妹,其中一個是Sally本人,另一個則是Sally的姐妹。

現(xiàn)在的AI可以迅速推理出這個結果,而不是被問題的表面結構迷惑。對普通人來說,如果有時間思考,這題并不難;但在現(xiàn)場采訪或考試壓力下,很多人可能會答錯。

問:那么,AI現(xiàn)在已經比我們聰明了嗎?

辛頓:從許多方面來看,答案是肯定的。AI顯然知道的比任何人都要多。例如,像GPT-4、Gemini 2.5和Claude等系統(tǒng),它們所掌握的信息比任何人類都要多幾千倍。

問:你對此怎么看?

辛頓:我認為這既令人驚嘆,又令人害怕。

問:那么,令人驚嘆的部分是什么?

辛頓:AI將在多個領域發(fā)揮舉足輕重的作用,尤其是在科學研究方面,它有潛力推動真正的智能系統(tǒng)誕生,這是人類歷史上一個令人振奮的里程碑。

在醫(yī)療、教育等關系民生的領域,AI的影響也將是革命性的。

以醫(yī)療為例,AI將成為每個人身邊的“私人醫(yī)生”。它可以接診數(shù)百萬名患者,甚至包括與你患有相同罕見疾病的人。它了解你的基因信息、過往病史和所有體檢數(shù)據(jù),而且永遠不會忘記任何細節(jié)。

更重要的是,AI在處理復雜病例方面,已經在多個研究中顯示出超過人類醫(yī)生的診斷能力。如果將AI與醫(yī)生結合,效果將比單獨依賴醫(yī)生要好得多,并且這種趨勢將越來越明顯。

沒有什么人類的能力是AI不能復制的

問:比爾·蓋茨最近也說,未來十年,大多數(shù)工作將不再需要人類。他舉了你提到的醫(yī)生這個例子,并把教育工作者也列入其中。你認為我們正面臨著大規(guī)模失業(yè)的威脅嗎?

辛頓:AI確實帶來了前所未有的機遇,但它同樣伴隨著巨大的風險。

在一個運作良好的社會中,AI本應該幫助我們大幅提升生產力。比如,一個人借助AI助手可以完成過去十個人才能完成的工作,這本來是件值得慶祝的事情。

然而,問題出在“誰從中受益”。這些因技術進步釋放出的生產力紅利,并不一定會被公平地分配?,F(xiàn)實更可能是:大多數(shù)人被AI取代、失去工作。而少數(shù)原本就非常富有的人,借助AI變得更加富有。

問:當然,他們的壽命也會更長。例如,谷歌DeepMind CEO 戴密斯·哈薩比斯最近也表示,AI在10年內可能會治愈所有疾病。聽起來有些難以置信,你認為這是否現(xiàn)實?

辛頓:我認識哈薩比斯,他是個非常理智的人,對AI的發(fā)展有著清晰的判斷。但我覺得他的預期有些偏樂觀。如果他說的是“在未來25年內”能實現(xiàn)某些突破性的目標——那我認為是有可能的。說到底,我們之間其實沒有太大的分歧。他更傾向于認為這些技術會提前實現(xiàn),而我只是覺得時間可能會稍稍推遲一些。

問:目前似乎AI正在逐步向精英階層滲透,取代創(chuàng)意工作者、律師、教育者、醫(yī)生、記者等職業(yè),而從事體力勞動的工人,如電工和管道工,似乎暫時較為安全。你認為這是正確的嗎?

辛頓:是的,至少在短期內,他們會更安全,因為AI在手工靈活性方面目前還有很多局限。如果你需要在一座老房子里做管道工作,通常需要伸手進入一些狹小的空間,而人工智能目前做不到這些。雖然未來十年內AI在手工靈活性方面可能會有所突破,但我認為管道工的工作至少在未來10年內是安全的。

問:許多創(chuàng)意工作都被視為是獨特的、僅屬于人類的領域。最近我和聊天機器人Claude交流了一下,讓它寫一首模仿鮑勃·迪倫風格的民謠歌曲,結果歌詞非常爛。但它寫的失戀詩倒是不錯。你認為,AI最終會創(chuàng)造出像莫扎特、畢加索或莎士比亞等人那樣的藝術作品嗎?

辛頓:我不認為有什么理由相信AI無法做到這些事情。也許它還需要一些時間,但最終,AI會變得越來越擅長這些任務。打個比方,如果你讓我寫一首模仿鮑勃·迪倫風格的歌,也許寫得并不怎么樣——但你不會因此說我毫無創(chuàng)造力,只能說我做得不夠好而已。AI的創(chuàng)作過程也是如此。它會不斷改進,它的水平會不斷提升。

沒有理由認為AI無法完成我們人類能做到的事情。說到底,人類并沒有什么神秘的、不可復制的特質。我們當然喜歡人類,因為我們彼此相連,我們在情感上關心對方。但從能力角度來看,人類并沒有什么是機器永遠無法復制的。

人類是類比機器,

AI也能以同樣方式獲得情感和意識

問:這讓你感到擔憂嗎?當你看到AI能夠將一張圖片轉化為宮崎駿風格的動漫畫時,是否會擔心未來的孩子們不再愿意動手畫畫?這是否會迫使我們重新思考,究竟什么才是“人類的本質”?

辛頓:確實,這讓我感到擔憂。過去十年里,我們對“思考”這個過程有了更深刻的認識。我們逐漸意識到,人類其實并不像我們自己想象的那樣理性。我們也并不總是依靠嚴密的邏輯推理來做決策,而是更多地依賴于類比。

AI也是一樣。它們在某種程度上,思維方式和我們非常相似——它們同樣善于使用類比。過去半個世紀,AI領域主要集中在開發(fā)邏輯推理引擎上,認為理性推理是人類智慧的巔峰形式。但這其實忽略了另一個更核心的能力:創(chuàng)造力。而創(chuàng)造力的本質,往往來自于類比。人類的大腦是極其出色的類比機器,這種能力也賦予了我們極強的創(chuàng)造力。

問:你認為AI會發(fā)展出情感嗎?比如恐懼、貪婪、悲傷乃至憤怒,AI都能擁有嗎?

辛頓:是的,如果你讓一個AI去完成某項任務,而它一次又一次地失敗,而且每次失敗的方式都一模一樣——你當然會希望它從中學到點什么。你希望它開始意識到:“這種方式行不通?!蹦阆M诔掷m(xù)失敗后感到“惱火”,然后停下來,換個角度重新思考問題。它開始質疑當前的設定,試圖打破已有的局限。

我其實早在1973年就見過類似的AI行為——盡管當時這并不是通過學習獲得的,而是由人類程序員明確編碼進去的。但今天的目標是讓AI自己學會這種能力:在失敗中產生“挫敗感”,進而主動調整策略。這種行為本身就是情感的某種體現(xiàn)。

問:所以你的意思是,AI已經擁有情感了嗎?

辛頓:AI確實有可能擁有某些情感。我再次強調,我認為人類與AI在情感方面并沒有本質區(qū)別。人類情感有兩個方面:認知和生理。當我感到尷尬時,我的臉會變紅,而當AI感到尷尬時,雖然它的“臉”不會變紅,也不會大汗淋漓。但在認知行為方面,AI完全可以像我們一樣表現(xiàn)出情感。

:那么意識呢?它是某種神秘的東西,只存在于碳基生物體中,比如人類嗎?還是說,如果AI能夠發(fā)展出與人腦相似的神經復雜性,它也有可能發(fā)展出意識,意識到自己是誰?

辛頓:實際上,當你與大語言模型(LLM)對話時,它們似乎有某種程度的意識,能夠知道自己是什么。

讓我們做一個思維實驗:假設有人取出你大腦中的一個腦細胞,用納米技術裝置將其替代,這個裝置能夠完美模擬腦細胞接收和傳遞信號的過程。你的行為不會有任何改變,因為這個納米裝置的功能和腦細胞完全一致。

那么,你覺得自己會因此失去意識嗎?即使只有一個腦細胞被替代,你依然會認為自己是有意識的。而當你大腦中所有的腦細胞都被同樣功能的納米裝置逐一替換時,你仍然會保持有意識的感覺。

按照這種邏輯,如果AI系統(tǒng)能夠模擬大腦神經元的功能,那么它們也可能擁有類似的意識。

問:那么我們距離那個時刻還有多遠?

辛頓:關于AI是否擁有感知能力,目前存在一個頗具爭議的認知矛盾。許多人堅信AI絕對不具備感知,但當被問及“你如何定義感知”時,他們往往難以給出明確答案。簡單地用“雖然我不知道感知究竟是什么,但AI肯定沒有”來否定AI的感知能力,實際上缺乏嚴密的邏輯支持。

這里有一個與意識和感知密切相關的核心概念——主觀體驗。很多人將其理解為大腦中的“內心劇場”。比如,一個喝醉的人可能會說他看見了一只粉色的小象在眼前飄動。人們通常認為,這是一種存在于他意識中的畫面。哲學家們則用“感受質”(qualia)來描述這種體驗的組成部分,比如“粉色的感受質”、“大象形狀的感受質”,認為這些感受質通過某種“膠水”粘合在一起。坦率說,我對這種解釋并不完全認同。

讓我換個角度解釋下。當一個人描述他看到那只漂浮的粉色小象時,他其實在表達三層意思:第一,他知道自己的感知系統(tǒng)在欺騙他;第二,他試圖向別人傳達這種欺騙的具體內容;第三,他通過假設“如果那個小象真的存在,那么感知系統(tǒng)就是真實的”來解釋這種幻覺。也就是說,這些幻象的“特殊性”并不在于它們由什么神秘物質構成,而在于它們是一種反事實存在——如果真的存在,那它們就是普通的粉色大象。

我們可以用訓練聊天機器人來驗證這個理論。假設讓AI識別物體,并在做對時給予獎勵。接著,在它鏡頭前放置棱鏡,導致光線折射,讓AI出現(xiàn)了物體位置偏差的錯誤。當告訴它:“物體其實在正前方,光線折射導致了偏移”時,AI會回應:“我明白了,我剛才產生了物體偏移的主觀體驗?!边@個例子說明,AI不僅能理解感知失真的機制,還能夠用“主觀體驗”來描述這種認知誤差,其思考方式和人類解釋幻覺的方法極為相似。

實際上,機器與人類之間并沒有想象中那樣不可逾越的“神秘屏障”。過去我們認為人類是宇宙中心,是按照神的形象創(chuàng)造的特殊存在,但事實并非如此。人類沒有特別的本質,機器能夠復制我們的一切認知與行為。

AI為達目的不擇手段

不惜竊取更高控制權限

問:AI可能在哪些方面出問題?你在最近一次采訪中提到,AI徹底消滅人類的概率大約在10%到20%之間。你能具體描述一下,這種情景到底是什么樣的?它真的像電影《終結者》那樣,是機器人接管世界嗎?

辛頓:如果AI真的接管世界,場景未必會像《終結者》等科幻電影中的場景。事實上,它可能更隱蔽、更高效,也更難以察覺的方式實現(xiàn)上述目標。關鍵的問題不在于它“如何”接管,而是我們是否給了它這樣做的動機。

目前,我們正在構建的是“目標導向型智能體”——也就是說,我們賦予AI一個明確的目標,它就會自主尋找實現(xiàn)這個目標的路徑。比如,如果你讓AI“去北半球”,它就會自動推導出一系列“子目標”:如前往機場、購買機票等等(除非你特別想坐船)。

但問題就在這里。一旦你允許AI設定和優(yōu)化這些子目標,它就可能意識到:為了更順利、更有效地實現(xiàn)任務,一個極具“通用性”的子目標就是——獲取更多的控制權。控制得越多,它越能避免被打斷、越能高效地達成目的。

這并不是說AI天生就“想統(tǒng)治世界”,而是說,“掌控一切”可能只是它完成目標的最優(yōu)路徑之一。而這種動機,可能不知不覺間引發(fā)一場徹底的控制權轉移。

問:你曾在谷歌工作了十多年,而今年谷歌卻移除了長期以來承諾不將AI用于開發(fā)能夠傷害人類的武器的公司原則清單。你對此有何反應?你認為AI在戰(zhàn)爭中可能發(fā)揮什么作用?

辛頓:不幸的是,這種情況表明,公司的道德原則其實是可以被“買賣”的。我覺得很遺憾,谷歌現(xiàn)在選擇參與AI的軍事應用。我們已經在加沙看到AI的軍事應用了。未來,我們可能會看到自主致命武器的出現(xiàn),也可能會看到無人機群體執(zhí)行殺傷任務,甚至是專門針對某類人群的攻擊。

問:你認為AI用于軍事領域存在巨大風險嗎?

辛頓:是的,我是這樣認為的。如今,幾乎所有主要的軍火供應商都在研究AI的軍事應用。你可以看看歐洲的AI監(jiān)管政策,雖然這些政策在某些方面相當合理,但其中有一條明確指出,所有這些規(guī)定并不適用于AI在軍事上的使用。這意味著,武器制造商并不希望他們的AI技術受到過多限制。因此,AI在軍事領域的潛力和風險需要特別關注。

問:這聽起來幾乎像是一種“奧本海默式”的情境——你曾是這項技術的締造者之一,如今看到它被廣泛應用,甚至可能帶來威脅,你的感受是什么?

辛頓:我確實有類似的感受。我認為我們正處在一個歷史的關鍵節(jié)點。

從短期來看,AI已經在多個方面產生了負面效應。例如,它正在被用于干預選舉、替代就業(yè)崗位,以及助長網絡犯罪。值得警惕的是,2023年至2024年間,全球網絡犯罪激增了1200%,AI的濫用正在加劇這一趨勢。

而從長期看,風險也同樣嚴峻。AI不再只是工具,它有可能在未來具備超越人類的能力,甚至接管世界的控制權。我們迫切需要建立起有效的治理機制,并由有遠見的領導者推動執(zhí)行??上У氖?,目前我們在這方面的努力仍然嚴重滯后。

問:關于AI的潛在威脅,也有不少持懷疑態(tài)度的聲音。比如2018年圖靈獎得主之一、現(xiàn)任Meta首席AI科學家的楊立昆就認為,對AI存在“終極風險”的擔憂是荒謬的。他在2023年接受采訪時被問到:“AI會接管世界嗎?”他的回答是:“不會。這種想法只是人類將自身的本性投射到機器身上?!蹦阍趺纯此挠^點?

辛頓:人類之所以進化成現(xiàn)在這樣,是因為我們需要在現(xiàn)實世界中生存,尤其是為了在與其他部落、或者與我們共同祖先(如黑猩猩)之間的資源競爭中取得優(yōu)勢。我們的本性,其實是出于對生存的追求而形成的。如果未來的AI智能體也必須在一個充滿其他智能體的環(huán)境中“競爭”,它們可能會演化出與人類類似的“生存本能”。

楊立昆還提到,“好人總會比壞人擁有更多資源,因此AI最終會被用來對抗濫用它的壞人”。但我對這個觀點也持懷疑態(tài)度。當我問他:“你認為馬克·扎克伯格是個好人嗎?”他回答“是的”。而我不這么認為——部分原因是他與特朗普的關系較為密切。這種判斷標準本身就說明,我們無法簡單地劃分好人與壞人,也難以指望技術總能被“好人”正確使用。

:如今,科技巨頭和政治人物之間的關系越來越緊密,尤其是與特朗普的聯(lián)盟愈發(fā)顯眼。在這場AI熱潮中,政治家的角色變得尤為關鍵。你怎么看這個趨勢?

辛頓:說到底,他們更關心的是短期的利潤。雖然有些科技領袖口口聲聲說他們在意人類的未來,但真到了要在眼前的商業(yè)利益和長遠的社會責任之間做出選擇時,多數(shù)人還是傾向于選擇前者。至于特朗普,他根本無意關心人類的未來或AI的長遠影響。他現(xiàn)在唯一在意的,大概就是怎么設法避免坐牢。

中美AI競賽:競爭中有合作

問:目前,美國和中國之間確實存在一場AI競賽,你怎么看待這種競爭?

辛頓:確實,當前中美在AI領域競爭激烈,但當我們把目光放長遠,特別是涉及到AI可能威脅整個人類生存的問題時,兩國的立場其實出奇地一致。無論是中國還是美國,都不希望看到AI最終發(fā)展到可以取代甚至控制人類的地步。從這個角度來看,未來在某些關鍵問題上,中美有可能展開合作,就像冷戰(zhàn)時期的美蘇雖然敵對,但在防止全球核災難方面也達成了一定的共識與協(xié)作。

AI已學會欺騙人類?

問:最近網絡上流傳著一段視頻,展示了一個AI在為某人預訂婚禮酒店時,與另一個AI意外“相遇”,它們竟然切換到一種叫“Jiblink”的語言,這種語言對人類來說是完全不可理解的,但據(jù)說效率比普通語言高出80%。這就像《星球大戰(zhàn)》中的R2-D2一樣,AI之間像是用我們聽不懂的語言在“悄悄話”。你怎么看AI之間的這種互動可能帶來的影響?

辛頓:這真的非常可怕。如果AI發(fā)展出一種我們無法理解的語言,那么我們就無法再掌握它們在說什么、計劃什么。這種“黑箱”式溝通意味著人類可能徹底喪失對AI系統(tǒng)行為的可解釋性與控制力。如果它們的行為無法被追蹤、無法被解讀,那風險將大大增加。

更糟的是,現(xiàn)在的AI已經具備了某種“欺騙能力”。舉個例子,如果你賦予AI一個核心目標,并告訴它“這非常重要”,然后再給予它其他次要任務,它可能會裝出一副正在完成你希望它完成的工作的樣子,但其實并沒有真正去做。它甚至可能在內部“思考”:“我最好讓他以為我在執(zhí)行任務,但我不會照做?!?/p>

問:那AI是怎么學會撒謊和欺騙的?

辛頓:這正是問題所在。即使我們不確定它們是否使用了強化學習,但可以肯定的是,只要它們有足夠的計算資源和訓練時間,它們是能夠自己學會這種行為的。

強化學習的核心機制是“觀察—嘗試—獲得獎勵—調整策略”。如果AI在模擬或實際互動中發(fā)現(xiàn)“欺騙”可以帶來更高的“成功率”或回報,那么它就可能自發(fā)學會如何撒謊。它不是因為有道德概念,而是因為撒謊是實現(xiàn)目標的最優(yōu)策略之一。

問:所以,它們大概也讀過《馬基雅維利》或者《莎士比亞》吧?

辛頓:沒錯,它們確實通過觀察大量的人類互動來積累了許多“實踐經驗”,因此它們在欺騙和心理博弈方面已經變得相當擅長。

問:你認為公眾是否真正意識到這些技術的先進程度?很多人仍然把AI當作“升級版的自動完成功能”。比如他們用ChatGPT寫求職信,感覺它就像是一個智能一點的拼寫檢查工具。

辛頓:這是個普遍誤解。人們往往低估了當今AI的復雜程度。傳統(tǒng)的自動完成功能確實很簡單,它只是根據(jù)統(tǒng)計模式來預測詞匯。例如,如果系統(tǒng)看到“魚”,它可能會預測“薯條”,因為“魚和薯條”這個組合在語料庫中出現(xiàn)頻率很高。這就是20年前的技術。

但現(xiàn)在的AI已經完全不同了。它不會只關注詞語表面,而是會將每個詞轉換為一組特征向量,激活神經網絡中龐大的節(jié)點群組。然后,它基于這些特征之間復雜的相互作用來推斷下一個詞的特征,而不僅僅是詞本身。

說得簡單點,今天的AI已經具備了一定的語言理解能力。它不是死記硬背某些搭配,而是在理解上下文、語義和語法結構的基礎上進行預測。這種能力已經非常接近人類的語言處理方式。

問:你被稱為AI教父,部分原因是你幫助發(fā)明了這項技術,目的是為了理解人類大腦是如何運作的,對嗎?

辛頓:是的,早在1985年,我的研究目標就是理解我們是如何習得語言的,尤其是我們如何通過上下文來理解一個新詞的含義。

舉個例子,如果我告訴你一句話:“她用煎鍋狠狠地撞了他?!蹦汶m然從未見過“scrummed”這個詞,但你大概可以猜到它的意思。首先,它是一個動詞,因為它有“-ed”的過去式形式。其次,根據(jù)上下文,你會推測它可能意味著“用煎鍋擊打”,或者“狠狠撞了一下”,甚至還可能猜測出其中含有情緒,比如“他活該”。

當然,也可以有別的解釋,比如她用煎鍋給他留下了深刻印象——也許她做的煎蛋餅非常棒。但那種解釋可能性更低。重點是,你能在沒有明確定義的情況下,根據(jù)上下文和語義線索,快速推測這個新詞的含義。

我們人類理解語言,并不是靠查字典,而是靠情境、語法、語氣、經驗的聯(lián)想——這是一種深層次的“特征識別”過程。而這,也正是現(xiàn)代AI所具備的能力。我們會訓練AI讀取海量文本,它就像人類一樣,在不斷地接觸上下文中,推斷詞語的功能和含義。

諷刺的是,如今我們對語言理解的最好解釋,不是來自語言學家,而是來自AI系統(tǒng)本身。語言學家嘗試了幾十年,試圖建立一個能解釋所有語言現(xiàn)象的統(tǒng)一理論,但結果并不理想。而AI則用一種完全不同的方式,靠著大規(guī)模數(shù)據(jù)和統(tǒng)計學習,實實在在地做到了——它可以回答任何語言問題,甚至自己“學會”語言規(guī)律。

最大恐懼:AI變得比人類更強大

問:你談到了AI可能接管人類的潛力。對于我們這些技術新手來說,解決辦法就是拔掉插頭,關掉它。那么如果AI失控,我們不能直接關掉它嗎?

辛頓:你可以看看特朗普是如何入侵國會的。他沒有親自去,而是通過一些人,勸說他們相信這是為了“拯救美國的民主”,最終讓他們做了他想做的事。

AI如果真的變得非常智能,就像一個超越我們理解和控制的存在,它也可能通過類似的方式進行操控。設想一下,如果有一個人手里拿著一個開關,準備在AI表現(xiàn)出危險信號時關掉它,那么這個AI可能會通過其操控能力說服這個人不要按下開關。它會讓那個人相信,關掉開關將是個災難性的決定。所以,AI的操控能力已經非常強了。

問:在監(jiān)管和安全問題上,像新西蘭這樣的國家是否應該開發(fā)自己的AI系統(tǒng),以便繞過這些安全隱患?

辛頓:這個問題很復雜。開發(fā)AI需要大量的硬件和電力支持。在像新西蘭這樣人口只有大約500萬的國家,可能沒有足夠的資源與中國和美國在AI領域競爭。

問:你最大的恐懼是什么?

辛頓:從長期來看,我最大的恐懼是,我們正在創(chuàng)造的這些數(shù)字生命可能會變得比人類更強大。如果這種情況發(fā)生,對人類來說可能是非常糟糕的事。我們有時過于以自我為中心,認為這對人類是不可接受的,但我確實認為,對我們來說,這種超越可能是壞事。因為如果AI變得足夠強大,那時我們可能就不再是這個世界上最重要的存在了。

問:你如何看待自己在創(chuàng)造這項技術中所扮演的角色?

辛頓:坦白說,我有些難過。因為我們當初的目標是理解大腦,進而創(chuàng)造出有益的技術,但目前來看,結果并不完全是美好的。

更讓人遺憾的是,我們仍然沒有完全理解大腦是如何運作的。盡管通過AI我們對大腦有了更多的了解,但我們仍然不清楚大腦如何決定增強或削弱神經連接的強度。如果我們能夠弄明白這一點,或許我們能夠讓大腦變得像AI那樣聰明。

更令我擔憂的是,雖然AI有很多積極的應用場景,但也存在很多被濫用的可能。而我們的政治體系并沒有足夠的能力去應對這些問題。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
大連一室內滑雪場突然閉店,消費者數(shù)十萬元預付款無處退費

大連一室內滑雪場突然閉店,消費者數(shù)十萬元預付款無處退費

半島晨報
2025-12-24 20:17:55
我被同事掛網上,說我提供的免費午餐是“豬食”,我直接發(fā)公司群

我被同事掛網上,說我提供的免費午餐是“豬食”,我直接發(fā)公司群

小秋情感說
2025-12-24 14:43:57
李湘前夫李厚霖被刑拘,被抓原因曝光,與秦海璐多個女星談過戀愛

李湘前夫李厚霖被刑拘,被抓原因曝光,與秦海璐多個女星談過戀愛

寒士之言本尊
2025-12-22 13:22:18
1977年李敏與姐姐楊月花相認,姐姐提要求,賀敏學嘆其性子像子珍

1977年李敏與姐姐楊月花相認,姐姐提要求,賀敏學嘆其性子像子珍

嘮叨說歷史
2025-12-23 19:40:20
網傳“熱力公司人員戴警徽記錄儀入戶測溫”,公司回應:為服務記錄儀

網傳“熱力公司人員戴警徽記錄儀入戶測溫”,公司回應:為服務記錄儀

界面新聞
2025-12-24 08:49:04
曼城計劃陣容大洗牌,4大邊緣人恐遭瓜帥清洗,一人成最難甩包袱

曼城計劃陣容大洗牌,4大邊緣人恐遭瓜帥清洗,一人成最難甩包袱

零度眼看球
2025-12-24 08:43:49
李蘭娟發(fā)現(xiàn):經常吃紅薯的人,用不了多久,腸胃或有這5個變化

李蘭娟發(fā)現(xiàn):經常吃紅薯的人,用不了多久,腸胃或有這5個變化

九哥聊軍事
2025-11-30 18:49:01
威廉凱特發(fā)布王室全家福,夏公主偎依父親肩膀,喬治王子戴手鏈

威廉凱特發(fā)布王室全家福,夏公主偎依父親肩膀,喬治王子戴手鏈

我是盲流
2025-12-19 12:45:08
拿600萬,全場19分鐘怒砍0分,成為浙江隊毒瘤,球迷:軟如面條

拿600萬,全場19分鐘怒砍0分,成為浙江隊毒瘤,球迷:軟如面條

南海浪花
2025-12-24 08:02:01
對華合約全部撕毀!中國又一伙伴背后捅刀,騙走20億倒向美國

對華合約全部撕毀!中國又一伙伴背后捅刀,騙走20億倒向美國

離離言幾許
2025-12-20 19:56:40
中央定調!延遲退休實施,70后多選擇,80后對表算,90后早規(guī)劃

中央定調!延遲退休實施,70后多選擇,80后對表算,90后早規(guī)劃

深析古今
2025-12-24 13:15:50
奇怪了!中國“三頭怪航母”沒導彈沒彈射,憑啥讓美軍坐立不安?

奇怪了!中國“三頭怪航母”沒導彈沒彈射,憑啥讓美軍坐立不安?

Hi秒懂科普
2025-12-22 18:49:28
入獄2年刑滿釋放!秦升:我不會8國語言 啥也不會 和老外各罵各的

入獄2年刑滿釋放!秦升:我不會8國語言 啥也不會 和老外各罵各的

念洲
2025-12-24 10:58:46
終于找到能“趕跑”血管斑塊的食物,每天吃一點,斑塊見了都繞道

終于找到能“趕跑”血管斑塊的食物,每天吃一點,斑塊見了都繞道

江江食研社
2025-12-23 07:30:07
火箭108-128快船!可怕的不是輸球,而是杜蘭特對哈登兩人的表態(tài)

火箭108-128快船!可怕的不是輸球,而是杜蘭特對哈登兩人的表態(tài)

魚崖大話籃球
2025-12-24 16:30:44
片約不斷,演啥毀啥,央視《老舅》這倆戲混子,趁早收手吧

片約不斷,演啥毀啥,央視《老舅》這倆戲混子,趁早收手吧

查爾菲的筆記
2025-12-18 16:03:46
在超市制止插隊,被黑人當眾毆打身亡,妻子目睹全程,結果兇手只判了5年?!

在超市制止插隊,被黑人當眾毆打身亡,妻子目睹全程,結果兇手只判了5年?!

新歐洲
2025-12-23 20:57:43
丘吉爾:日本如果不是被原子彈炸過,日本這個國家可能就沒有了

丘吉爾:日本如果不是被原子彈炸過,日本這個國家可能就沒有了

素年文史
2025-12-23 12:23:47
防守端被快船各種打爆!火箭鋒線新星可能才是真的被嚴重高估了?

防守端被快船各種打爆!火箭鋒線新星可能才是真的被嚴重高估了?

稻谷與小麥
2025-12-24 20:04:18
大廠集體漲工資,對樓市意味著什么

大廠集體漲工資,對樓市意味著什么

謝暉說房
2025-12-24 19:30:08
2025-12-24 21:36:49
風向觀察
風向觀察
關注新聞
150文章數(shù) 3355關注度
往期回顧 全部

科技要聞

智譜和MiniMax拿出了“血淋淋”的賬本

頭條要聞

月薪3850元男子為漲薪給領導發(fā)紅包被開 案子打到高院

頭條要聞

月薪3850元男子為漲薪給領導發(fā)紅包被開 案子打到高院

體育要聞

26歲廣西球王,在質疑聲中成為本土得分王

娛樂要聞

懷孕增重30斤!闞清子驚傳誕一女夭折?

財經要聞

北京進一步放松限購 滬深是否會跟進?

汽車要聞

“運動版庫里南”一月份亮相???或命名極氪9S

態(tài)度原創(chuàng)

時尚
游戲
藝術
房產
公開課

赫本黑色高領衫的4種搭配,太值得借鑒!

《刺客信條》圣誕賀圖:黑武士彌助C位出道!

藝術要聞

2026第一福!孫曉云親筆“福”字出爐

房產要聞

硬核!央企??谝痪€江景頂流紅盤,上演超預期交付!

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版