国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

蘇州大學聯(lián)合阿里云:讓AI"情感支持師"學會同時用多種招式安慰人

0
分享至


這項由蘇州大學計算機科學與技術學院、阿里云Qwen點金團隊以及廈門大學聯(lián)合開展的研究,于2026年4月發(fā)布在預印本平臺arXiv,論文編號為arXiv:2604.17972。有興趣深入了解原始研究細節(jié)的讀者,可通過該編號查詢完整論文。

當你情緒低落、向朋友傾訴時,一個真正懂你的朋友會怎么回應你?他不會只是干巴巴地說一句"你要堅強",也不會只是機械地問一個問題,而是先認真傾聽你的心情,然后分享他自己的類似經(jīng)歷,緊接著給你一些實際建議,甚至在同一段話里,把這幾件事自然地融合在一起。這種"一次說多件事"的溝通方式,其實正是人類在安慰彼此時最本能的表達習慣。

然而,當AI被訓練去承擔"情感支持對話"這項任務時,研究者們長期以來給它設置了一個過于簡單化的規(guī)則:每次回應只能用一種"招式"。就好像規(guī)定一個廚師每道菜只能用一種烹飪手法——要么只煎,要么只蒸,要么只燉——但永遠不能在同一道菜里組合技法。這當然與現(xiàn)實中的廚藝相去甚遠。

蘇州大學的研究團隊敏銳地發(fā)現(xiàn)了這個問題,并正面回應了一個此前幾乎沒有人系統(tǒng)研究過的問題:允許AI在同一句話里同時使用多種支持策略,究竟是好事還是壞事?這個問題看似簡單,答案卻并不顯而易見,因為允許更多策略也可能帶來更多噪音和混亂。研究團隊為此設計了兩種全新的生成方法,并引入認知推理和強化學習來加強模型表現(xiàn),最終通過大量實驗給出了一個清晰的答案。

一、情感支持對話是什么,為什么它很難

在正式進入研究內(nèi)容之前,有必要先理解一下背景。所謂"情感支持對話",指的是通過自然語言交流來幫助正在經(jīng)歷痛苦的人——提供理解、認可和應對指導。研究者們使用的核心數(shù)據(jù)集叫做ESConv,這是2021年由劉思陽等人基于Hill的助人技能理論(《幫助技能:促進探索、洞察與行動》)構(gòu)建的一個專門數(shù)據(jù)集,包含1300段經(jīng)過標注的情感支持對話,已成為該領域最重要的基準測試集之一。

這個數(shù)據(jù)集里一共標注了八種支持策略,分別是:提問(引導對方說出感受和情況)、復述或改述(用自己的語言重述對方說的話以確認理解)、反映感受(直接承認并認可對方的情緒)、自我披露(在適當時候分享自己的類似經(jīng)歷)、肯定與安慰(提供安慰以減輕對方的焦慮或痛苦)、提供建議(給出實際可操作的建議)、提供信息(給出與情況相關的事實性解釋)以及其他類別。

這就像廚師有八種烹飪手法可以選擇。過去的AI系統(tǒng)每次只能選一種,而研究團隊從數(shù)據(jù)本身發(fā)現(xiàn),現(xiàn)實中這樣做是不夠的。在ESConv數(shù)據(jù)集的15325條"支持者回應"中,有整整17.7%的回應同時使用了兩種或更多策略。換句話說,幾乎五分之一的時候,真實的支持者并不滿足于只用一種方法。數(shù)據(jù)集里還有將近1638條使用兩種策略的回應,178條使用三種策略的回應,甚至還有26條同時用了超過三種策略的情況。

論文中給出了一個具體而生動的對話例子。一個在新冠疫情封控期間感到焦慮煩躁的人,在向支持者傾訴自己的孤獨感和不耐煩情緒時,支持者給出了這樣一段回應——它先用"自我披露"的方式說"我自己最近也感覺越來越容易對身邊的人失去耐心",再用"肯定與安慰"說"我也是個內(nèi)向的人,一開始還挺享受封控的,但隨著時間拖長就真的難受了",最后用"提問"說"你有沒有找到什么保持體力活動的方法?"。這三種策略在同一段話里自然流動,完整而真實。

這就是研究團隊要解決的真實問題:如何讓AI學會這種"組合出招"的能力?

二、兩種截然不同的"出招方式"

研究團隊設計了兩種核心方法,可以把它們理解為廚師在準備一頓飯時的兩種不同工作流程。

第一種叫做"All-in-One"(一鍋端),顧名思義,就是讓AI一次性把所有策略和回應都預測出來,放在同一次輸出里。具體的格式是把每種策略緊跟在它對應的回應文字之前,然后把所有這些"策略+回應"的組合依次拼接在一起,形成一個完整的結(jié)構(gòu)化序列。這就像一個廚師在腦子里把整道菜的所有步驟都想清楚,然后一口氣列出完整菜譜:先煎再蒸再淋汁,同時交代每步怎么做。訓練時,模型學習的目標是在給定對話歷史的條件下,最大化這整個輸出序列出現(xiàn)的概率。

第二種叫做"One-by-One"(一步一步來),更接近人類思考的方式。在這個方法里,AI并不試圖一次性預測所有內(nèi)容,而是每次只預測一種策略和對應回應,同時還需要預測一個"繼續(xù)標志"——也就是告訴系統(tǒng):我現(xiàn)在說完了,接下來要不要繼續(xù)再說一段?如果標志是"繼續(xù)",系統(tǒng)就再走一遍這個流程,選擇下一個策略并生成對應回應;如果標志是"停止",整次回應就結(jié)束了。為了防止模型無休止地輸出,研究團隊設置了上限K=3,因為數(shù)據(jù)集里幾乎所有的多策略回應都不超過三種策略。這就像廚師在烹飪時邊做邊決策:先把第一道菜做好,然后判斷這頓飯是否完整,不完整就繼續(xù)做第二道,直到覺得夠了為止。

這兩種方法各有特點。"一鍋端"方式更簡潔直接,但同時預測多個策略的壓力更大,容易引入噪音。"一步一步來"方式把復雜任務拆解為多個較小的決策,讓模型在每一步都能更專注,但需要額外學習"什么時候該停"這件事。

三、讓AI學會"先想再說"

單純的格式訓練還不夠。研究團隊發(fā)現(xiàn),要讓AI真正理解什么時候該用哪種策略、為什么這么用,需要給它配備一種"思考骨架"——一種在給出最終回應之前,先進行結(jié)構(gòu)化推理的能力。

研究者們?yōu)榇艘肓苏J知推理鏈,這是一種由四個節(jié)點構(gòu)成的思考框架。第一個節(jié)點叫"情境節(jié)點",用于捕捉當前對話中對方所面臨的外部處境和關鍵情感信號,比如"這個人正在為找不到工作而焦慮"。第二個節(jié)點叫"認知節(jié)點",用于推斷對方內(nèi)心的解讀和信念,比如"他覺得自己失去了生活的方向感"。第三個節(jié)點叫"情緒節(jié)點",用于描述從這些認知中涌現(xiàn)出的情緒狀態(tài),比如"他感到沮喪和無力"。第四個節(jié)點叫"支持計劃節(jié)點",用于規(guī)劃即將采用的支持策略及其順序和目的。

把這四個節(jié)點想象成一個偵探在開口說話之前的內(nèi)心獨白:先看清楚現(xiàn)場(情境),再推測嫌疑人的動機(認知),再感受一下情緒氛圍(情緒),最后制定行動方案(支持計劃)。這種"先思后言"的結(jié)構(gòu),讓AI不再是基于表面文字做機械匹配,而是像真正的支持者一樣,在開口之前先進行了一番內(nèi)心分析。

在最終輸出格式上,這種推理過程被封裝在一個"思考標簽"里,最終的回應文字則放在"回答標簽"里。模型同時學習這兩部分,但實際對話中用戶看到的只是"回答標簽"里的內(nèi)容。

為了讓這份"思考內(nèi)容"盡可能高質(zhì)量,研究團隊并沒有人工標注,而是向四個強大的AI模型"取經(jīng)":DeepSeek-R1、Qwen3-235B、GPT-5和Gemini-2.5-Flash。他們讓這四個模型分別根據(jù)給定的對話歷史和支持者回應,生成相應的認知推理鏈,然后把這些"老師"的思考過程用于訓練自己的小模型。

向多個老師學習而非只跟隨一個老師,是這個設計中一個頗具匠心的選擇。后續(xù)實驗也印證了這個決策的價值:沒有任何一個單一老師在所有指標上都最優(yōu),GPT-5在某些指標上最好,Gemini在另一些指標上最好,DeepSeek-R1在另外的指標上最好,但把四個老師的思路全部綜合起來之后,學生模型在所有指標上都達到了最穩(wěn)定、最全面的表現(xiàn)。

四、用"獎懲機制"讓模型越練越準

認知推理解決了"怎么想"的問題,而強化學習則負責解決"怎么越練越好"的問題。研究團隊在有監(jiān)督訓練之后,進一步用GRPO(一種群體相對策略優(yōu)化算法)對模型進行強化訓練。

強化學習的核心邏輯與行為心理學如出一轍:做對了就獎勵,做錯了就不獎勵,通過大量試錯讓模型逐漸學會什么樣的輸出是高質(zhì)量的。在這項研究中,獎勵設計非常具體。首先有一個格式獎勵,只有當模型的輸出完全符合要求的結(jié)構(gòu)時,才有資格獲得進一步的獎勵——這就像考試答題時格式不對直接扣分。

在格式合規(guī)的前提下,針對兩種不同方法,研究團隊分別設計了有針對性的獎勵函數(shù)。對于"一鍋端"方法,獎勵函數(shù)基于"Levenshtein比率"來衡量預測的策略序列與參考序列之間的相似度。Levenshtein距離是信息學中用來衡量兩個字符串之間差異的標準指標,簡單說就是"最少需要多少步操作才能把一個序列變成另一個序列"——刪除、插入、替換各算一步。獎勵值越高,說明預測的策略順序越接近正確答案。由于多策略樣本在數(shù)據(jù)中占少數(shù),研究團隊還對單策略樣本進行了降采樣處理,以平衡獎勵分布,避免模型偷懶只學簡單情況。

對于"一步一步來"方法,獎勵函數(shù)在策略準確度之外還加了一個維度:停止標志預測是否正確。也就是說,模型不僅要猜對"該用哪個策略",還要猜對"這個策略說完之后到底要不要繼續(xù)"。這個額外的獎勵信號讓模型在學習策略內(nèi)容的同時,也學會了合理控制輸出節(jié)奏。

五、實驗怎么做、效果如何

研究團隊在兩個層面上對方法進行了評估,就像既檢驗廚師每道菜的味道,又評估整頓飯下來客人是否吃得滿意。

在"單句評估"層面,模型針對已知的對話歷史預測下一條支持者回應,然后與數(shù)據(jù)集中的參考答案對比。評估指標包括:策略預測的精確匹配率(預測的策略序列與參考序列完全一致的比例)、Levenshtein比率(策略序列相似度)、平均長度差異(生成回應的長度與參考回應的差距),以及BLEU分數(shù)(衡量詞匯重合度的常用機器翻譯指標)、ROUGE分數(shù)(衡量文本覆蓋度的另一類指標)和BERTScore(用預訓練語言模型計算語義相似度的指標)。

在這項評估中,基準線是傳統(tǒng)的"單策略"方法,也就是每次只預測一個策略和回應。實驗結(jié)果呈現(xiàn)出幾個清晰的規(guī)律。

"一鍋端"方法在策略精確匹配率上略低于單策略基準(23.61%對25.21%),這并不意外——同時預測多個策略本就比預測一個更難。但"一步一步來"方法幾乎保住了基準線的精確匹配率(24.99%對25.21%),表明逐步生成的方式有效緩解了這個問題。更重要的是,兩種多策略方法在文本生成質(zhì)量上都超過了單策略基準——BLEU、ROUGE和BERTScore均有提升,說明即使策略預測難度更高,最終生成的回應質(zhì)量反而更好。

加入認知推理之后,兩種方法的表現(xiàn)都出現(xiàn)了全面提升。以"一鍋端+推理"為例,精確匹配率從23.61%跳升到29.72%,ROUGE-L從18.27提升到20.10。進一步加入強化學習之后,"一鍋端"方法的各項指標繼續(xù)穩(wěn)步提升,"一步一步來"方法在大多數(shù)指標上也有改善(BLEU分數(shù)略有波動,但整體向好)。

研究團隊還專門對"只含單策略的回應"和"含多策略的回應"分別進行了分析。結(jié)果表明,對于單策略回應,多策略模型在基礎設置下略遜于單策略基準,但加入推理和強化學習后便完全反超。對于多策略回應,單策略基準幾乎毫無還手之力(精確匹配率為0),而多策略方法配合推理和強化學習之后,能夠取得顯著更好的結(jié)果。

在"對話評估"層面,研究團隊搭建了一個"角色扮演"測試環(huán)境:用GPT-5模擬有情感困擾的求助者,讓不同的模型扮演支持者,兩者進行完整的多輪對話,最多進行10輪。每輪對話結(jié)束后,再用GPT-5作為裁判,評估求助者的情感狀態(tài)是否有所改善,并為改善程度打分。整個對話結(jié)束后,如果最終評分超過預設閾值,該次對話被認定為"成功"。評估指標包括平均對話輪數(shù)(越少說明越高效)、對話成功率(越高說明越有效)和每次對話平均使用策略數(shù)。

在這項評估中,三個頂級商業(yè)大模型(GPT-5、DeepSeek-R1和Qwen3-235B)在沒有專項微調(diào)的情況下,在10輪內(nèi)的成功率均為0%,充分說明這項任務的專業(yè)性。相比之下,單策略微調(diào)模型的成功率為13.85%,"一鍋端"多策略模型達到17.69%,"一步一步來"多策略模型達到16.15%。加入推理和強化學習后,"一鍋端+推理+強化學習"的成功率達到34.62%,"一步一步來+推理+強化學習"的成功率更是躍升至40.00%,同時對話輪數(shù)也降至最低的8.46輪,是所有方法中效率最高的。

研究團隊還觀察了強化學習過程中的學習曲線。一個頗為有趣的現(xiàn)象是:在訓練初期(前4步),模型生成多策略回應的比例會略有下降,對話成功率也隨之短暫下滑——就像一個廚師在學習新技法初期手忙腳亂,反而做壞了幾道菜。但從第4步之后,模型開始穩(wěn)步增加多策略回應的使用,對話成功率也隨之持續(xù)攀升,最終顯著超越了起點水平。

此外,研究團隊還進行了人工評估。三位專業(yè)標注員對同一個求助者與三套不同系統(tǒng)(單策略、"一鍋端+推理+強化學習"、"一步一步來+推理+強化學習")的完整對話分別打分,從問題識別、情感安慰、建議質(zhì)量和整體效果四個維度進行排名(1分最好,3分最差)。結(jié)果顯示,兩種多策略方法在所有維度上都優(yōu)于單策略方法,其中"一鍋端"方法在建議質(zhì)量這個維度上表現(xiàn)尤為突出,得到了1.62的平均排名。

六、研究的邊界與局限

任何研究都有其邊界,這項研究也不例外。研究團隊坦率地指出了三個主要局限。

其一,即便加入了推理和強化學習,模型生成多策略回應的比例仍然遠低于真實數(shù)據(jù)中的水平。真實數(shù)據(jù)集里有18.9%的回應包含兩種以上策略,而即使是表現(xiàn)最好的方法,這個比例也只能達到8.4%("一鍋端")和7.7%("一步一步來")——訓練數(shù)據(jù)中單策略樣本的壓倒性多數(shù),使模型始終偏向于生成更簡單的輸出。

其二,對話評估使用的是GPT-5模擬的求助者,而不是真實人類。機器模擬的求助者可能無法完整還原真實情感交流的復雜性和不可預測性,這使得對話層面的評估結(jié)果需要謹慎解讀。

其三,所有實驗都在ESConv這一個數(shù)據(jù)集上進行,是否能推廣到其他情感支持對話場景或其他語言環(huán)境,尚待進一步驗證。

研究團隊也在論文的倫理部分明確指出:這套系統(tǒng)是為改善日常情感支持對話而設計的,不應被用于替代專業(yè)心理或醫(yī)療援助,在高風險和危機場景中的部署需要額外的安全機制和人工監(jiān)督。

說到底,這項研究做的事情可以用一句話來概括:它證明了AI情感支持系統(tǒng)在同一句話里同時使用多種支持策略,不僅是技術上可行的,而且確實能帶來更好的效果。從17.7%的真實數(shù)據(jù)觀察出發(fā),經(jīng)過兩種生成方法的設計、認知推理框架的引入、多模型知識蒸餾、強化學習的磨練,以及單句和對話兩個層面的系統(tǒng)驗證,研究團隊給出了一個扎實的實證答案。

這對普通人意味著什么?隨著AI情感支持工具越來越多地進入生活——無論是心理健康APP、在線輔導平臺還是各類聊天機器人——這項研究所提出的方法,可能讓這些工具的對話質(zhì)量更接近于真實的人類支持者,而不是停留在"每次只說一件事"的機械模式。當然,從實驗室里的數(shù)字提升到真實世界里被人真正感受到的溫度,還有很長的路要走。

如果你對這項研究產(chǎn)生了好奇,可以通過arXiv論文編號2604.17972找到完整的原始論文,那里有更多技術細節(jié)和完整的實驗數(shù)據(jù)。

Q&A

Q1:ESConv數(shù)據(jù)集是什么,為什么情感支持對話研究都在用它?

A:ESConv是2021年由劉思陽等人構(gòu)建的情感支持對話數(shù)據(jù)集,包含1300段真實模擬的情感支持對話,每句支持者的回應都標注了具體使用了哪種支持策略,一共有八類策略。因為它是目前唯一一個既有對話內(nèi)容、又有細粒度策略標注的公開數(shù)據(jù)集,所以成了該領域最重要的基準測試集。研究者們用它來訓練和評估AI系統(tǒng)是否能像真人支持者那樣合理地選擇和使用支持策略。

Q2:All-in-One和One-by-One兩種方法的核心區(qū)別是什么?

A:核心區(qū)別在于生成節(jié)奏。All-in-One方法讓AI在一次輸出中同時預測所有策略和回應,相當于一口氣交出完整答案。One-by-One方法則讓AI每次只預測一個策略和對應回應,同時判斷要不要繼續(xù),不斷迭代直到停止。實驗結(jié)果顯示One-by-One在策略精確匹配率上更接近單策略基準,而且配合推理和強化學習后在對話成功率上表現(xiàn)最好,達到了40%。

Q3:認知推理鏈里的四個節(jié)點在實際對話中起什么作用?

A:四個節(jié)點相當于AI在開口之前的內(nèi)心分析過程。情境節(jié)點讓AI先理解對方面臨的外部處境,認知節(jié)點幫助AI推斷對方內(nèi)心的想法和信念,情緒節(jié)點識別對方當下的情緒狀態(tài),支持計劃節(jié)點規(guī)劃具體要用哪些策略、按什么順序說。這四步分析完成之后,AI才生成最終回應。研究表明加入這個推理框架后,策略預測準確率和文本生成質(zhì)量都明顯提升。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
50歲男子肌肉溶解離世,醫(yī)生痛心提醒:長期吃降脂藥犯了5個錯誤

50歲男子肌肉溶解離世,醫(yī)生痛心提醒:長期吃降脂藥犯了5個錯誤

垚垚分享健康
2026-04-28 11:15:14
隨著特魯姆普爆冷12-13,吳宜澤13-11,斯諾克世錦賽8強對陣出爐

隨著特魯姆普爆冷12-13,吳宜澤13-11,斯諾克世錦賽8強對陣出爐

側(cè)身凌空斬
2026-04-28 05:28:25
中共自然資源部黨組關于趙培劍、丁明柱、趙鳴、宋振亞、周鋒任職的通知

中共自然資源部黨組關于趙培劍、丁明柱、趙鳴、宋振亞、周鋒任職的通知

海洋知圈
2026-04-27 21:39:53
警惕經(jīng)濟的“無就業(yè)增長”

警惕經(jīng)濟的“無就業(yè)增長”

沈素明
2026-04-28 07:23:38
《妻子的浪漫旅行2026》孫楊回應與妻子張豆豆相處模式引爭議:由于職業(yè)原因,像這樣的旅行是第一次,看到了不足,有一個好老婆很重要

《妻子的浪漫旅行2026》孫楊回應與妻子張豆豆相處模式引爭議:由于職業(yè)原因,像這樣的旅行是第一次,看到了不足,有一個好老婆很重要

魯中晨報
2026-04-28 09:53:07
伊朗最高法院維持死刑判決 父親被判死刑女兒獲刑25年

伊朗最高法院維持死刑判決 父親被判死刑女兒獲刑25年

桂系007
2026-04-27 23:59:53
名記:杜蘭特或已打完火箭生涯最后一場球,下家是紐約和熱火

名記:杜蘭特或已打完火箭生涯最后一場球,下家是紐約和熱火

懂球帝
2026-04-28 09:32:05
戚薇這腳趾看著好辛苦,隔著屏幕都替她累得慌

戚薇這腳趾看著好辛苦,隔著屏幕都替她累得慌

東方不敗然多多
2026-04-23 10:37:33
互聯(lián)網(wǎng)是有記憶的,她的黑歷史一大堆??!

互聯(lián)網(wǎng)是有記憶的,她的黑歷史一大堆??!

BenSir本色說
2026-04-15 22:38:07
放棄克洛普!皇馬換帥突生變數(shù),伯納烏或?qū)⒂瓉怼白约胰?>
    </a>
        <h3>
      <a href=奶蓋熊本熊
2026-04-29 00:05:53
600678,將被“ST”!

600678,將被“ST”!

中國基金報
2026-04-28 23:15:48
美股三大指數(shù)集體收跌,道指跌0.06%,納指跌0.9%,標普500指數(shù)跌0.49%,熱門科技股多數(shù)下跌,博通跌超4%,英偉達跌超1%。

美股三大指數(shù)集體收跌,道指跌0.06%,納指跌0.9%,標普500指數(shù)跌0.49%,熱門科技股多數(shù)下跌,博通跌超4%,英偉達跌超1%。

財聯(lián)社
2026-04-29 04:08:08
新娘確實漂亮,但我更喜歡戴眼鏡那個。

新娘確實漂亮,但我更喜歡戴眼鏡那個。

動物奇奇怪怪
2026-04-12 12:44:36
三連鞭后五連鞭,趙心童3:5墨菲暫時落后

三連鞭后五連鞭,趙心童3:5墨菲暫時落后

佳佳說奇事故事
2026-04-29 03:43:45
林志玲自曝和公婆住一起:換了一個比較大的房子,老公每天傍晚準時回家,陪兒子一起吃飯

林志玲自曝和公婆住一起:換了一個比較大的房子,老公每天傍晚準時回家,陪兒子一起吃飯

臺州交通廣播
2026-04-28 13:46:36
鋰電池板塊業(yè)績炸裂,多家公司凈利漲超1000%,最高漲超2297%

鋰電池板塊業(yè)績炸裂,多家公司凈利漲超1000%,最高漲超2297%

21世紀經(jīng)濟報道
2026-04-28 22:55:26
動真格了,國安部出手,揪出鼓吹躺平的境外勢力,評論區(qū)意味深長

動真格了,國安部出手,揪出鼓吹躺平的境外勢力,評論區(qū)意味深長

譚談社會
2026-04-28 15:10:51
7天第3艘,美軍開始在印度洋獵殺伊朗油輪,目的地是中國舟山

7天第3艘,美軍開始在印度洋獵殺伊朗油輪,目的地是中國舟山

矚望云霄
2026-04-28 13:04:41
廣東男籃主場17分負廣州,杜鋒難受,正義必勝!

廣東男籃主場17分負廣州,杜鋒難受,正義必勝!

二爺臺球解說
2026-04-29 03:36:39
跑馬人最慘遭遇:酒店不隔音,隔壁情侶的“聲音”讓我徹底崩潰

跑馬人最慘遭遇:酒店不隔音,隔壁情侶的“聲音”讓我徹底崩潰

馬拉松跑步健身
2026-04-26 21:41:40
2026-04-29 04:44:49
科技行者 incentive-icons
科技行者
科技正在如何變革商業(yè)世界
8183文章數(shù) 563關注度
往期回顧 全部

科技要聞

10億周活目標落空!傳OpenAI爆發(fā)內(nèi)部分歧

頭條要聞

19歲中國女孩被困緬甸 交20萬贖金園區(qū)仍未放人

頭條要聞

19歲中國女孩被困緬甸 交20萬贖金園區(qū)仍未放人

體育要聞

魔術黑八活塞,一步之遙?!

娛樂要聞

蔡卓妍官宣結(jié)婚,老公比她小10歲

財經(jīng)要聞

中央政治局會議定調(diào),八大看點速覽!

汽車要聞

拒絕瘋狂套娃!現(xiàn)代艾尼氪金星長在未來審美點上

態(tài)度原創(chuàng)

教育
家居
親子
房產(chǎn)
旅游

教育要聞

教育部通知,今年9月份開始,上學的規(guī)則全變了

家居要聞

江景風格 流動的秩序

親子要聞

拍這期視頻時眼淚止不住地流

房產(chǎn)要聞

紅利爆發(fā)!海南,沖到全國人口增量第4??!

旅游要聞

莫讓內(nèi)卷式競爭削弱旅游消費信心

無障礙瀏覽 進入關懷版