国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

云計(jì)算一哥AWS的新戰(zhàn)事:10分鐘發(fā)布25款新品,全面押注智能體

0
分享至



作者 林易

編輯 重點(diǎn)君

12月3日,拉斯維加斯。AWS CEO 馬特·加曼(Matt Garman)在他的首場 re:Invent 年度演講中,在10分鐘內(nèi)發(fā)布25款新品,全場兩小時(shí)發(fā)布的新品更是近40個(gè)。包括全新一代自研芯片、前沿基礎(chǔ)模型及企業(yè)級模型定制框架在內(nèi)的一系列重磅產(chǎn)品,集中展示AWS在算力層、模型層和應(yīng)用層的突破。

作為年化收入高達(dá)1320 億美元的全球云計(jì)算一哥,AWS此刻正站在一個(gè)關(guān)鍵十字路口:AI熱潮已經(jīng)持續(xù)兩年,但許多企業(yè)仍困在“高投入、低回報(bào)”的焦慮中,他們開始追問巨額投入什么時(shí)候才能轉(zhuǎn)化為真實(shí)的業(yè)務(wù)回報(bào)。

AWS在此次re:Invent大會上給出的答案是:AI必須從陪聊的助手(Assistant),進(jìn)化到能真正干活的智能體(Agent)。

為了接住這個(gè)從模型驅(qū)動向智能體驅(qū)動轉(zhuǎn)移的機(jī)會,AWS選擇了一條非常重的路:向下造芯,死磕性價(jià)比;中間做厚模型,打破微調(diào)的天花板;向上立規(guī)矩,解決 Agent落地最核心的失控風(fēng)險(xiǎn)。

整場發(fā)布會看下來,AWS的戰(zhàn)略重心已從專注技術(shù)突破轉(zhuǎn)向更側(cè)重企業(yè)級價(jià)值落地,推動AI真正為企業(yè)客戶創(chuàng)造價(jià)值。

在此次大會密集的發(fā)布和兩萬字實(shí)錄中,我們梳理了AWS在算力、模型、應(yīng)用三個(gè)維度的核心進(jìn)展。



在算力層:

AWS的策略變得更加務(wù)實(shí)且激進(jìn):一方面用自研芯片大幅壓低成本,另一方面打破公有云的物理邊界,去適應(yīng)那些不想上云的大客戶。

AWS 發(fā)布了 Trainium 3 UltraServers,相比前代,Trn3 的推理能效提升了 5 倍。更激進(jìn)的是,AWS 還罕見地提前預(yù)告了正在設(shè)計(jì)中的 Trainium 4,承諾性能將再提升 6 倍。向市場傳遞了一個(gè)清晰信號:在超大規(guī)模模型訓(xùn)練上,AWS 決意擺脫對外部算力的絕對依賴。

為了解決金融和政企客戶對數(shù)據(jù)主權(quán)極其敏感的顧慮,AWS 推出了 AWS AI Factories。相當(dāng)于把 AWS 的算力基礎(chǔ)直接建在客戶自己的數(shù)據(jù)中心里。

當(dāng)然AWS 依然是英偉達(dá)最鐵的盟友。Trn3未來將兼容英偉達(dá)NVlink Fusion技術(shù),此外,新發(fā)布的 P6e 實(shí)例首批搭載了英偉達(dá)最新的GB300 NVL72 系統(tǒng),專為那些最極端的 AI 負(fù)載準(zhǔn)備。

在模型層:

AWS 終于補(bǔ)齊了 Amazon Nova 自研模型家族,一口氣發(fā)布了 Amazon Nova 2 系列。其中,Nova 2 Omni 是業(yè)界首個(gè)支持文本、圖、音、視四種輸入并能多模態(tài)輸出的模型;而 Nova 2 Pro 則在復(fù)雜的指令遵循上表現(xiàn)激進(jìn),AWS 稱其在基準(zhǔn)測試中優(yōu)于 GPT-5.1。

企業(yè)用大模型最大的痛點(diǎn)是微調(diào)太淺,而且容易讓模型變笨,比如遺忘核心能力。AWS 推出的 Amazon Nova Forge 引入了“開放訓(xùn)練模型”概念,允許企業(yè)在模型預(yù)訓(xùn)練的最后階段注入專有數(shù)據(jù)。

索尼集團(tuán)已作為早期客戶宣布采用Nova Forge和AgentCore,旨在將其合規(guī)審查效率提升100 倍。

在應(yīng)用層:

Agent(智能體)是未來的核心,但其不可控的特點(diǎn)讓很多企業(yè)不敢用。AWS 試圖用一套嚴(yán)密的規(guī)則體系,讓 Agent變成可信的生產(chǎn)力工具。

馬特·加曼打了一個(gè)比方:管理 AI Agent 就像管教青春期的孩子——既要給自由,又要有底線。為此,AWS 推出了AgentCore Policy。不同于以往的模糊提示詞,這是一套基于 Cedar 語言的確定性控制系統(tǒng),能實(shí)時(shí)攔截 Agent 的違規(guī)操作,比如阻止超過 1000 美元的自動退款,解決了企業(yè)對 AI 行為失控的根本恐懼。

針對開發(fā)者,AWS 發(fā)布了 Frontier Agents 系列,這不僅僅是代碼助手,而是能獨(dú)立干活的數(shù)字員工。例如 Kiro Autonomous Agent 可以自主修復(fù) Bug,Security Agent 能在代碼提交前自動掃描漏洞,而 DevOps Agent 甚至能在半夜報(bào)警時(shí)自動診斷根因并給出修復(fù)建議。這意味著軟件工程的生命周期,正在被 AI 全面接管。



以下為AWS第十四屆re:Invent大會實(shí)錄:
1、AWS業(yè)務(wù)概況

歡迎大家來到第十四屆年度re:Invent 大會。能來到現(xiàn)場真是太棒了,此刻現(xiàn)場有超過 60,000 人與我們要共聚一堂,線上觀眾接近 200 萬,其中還包括首次通過《堡壘之夜》(Fortnite)觀看直播的朋友們。歡迎大家,感謝各位的到來。

走在拉斯維加斯的走廊里,我能感受到一種難以置信的能量,這與我過去幾個(gè)月與大家交流時(shí)的感受不謀而合。這確實(shí)是不可思議的一年。AWS 已成長為一家年化收入達(dá) 1320 億美元的企業(yè),年增長率達(dá)到 20%。為了讓大家對這個(gè)數(shù)字有更直觀的概念:僅在過去一年,我們的收入就增長了約 220 億美元。這 12 個(gè)月的絕對增長額,已經(jīng)超過了半數(shù)《財(cái)富》500 強(qiáng)公司的全年收入。

這種增長源于我們業(yè)務(wù)的方方面面:

Amazon S3:持續(xù)增長,客戶存儲的對象數(shù)量已超過500 萬億個(gè),數(shù)據(jù)量達(dá)數(shù)百艾字節(jié)(Exabytes),平均每秒處理超過 2 億次請求。

計(jì)算能力:連續(xù)第三年,AWS 新增的 CPU 容量中有一半以上來自自研的 Graviton 芯片。

AI 與數(shù)據(jù):數(shù)百萬客戶正在使用我們的數(shù)據(jù)庫服務(wù);Amazon Bedrock 目前正在支持超過 10 萬個(gè) AI 推理應(yīng)用。

今年,我們推出了首批構(gòu)建模塊,通過Bedrock AgentCore 幫助企業(yè)在規(guī);h(huán)境中安全地部署和運(yùn)行高能力的Agent。AgentCore 展現(xiàn)出了極其強(qiáng)勁的發(fā)展勢頭,自發(fā)布僅幾個(gè)月以來,其 SDK 下載量已超過 200 萬次。此外,我們還發(fā)布了首款量子計(jì)算芯片原型 Ocelot。Ocelot 是量子計(jì)算領(lǐng)域的突破,它不僅降低了實(shí)施成本,還提升了 90% 以上的量子糾錯(cuò)能力。

這一切都始于安全、可用且具有彈性的全球基礎(chǔ)設(shè)施,在這個(gè)領(lǐng)域我們依然無可匹敵。AWS 擁有迄今為止規(guī)模最大、覆蓋最廣的 AI 云基礎(chǔ)設(shè)施。我們的全球數(shù)據(jù)中心網(wǎng)絡(luò)覆蓋 38 個(gè)區(qū)域、120 個(gè)可用區(qū),并已宣布計(jì)劃新增三個(gè)區(qū)域。僅在過去一年,我們就新增了 3.8 吉瓦(GW)的數(shù)據(jù)中心容量,這一數(shù)字領(lǐng)先全球。同時(shí),我們擁有世界上最大的私有網(wǎng)絡(luò),在過去 12 個(gè)月內(nèi)規(guī)模增長了 50%,目前擁有的陸地和海底電纜總長超過 900 萬公里,這一長度足以往返地球與月球 11 次以上。

在Amazon,一切始于客戶。今天,數(shù)以百萬計(jì)的客戶在我們的平臺上運(yùn)行著各種各樣的用例。全球各行各業(yè)的大型企業(yè)、金融服務(wù)、醫(yī)療保健、媒體娛樂、通信行業(yè),乃至各國政府機(jī)構(gòu),都在 AWS 上運(yùn)營業(yè)務(wù)并實(shí)現(xiàn)轉(zhuǎn)型。

對于AWS 而言,安全是重中之重,是一切的基礎(chǔ)。正因如此,美國情報(bào)界十多年來一直選擇 AWS 作為首選云服務(wù)商;納斯達(dá)克將交易市場遷移至 AWS;輝瑞公司(Pfizer)也選擇 AWS 作為其數(shù)字化轉(zhuǎn)型的核心。

我們也深知合作伙伴對客戶成功的重要性。我們要感謝龐大的合作伙伴網(wǎng)絡(luò),包括本周到場的眾多SaaS 提供商、系統(tǒng)集成商和解決方案提供商,沒有你們,我們無法服務(wù)如此廣泛的全球客戶。

我個(gè)人對初創(chuàng)公司情有獨(dú)鐘。在AWS 上構(gòu)建的“獨(dú)角獸”企業(yè)數(shù)量遠(yuǎn)超其他任何平臺。如今,越來越多的初創(chuàng)公司,尤其是 AI 初創(chuàng)公司,正涌向 AWS。福特 2025 年 AI 50 榜單中 85% 的企業(yè),以及 CNBC Disruptor 50 榜單中 85% 的企業(yè)都運(yùn)行在 AWS 上。這些創(chuàng)始人創(chuàng)造的成果令人驚嘆。

(以下為AudioShake 團(tuán)隊(duì)分享內(nèi)容)

AudioShake 是去年 re:Invent “Unicorn Tank” 路演比賽的冠軍。試想一下,如果我們能從一段熱帶雨林、游樂場或街頭音樂的錄音中,將音樂、車聲或背景對話單獨(dú)提取出來,會發(fā)生什么?

在AudioShake,我們將聲音分離,以便人類和機(jī)器能以全新的方式訪問和理解它。我們的多說話者分離器是全球首個(gè)能將不同說話者的聲音高分辨率分離到不同流中的技術(shù)。這可以應(yīng)用于呼叫中心將個(gè)別聲音隔離,也廣泛應(yīng)用于媒體和娛樂領(lǐng)域。

更重要的是,我們在聽力和語言障礙領(lǐng)域看到了巨大潛力。我們與一些關(guān)注ALS(肌萎縮側(cè)索硬化)的非營利組織合作,利用患者發(fā)病前的舊錄音,分離出他們原本的聲音進(jìn)行克隆,讓患者能用自己原本的聲音交流。

創(chuàng)業(yè)之初我們只有三個(gè)人。如果沒有AWS,我們根本無法獲得將模型交付給真實(shí)客戶所需的基礎(chǔ)設(shè)施。我們在 AWS 上運(yùn)行整個(gè)生產(chǎn)流水線,從推理、存儲到作業(yè)編排及整個(gè)生產(chǎn)環(huán)境。我們正邁入一個(gè)聲音更加可定制化的世界,這不僅能幫助聽力障礙者以想要的方式聆聽世界,也能幫助機(jī)器更深入地理解現(xiàn)實(shí)世界。

感謝AudioShake 團(tuán)隊(duì)的精彩分享。AWS 的一切工作都離不開構(gòu)建者,尤其是開發(fā)者。本次大會一直以來都是一個(gè)以此為核心的學(xué)習(xí)型會議。我要感謝全球數(shù)以百萬計(jì)的 AWS 開發(fā)者,特別是在座的 AWS Heroes,以及遍布全球 129 個(gè)國家、擁有超過 100 萬成員的用戶組社區(qū)。

我們?yōu)槭裁匆@樣做?是什么激勵(lì)著我們?為什么我們在20 年后的今天,依然保持著與 AWS 創(chuàng)立之初同樣的熱情?

驅(qū)動我們每天前進(jìn)的動力,是賦予你們完全的發(fā)明自由。從創(chuàng)立AWS 的那一刻起,這就是我們的愿景:我們要讓每一位開發(fā)者或發(fā)明家,無論是在宿舍還是車庫,都能獲得所需的技術(shù)基礎(chǔ)設(shè)施和能力,去構(gòu)建他們想象中的任何東西。

20 年前,這是不可能的。開發(fā)者無法在不投入大量資金和時(shí)間的情況下獲得服務(wù)器或算力。大家把太多時(shí)間花在采購服務(wù)器和管理基礎(chǔ)設(shè)施上,而不是構(gòu)建產(chǎn)品。我們在 Amazon 內(nèi)部也曾切身體會到這一點(diǎn)——我們擁有充滿絕妙創(chuàng)意的構(gòu)建者,但受限于基礎(chǔ)設(shè)施,無法快速行動。

于是我們問自己:“為什么不呢?(Why not?)” 為什么開發(fā)者不能專注于構(gòu)建?為什么不能將實(shí)驗(yàn)的時(shí)間和成本降為零?為什么不讓每一個(gè)想法都成為可能?

過去二十年,我們一直在為實(shí)現(xiàn)這些目標(biāo)而創(chuàng)新。如今,我們正見證人工智能領(lǐng)域的爆發(fā)式發(fā)明。每一家公司、每一個(gè)行業(yè)都在被重塑。雖然技術(shù)迭代速度前所未有,但我們?nèi)蕴幱贏I 變革的早期階段。

但我知道,許多客戶尚未看到與AI 承諾相匹配的回報(bào),AI 的真正價(jià)值尚未完全釋放。這一情況正在快速改變。我們看到“AI 助手(Assistants)”正開始讓位于“AI Agent”。Agent不僅能回答問題,更能為你執(zhí)行任務(wù)并實(shí)現(xiàn)自動化。這正是 AI 投資開始產(chǎn)生實(shí)質(zhì)性商業(yè)回報(bào)的地方。

我相信,Agent的出現(xiàn)將把我們帶到人工智能發(fā)展的一個(gè)拐點(diǎn)。AI 正在從一種技術(shù)奇跡轉(zhuǎn)變?yōu)槟軌驇碚嬲齼r(jià)值的生產(chǎn)力工具。這一變化對業(yè)務(wù)的影響將堪比互聯(lián)網(wǎng)或云計(jì)算的誕生。

未來,每一家公司的內(nèi)部和各個(gè)領(lǐng)域都將涌現(xiàn)出數(shù)十億個(gè)Agent。我們已經(jīng)看到Agent在加速藥物發(fā)現(xiàn)、提升客戶服務(wù)、提高工資處理效率等方面的應(yīng)用。在某些情況下,Agent將人類的影響力擴(kuò)展了 10 倍,讓人們有更多時(shí)間去創(chuàng)新。

如果每個(gè)人都能獲得這種程度的影響力,豈不是太棒了?我們也是這么認(rèn)為的。這就是為什么我們再次問自己:“為什么不呢?”

要邁向擁有數(shù)十億Agent的未來,讓每一個(gè)組織都能從 AI 中獲得真實(shí)的商業(yè)成果,要求我們必須打破基礎(chǔ)設(shè)施的可行性極限。我們需要為具有Agent能力的系統(tǒng)和應(yīng)用發(fā)明新的構(gòu)建模塊,我們需要重新構(gòu)想每一個(gè)流程以及大家的工作方式。

在AWS,我們一直在堆棧的各個(gè)層面進(jìn)行創(chuàng)新,以賦予你們發(fā)明未來的全部自由。要交付真正帶來價(jià)值的Agent,一切都始于擁有最具擴(kuò)展性和最強(qiáng)大的 AI 基礎(chǔ)設(shè)施。你需要一個(gè)高度可擴(kuò)展且安全的云平臺,為 AI 工作負(fù)載提供絕對的最佳性能。同時(shí),你希望在模型訓(xùn)練、定制化以及推理的全過程中,以盡可能低的成本實(shí)現(xiàn)這一目標(biāo)。

說起來容易做起來難,這需要對硬件和軟件的每一層進(jìn)行深度優(yōu)化。事實(shí)證明,這沒有捷徑,而這正是AWS 能夠做到的。



2、AI 基礎(chǔ)設(shè)施

當(dāng)我們思考AI 基礎(chǔ)設(shè)施時(shí),首先想到的就是 GPU。在AWS 上運(yùn)行 NVIDIA GPU 無疑是最佳選擇。我們是最早提供云端NVIDIA GPU 的服務(wù)商之一,與 NVIDIA 的合作已超過 15 年,這意味著我們已經(jīng)掌握了大規(guī)模運(yùn)行 GPU 的技術(shù)。如果你詢問任何在其他供應(yīng)商處運(yùn)行過大型 GPU 集群的人,他們會告訴你,AWS 在運(yùn)行 GPU 集群方面是最穩(wěn)定的。我們在避免節(jié)點(diǎn)故障方面表現(xiàn)出色,并提供最佳的可靠性。

這源于我們對細(xì)節(jié)的精益求精。即使是調(diào)試BIOS 以防止 GPU 重啟這類細(xì)微的工作,我們也會投入精力。在其他地方,人們可能會接受現(xiàn)狀,認(rèn)為“這就是運(yùn)作方式”。但我們不同,我們會調(diào)查并找出每一個(gè)問題的根本原因,然后與合作伙伴 NVIDIA 合作,確保持續(xù)改進(jìn)。對我們而言,沒有小到不值得關(guān)注的問題。正是這些細(xì)節(jié)至關(guān)重要,使我們在 GPU 可靠性方面引領(lǐng)行業(yè)。這需要艱苦的努力和真正的工程技術(shù)才能實(shí)現(xiàn),而我們在每一代產(chǎn)品上都在這些新的維度上進(jìn)行改進(jìn)。

今年,我們推出了第六代P6 EC2 Instances,包括采用 NVIDIA Blackwell 處理器 GB200 的 P6E Ultra 服務(wù)器,其計(jì)算能力比我們之前的 P5n 提升了超過 20 倍。這些Instances非常適合正在使用超大型 AI 模型的客戶。

今天,我們很高興地宣布推出全新的P6E GB300,由 NVIDIA 最新的 GB300 NVL72 提供支持。我們持續(xù)為最苛刻的AI 工作負(fù)載提供同類最佳的計(jì)算能力。我們對硬件和軟件采取了全棧方法,再加上嚴(yán)謹(jǐn)?shù)倪\(yùn)維,確保了全球最大規(guī)模的組織能夠獲得絕對最佳的性能和可靠性。

世界上最大規(guī)模的組織,包括NVIDIA 自身(通過 Project Saba on AWS)和 OpenAI 等眾多公司,今天都在 AWS 上積極運(yùn)行大規(guī)模通用生成式 AI 集群。他們正在使用由數(shù)十萬 GB200(很快將升級為 GB300)芯片構(gòu)成的 EC2 Ultra 服務(wù)器集群。這些集群具有可擴(kuò)展能力,能夠擴(kuò)展到數(shù)千萬個(gè) CPU 以上,用于管理他們的智能Agent工作流,支持其 ChatGPT 應(yīng)用以及下一代模型的訓(xùn)練。

另一個(gè)合作案例是沙特阿拉伯新成立的公司Humane,他們致力于推動該地區(qū)的 AI 創(chuàng)新。我們最近宣布與 Humane 合作開發(fā)沙特阿拉伯王國的 AI 區(qū)。這項(xiàng)合作將為客戶提供高性能基礎(chǔ)設(shè)施、模型以及 SageMaker 和 Bedrock 等 AI 服務(wù),同時(shí)幫助滿足沙特王國對安全、隱私和負(fù)責(zé)任 AI 的嚴(yán)格標(biāo)準(zhǔn)。

這類項(xiàng)目引起了大型政府機(jī)構(gòu)和公共部門對類似概念的興趣。于是我們思考:能否將這種類型的AI 區(qū)域交付給更廣泛的客戶,甚至可能利用客戶現(xiàn)有的數(shù)據(jù)中心方案?

這就是我們今天很高興宣布推出AWS AI Factories的原因。通過此項(xiàng)發(fā)布,客戶能夠在他們自己的數(shù)據(jù)中心部署專用的AWS AI 基礎(chǔ)設(shè)施和服務(wù),僅供他們專用。AWS AI 工廠的運(yùn)作方式類似于私有的 AWS 區(qū)域,客戶可以利用他們已購置的數(shù)據(jù)中心空間和電力容量,并獲得 AWS 領(lǐng)先的 AI 基礎(chǔ)設(shè)施和服務(wù),包括最新的 Trainium Ultra 服務(wù)器或 NVIDIA GPU,以及對 SageMaker 和 Bedrock 等服務(wù)的訪問。這些 AI 工廠專門為每個(gè)客戶獨(dú)立運(yùn)行,有助于實(shí)現(xiàn)隔離,同時(shí)保持 AWS 的安全性和可靠性,并滿足嚴(yán)格的合規(guī)性和主權(quán)要求。我們非常期待這些 AI 工廠能為客戶帶來的巨大可能性。

談到AWS 的 AI,我們始終強(qiáng)調(diào)選擇自由。如果你想擁有頂級的AI 基礎(chǔ)設(shè)施,你需要具備用于 AI 訓(xùn)練和推理的最優(yōu)算力。AWS 迄今為止以最廣泛的選項(xiàng)領(lǐng)先一步,其中就包括我們開創(chuàng)性的專用 AI 處理器。

AWS Trainium 是我們定制的 AI 芯片,旨在為 AI 工作負(fù)載提供最佳的性價(jià)比。客戶喜歡 Trainium 在訓(xùn)練工作負(fù)載方面所能達(dá)成的成果。但我們也要自我批評:AWS 的產(chǎn)品命名常常令人頭疼,Trainium 也不例外。我們將其命名為 Trainium,因?yàn)樗荚跒?AI 訓(xùn)練提供出色的體驗(yàn)。然而,事實(shí)證明,Trainium 2 目前實(shí)際上是世界上用于推理的最佳系統(tǒng)。

許多客戶可能已經(jīng)在不知不覺中使用Trainium。今天,在 Amazon Bedrock 上運(yùn)行的大部分推理工作負(fù)載實(shí)際上都由 Trainium 提供支持。Trainium 的性能優(yōu)勢非常明顯。如果你在 Bedrock 中使用 Claude 的最新一代模型,所有這些流量都運(yùn)行在 Trainium 上,它提供了比任何其他主要供應(yīng)商更優(yōu)的端到端響應(yīng)時(shí)間。

這也是我們迄今為止已部署超過100 萬枚 Trainium 芯片的部分原因。我們以創(chuàng)紀(jì)錄的速度達(dá)到了百萬芯片的規(guī)模,因?yàn)槲覀冋瓶卣麄(gè)流程和技術(shù)棧,能夠端到端優(yōu)化部署方式,從而實(shí)現(xiàn)更快地推進(jìn)。事實(shí)上,Trainium 2 在數(shù)據(jù)中心的大規(guī)模部署速度,比我們之前見過的下一款最快芯片快四倍。它是我們有史以來大規(guī)模投產(chǎn)的最強(qiáng) AI 芯片,并且正在以我們能制造的最快速度售出。Trainium 今天已經(jīng)代表了一項(xiàng)數(shù)十億美元級別的業(yè)務(wù),并且仍在快速增長。

當(dāng)所有這些在一個(gè)圍繞Trainium 專門構(gòu)建的系統(tǒng)中匯聚時(shí),會是怎樣一番景象?

以前有人說“數(shù)據(jù)中心就是新的計(jì)算機(jī)”,而現(xiàn)在,在訓(xùn)練下一代模型時(shí),數(shù)據(jù)中心園區(qū)就是新的計(jì)算機(jī)。Anthropic 的 Claude 是當(dāng)今世界上最好的模型之一,它由 Trainium 在 Project Rainer 中實(shí)現(xiàn)。

現(xiàn)在我們宣布Trainium 3 UltraServers已全面可用。Trainium 3 芯片在單一縱向擴(kuò)展域中協(xié)同工作,通過定制的 Neuron 交換機(jī)互聯(lián),提供了巨大的 362 FP8 PetaFLOPS 的計(jì)算能力和超過每秒 700 TB 的總帶寬,且全部在一個(gè)計(jì)算Instances中。此外,我們定制構(gòu)建的 EFA 網(wǎng)絡(luò)支持將這些擴(kuò)展到數(shù)十萬芯片的集群。

沒有其他任何人能為你提供這種能力。這需要將所有這些系統(tǒng)級組件協(xié)同設(shè)計(jì):需要多種類型的定制硅芯片,需要縱向擴(kuò)展和橫向擴(kuò)展的網(wǎng)絡(luò),需要詳盡且集成的軟件棧,當(dāng)然還需要業(yè)內(nèi)領(lǐng)先的數(shù)據(jù)中心。

在一個(gè)關(guān)于性能提升的真實(shí)世界示例中,我們針對一個(gè)流行的開源GPT(GPT-OSS)12B 模型進(jìn)行了推理基準(zhǔn)測試,分別在 Trainium 2 和 Trainium 3 上運(yùn)行。結(jié)果顯示,Trainium 3 相比 Trainium 2 獲得了顯著的效率提升:每兆瓦輸出的Token 數(shù)提高了超過五倍,同時(shí)每位用戶保持了相同的感知延遲(我們稱之為交互性)。我們在多個(gè)不同模型上運(yùn)行時(shí)也看到了類似的結(jié)果。我們非常期待Trainium 3 將為客戶帶來的創(chuàng)新,并且我們不會止步于此,正在全力開發(fā) Trainium 4。

未來,計(jì)算速度和過程的安全性將比以往任何時(shí)候都更重要。AWS 在這方面的組合是世界上最優(yōu)秀的。其對人類的意義在于,能夠構(gòu)建一種新型的、具有可擴(kuò)展性的科學(xué)思維和基礎(chǔ)設(shè)施,讓這種思維開始運(yùn)轉(zhuǎn),去發(fā)現(xiàn)治療方法、新能源技術(shù)、新材料等等,共同將更好的未來帶入當(dāng)下。

3、Amazon Bedrock:生成式 AI 平臺

基礎(chǔ)設(shè)施層面的發(fā)明令人難以置信,但基礎(chǔ)設(shè)施只是故事的一部分。我們看到世界上每一個(gè)應(yīng)用都正在被AI 重新定義。我們正邁向一個(gè)推理(Inference)的未來,推理是每個(gè)開發(fā)者構(gòu)建的應(yīng)用中不可或缺的一部分。要在那個(gè)未來取得成功,你需要一個(gè)安全、可擴(kuò)展、功能豐富的推理平臺。

這就是我們開發(fā)Amazon Bedrock 的原因。Bedrock 是一個(gè)全面的平臺,旨在幫助你在從原型過渡到生產(chǎn)環(huán)境的過程中,加速生成式 AI 應(yīng)用的開發(fā)。

使用Bedrock,你可以選擇各種最新模型并進(jìn)行自定義。我們提供開放權(quán)重模型和專有模型,通用型或?qū)S眯停笮突蛐⌒湍P汀T谶^去一年里,我們將 Bedrock 中提供的模型數(shù)量增加了近一倍。今天,我們很高興地宣布將推出一整批新的開源權(quán)重模型。

這些模型包括Google 的 Gemma、Miniaix M2 和 NVIDIA 的 Neotron。同時(shí),今天還有幾款全新模型首次向全球發(fā)布:

Mistral Large:這是對他們Large 2 模型的巨大飛躍,上下文窗口大小翻倍,模型參數(shù)數(shù)量增加了超過五倍。

Mistral 3:包含三款模型組合,提供了靈活的部署選項(xiàng),適用于超高效的邊緣設(shè)備、單GPU 部署或高級本地運(yùn)行。

除了Bedrock 上提供的眾多第三方模型之外,AWS 去年發(fā)布了 Amazon Nova,這是亞馬遜的基礎(chǔ)模型家族,為許多工作負(fù)載提供業(yè)內(nèi)最佳性價(jià)比。在過去一年里,Nova 家族已擴(kuò)展以支持更多用例,包括語音到語音的用例,例如 Amazon Sonic。我們最近發(fā)布了業(yè)內(nèi)性能最好的新一代模型Amazon Nova 2:

Nova 2 Lite:將成為真正的主力模型,提供行業(yè)領(lǐng)先或更優(yōu)的性價(jià)比,適用于各種場景。

Nova 2 Pro:是我們最智能的推理模型,非常適合處理那些復(fù)雜的Agent工作負(fù)載。在遵循指令和自主工具使用等關(guān)鍵領(lǐng)域,Nova 2 Pro 表現(xiàn)出色。在這些領(lǐng)域的人工分析基準(zhǔn)上,Nova 2 Pro 的絕對結(jié)果優(yōu)于 GPT-5.1、Gemini 3 Pro 和 Claude 4.5 Sonnet 等領(lǐng)先模型。

Nova 2 Sonic:適用于需要語音功能的應(yīng)用程序,在出色的性價(jià)比下提供行業(yè)領(lǐng)先的對話質(zhì)量,具有更低的延遲和更高的可擴(kuò)展性,并顯著擴(kuò)展了語言支持。

Nova 2 Omni:是一種全新的多模態(tài)模型,具備獨(dú)特的能力,能夠處理圖像、視頻和音頻輸入,并支持文本和圖像生成輸出的推理。

這是為Amazon Nova 家族推出的四個(gè)新的行業(yè)領(lǐng)先模型,但這僅僅是一個(gè)開始。

接下來,我們來看看Gradial 正在如何利用 Nova 和 Bedrock 構(gòu)建優(yōu)秀的能力。在營銷中,最大的瓶頸不是創(chuàng)意本身,而是創(chuàng)意實(shí)現(xiàn)之后發(fā)生的一切。Gradial 致力于實(shí)現(xiàn)內(nèi)容的快速交付。

如今,內(nèi)容運(yùn)營領(lǐng)域高度依賴人工。將創(chuàng)意簡報(bào)發(fā)布到網(wǎng)站上,可能需要四到六周,涉及設(shè)計(jì)師、工程師、文案撰稿人以及網(wǎng)站策略師等20 個(gè)不同的步驟。Gradial 所做的是將所有不同的系統(tǒng)連接在一起,從而能夠?qū)?chuàng)意想法快速轉(zhuǎn)化為網(wǎng)站內(nèi)容。

Gradial 利用 Bedrock 實(shí)現(xiàn)這些功能令人驚嘆。隨著這些模型被用于驅(qū)動越來越多的關(guān)鍵任務(wù)業(yè)務(wù)線應(yīng)用和Agent工作流,AI 對貴公司數(shù)據(jù)的理解變得至關(guān)重要。



4、Amazon Nova Forge:開放訓(xùn)練模型

目前企業(yè)最常用且成功的技術(shù),是將專有數(shù)據(jù)與大型模型結(jié)合的方式,包括利用RAG(檢索增強(qiáng)生成)或向量數(shù)據(jù),從而在模型推理時(shí)提供上下文。這些方法非常有效,能夠幫助模型更高效地處理龐大的數(shù)據(jù)集并返回相關(guān)結(jié)果。

然而,我們通常發(fā)現(xiàn),這種做法的能力是有限的。幾乎所有客戶都希望模型能真正理解他們的數(shù)據(jù),特別是深厚的領(lǐng)域知識和專業(yè)經(jīng)驗(yàn)。他們希望模型在做出決策時(shí)能夠充分運(yùn)用這些專業(yè)知識。

以一家硬件公司為例,假設(shè)他們希望加速新產(chǎn)品的研發(fā)。理想情況下,他們需要一個(gè)能理解公司過去產(chǎn)品、制造偏好、歷史成功率、失敗率以及可能存在的任何流程約束的模型。他們希望有一種機(jī)制,能將所有這些因素整合起來,為設(shè)計(jì)工程師提供智能指導(dǎo)。

事實(shí)證明,無論企業(yè)身處哪個(gè)行業(yè),都擁有龐大的知識產(chǎn)權(quán)和數(shù)據(jù)語料庫。將這些專有知識集成到所使用的模型中,將產(chǎn)生巨大價(jià)值。

自然地,有人會問:為什么不直接訓(xùn)練一個(gè)定制模型?如今,只有兩種主要的實(shí)現(xiàn)方式。

第一,你可以從頭構(gòu)建自己的模型,并將自己的數(shù)據(jù)包含進(jìn)去。但這種方式成本極其高昂。而且,企業(yè)內(nèi)部很可能不具備預(yù)訓(xùn)練前沿模型所需的全部數(shù)據(jù)和專業(yè)知識。因此,對大多數(shù)公司來說,這并非一個(gè)實(shí)際的選擇。

第二,大多數(shù)人通常會從一個(gè)開放權(quán)重模型開始,然后對其進(jìn)行修改和定制。這其中有很大的自定義空間,可以使用微調(diào)等技術(shù)來調(diào)整權(quán)重,或者采用強(qiáng)化學(xué)習(xí),以構(gòu)建專注于特定用例的模型。

然而,這種方法的有效性也存在限制。想要讓模型理解它在預(yù)訓(xùn)練階段從未涉及的新領(lǐng)域,非常困難。更重要的是,對模型進(jìn)行越多的定制,在后訓(xùn)練中添加越多的數(shù)據(jù),這些模型就越容易“遺忘”它們早期學(xué)到的一些核心內(nèi)容,尤其是推理能力。

這有點(diǎn)像人類學(xué)習(xí)新語言:在兒童時(shí)期學(xué)習(xí)相對容易,但成年后學(xué)習(xí)則要困難得多。模型訓(xùn)練也有類似的特性。

因此,盡管在模型可調(diào)性方面已經(jīng)取得了一些進(jìn)展,但這種路徑畢竟是有限的。到今天為止,還沒有一個(gè)完美的方法,能讓企業(yè)在獲得最前沿模型的同時(shí),又使其對企業(yè)的專有數(shù)據(jù)和領(lǐng)域知識有深刻理解。

如果能在一個(gè)前沿模型訓(xùn)練的關(guān)鍵時(shí)刻,將企業(yè)的專有數(shù)據(jù)融入其中,并創(chuàng)建一個(gè)僅供該企業(yè)使用的模型,會怎么樣?我們認(rèn)為這正是客戶真正需要的。

今天,我們非常高興地宣布推出Amazon Nova Forge。

Nova Forge是一項(xiàng)全新的服務(wù),它引入了開放訓(xùn)練模型的概念。通過Nova Forge,您可以獨(dú)家訪問各種Nova訓(xùn)練檢查點(diǎn)。然后,您可以將自己的專有數(shù)據(jù)融合進(jìn)來,配合Amazon精心整理的訓(xùn)練數(shù)據(jù)集,在模型訓(xùn)練的各個(gè)階段進(jìn)行。這使得您能夠生成一個(gè)對企業(yè)信息有深刻理解的模型,同時(shí)保留了模型在基礎(chǔ)訓(xùn)練階段獲得的核心能力。

我們將這些生成的模型稱為Novellas。您可以輕松地將您的Novella上傳到Amazon Bedrock并運(yùn)行推理。

假設(shè)您是剛才提到的那個(gè)硬件制造商,擁有數(shù)百GB、數(shù)十億個(gè)tokens的專有數(shù)據(jù),涉及過去的設(shè)計(jì)、失敗模式和評審記錄等。

您可以選擇從一個(gè)已完成80%預(yù)訓(xùn)練的Nova 2 Light檢查點(diǎn)開始。使用我們提供的工具集,您將自己的所有數(shù)據(jù)與Amazon整理的訓(xùn)練數(shù)據(jù)集融合。然后,您運(yùn)行提供的預(yù)訓(xùn)練“配方”來完成模型的預(yù)訓(xùn)練,這次包含了您的所有專有數(shù)據(jù)。這在模型中植入了您的領(lǐng)域特定知識,同時(shí)不會損失其原有的推理等重要基礎(chǔ)能力。

Nova Forge還支持使用遠(yuǎn)程獎(jiǎng)勵(lì)函數(shù)和強(qiáng)化微調(diào)來進(jìn)一步改進(jìn)模型,讓您能夠?qū)⒄鎸?shí)世界的環(huán)境反饋接入到訓(xùn)練循環(huán)中。由于您的基線模型已經(jīng)理解您的業(yè)務(wù),這些后訓(xùn)練技術(shù)會更加有效。

模型準(zhǔn)備就緒后,您可以將這個(gè)Novella模型導(dǎo)入Bedrock,并像對待任何其他Bedrock模型一樣運(yùn)行推理,F(xiàn)在,您的工程師可以直接提問,例如:“設(shè)計(jì)A對比設(shè)計(jì)B有什么優(yōu)點(diǎn)和缺點(diǎn)?”模型將根據(jù)貴公司的歷史業(yè)績、制造約束和客戶偏好,給出針對性的響應(yīng)。

我們已與一些客戶合作測試Nova Forge,他們從定制化的Nova開放訓(xùn)練模型中獲得了變革性的成果。

以Reddit為例,他們使用生成式AI在聊天和搜索中對內(nèi)容進(jìn)行審核,涉及多個(gè)不同的安全維度。最初,對現(xiàn)有模型進(jìn)行微調(diào)無法滿足他們所需的性能要求。嘗試使用多個(gè)模型處理不同的安全維度又太過復(fù)雜。最終,他們?nèi)噪y以達(dá)到社區(qū)特定需求所需的準(zhǔn)確度。

然而,借助Nova Forge,Reddit能夠在預(yù)訓(xùn)練階段整合他們自己的專有領(lǐng)域數(shù)據(jù),使得模型發(fā)展出一種綜合的表示,將通用語言理解和他們社區(qū)特定的知識自然地整合在一起。這是他們第一次能夠生成一個(gè)既滿足準(zhǔn)確性要求和成本效率目標(biāo),同時(shí)部署和運(yùn)維也更為簡單的模型。

我們相信,開放訓(xùn)練模型的理念將徹底改變企業(yè)利用AI進(jìn)行創(chuàng)新的方式。

5、Amazon Bedrock AgentCore:智能Agent平臺

事實(shí)證明,采用云技術(shù)能讓企業(yè)更快速地前進(jìn),并適應(yīng)各種突如其來的變化。現(xiàn)在,最有可能改變企業(yè)業(yè)務(wù)的最大機(jī)遇之一就是Agent。

Agent之所以令人興奮,是因?yàn)樗鼈兛梢圆扇⌒袆硬⑼瓿扇蝿?wù)。它們可以進(jìn)行動態(tài)推理,并創(chuàng)建工作流以最佳方式解決一項(xiàng)工作,而無需預(yù)先編程。這些Agent以非確定性方式工作,這也是它們?nèi)绱藦?qiáng)大的部分原因。但這同時(shí)也意味著,我們過去用于構(gòu)建傳統(tǒng)軟件的基礎(chǔ)和工具,未必適用于Agent。

這就是我們推出Amazon Bedrock AgentCore 的原因,它提供最先進(jìn)的智能Agent平臺,便于企業(yè)在大規(guī)模下安全地構(gòu)建、部署和運(yùn)行Agent。我們在設(shè)計(jì)AgentCore時(shí),注重全面性與模塊化。

AgentCore具有一個(gè)安全的無服務(wù)器運(yùn)行時(shí),確保Agent可以在完全會話隔離中運(yùn)行。AgentCore內(nèi)存使得Agent能夠保持上下文,處理短期和長期記憶,使其能夠隨著時(shí)間學(xué)習(xí)并變得更好。我們提供一個(gè)AgentCore網(wǎng)關(guān),使Agent可以輕松且安全地發(fā)現(xiàn)并連接到工具、數(shù)據(jù)以及其他Agent。AgentCore身份(Identity)提供了一種安全認(rèn)證的方式,讓您可以控制Agent可以訪問的工具和數(shù)據(jù)。AgentCore可觀測性為您提供已部署Agent工作流的實(shí)時(shí)可見性。

我們還提供了多種基礎(chǔ)工具,允許您的Agent以安全的方式執(zhí)行真實(shí)世界的工作流。例如,代碼解釋器(Code Interpreter)功能可讓您訪問一個(gè)安全的執(zhí)行環(huán)境。

AgentCore正迅速被各行各業(yè)的客戶采納,作為其智能Agent應(yīng)用程序的基礎(chǔ)。我們在監(jiān)管行業(yè)如Visa、National Australia Bank或Rio Tinto等公司中,以及在ISV(如Palumi、ADP)和初創(chuàng)公司(如Coher Health、Snorkel AI)中都看到了強(qiáng)勁的勢頭。

納斯達(dá)克(Nasdaq)的首席執(zhí)行官Dina Freeman和她的團(tuán)隊(duì)正在快速構(gòu)建能夠在他們業(yè)務(wù)核心領(lǐng)域真正工作的Agent。她認(rèn)為AgentCore至關(guān)重要,因?yàn)樗峁┝怂麄兯璧陌踩院透綦x性。

另一個(gè)例子是Bristol Myers Squibb,他們發(fā)現(xiàn)Agent使用AgentCore運(yùn)行時(shí),具備無縫、動態(tài)擴(kuò)展規(guī)模的能力,并能保持其敏感數(shù)據(jù)安全且隔離。

我們看到像Workday這樣的ISV正在基于AgentCore構(gòu)建未來的軟件。AgentCore的代碼解釋器準(zhǔn)確地交付了他們所需的核心功能、安全要求和數(shù)據(jù)保護(hù)。



6、引入 AgentCore Policy

管理AI Agent就像撫養(yǎng)一個(gè)十幾歲的青少年。我的家中就有兩個(gè)出色的青少年。隨著孩子長大,你必須開始賦予他們更多的自主權(quán)和自由,讓他們學(xué)習(xí)并實(shí)現(xiàn)“成年化”。然而,你也需要設(shè)定一些基本規(guī)則,以避免出現(xiàn)重大問題。想想孩子剛開始開車的時(shí)候:他們突然擁有了所有自主權(quán),可以自己做很多事情。但你仍需要設(shè)置“護(hù)欄”,比如規(guī)定他們必須在某個(gè)時(shí)間前回家,或者不能超速行駛。

建立對Agent信任的一種方式是確保它們擁有正確的權(quán)限來訪問你的工具和數(shù)據(jù)。AgentCore Identity 提供了一種很好的實(shí)現(xiàn)方式。然而,僅僅設(shè)置Agent可訪問的工具權(quán)限只是一個(gè)良好的開端。你真正想要控制的是,Agent可以使用這些工具執(zhí)行或不執(zhí)行哪些具體的操作。例如,“Agent將如何使用這些工具?為誰使用?”這些問題是目前客戶面臨的難題。客戶可以將Policy嵌入到Agent代碼中,但由于Agent會即時(shí)生成并執(zhí)行自己的代碼,這些安全保障措施只是“盡力而為”,提供的保證很弱,并且難以進(jìn)行審計(jì)。

在實(shí)際應(yīng)用中,這意味著你無法確定地控制Agent可執(zhí)行或不可執(zhí)行的內(nèi)容,同時(shí)又希望賦予其自主權(quán)來完成工作流程。因此,大多數(shù)客戶在將Agent部署到最具價(jià)值的關(guān)鍵用例時(shí)會感到受阻。

正是基于這個(gè)原因,今天我們宣布在AgentCore 中引入Policy功能。Policy能提供實(shí)時(shí)的確定性設(shè)置,用于控制你的Agent如何與企業(yè)工具和數(shù)據(jù)進(jìn)行交互。你可以設(shè)置這些Policy,定義Agent可以訪問哪些工具、哪些數(shù)據(jù)、以及在什么條件下如何訪問。這包括 API、Lambda 函數(shù)、MCP 服務(wù)器,以及 Salesforce 或 Slack 等流行的第三方服務(wù)。此外,你還可以定義Agent在何種條件下可以執(zhí)行哪些操作。

AgentCore 在授予Agent訪問工具或數(shù)據(jù)之前,會根據(jù)這項(xiàng)Policy對每個(gè)Agent動作進(jìn)行評估。我們通過一個(gè)簡單的退款示例來解釋。假設(shè)你在 AgentCore Policy 中使用自然語言定義了一條Policy,比如:“我希望阻止所有報(bào)銷金額超過 1,000 美元的退款請求。”在底層,你的自然語言提示會被轉(zhuǎn)換成 Cedar 語言。Cedar 是一種流行的開源語言,它支持我們在授權(quán)方面的自動化推理工作,也是我們在 AWS 內(nèi)部可驗(yàn)證系統(tǒng)的基礎(chǔ)。Policy建立后,會被部署到 AgentCore Gateway,并在毫秒級進(jìn)行評估。這確保了你的所有操作都能得到即時(shí)且一致的檢查,從而保持Agent工作流的快速響應(yīng)。

這種部署位置的設(shè)計(jì)至關(guān)重要,因?yàn)镻olicy執(zhí)行是在Agent應(yīng)用程序代碼之外進(jìn)行的。Policy評估實(shí)際上位于你的Agent與所有數(shù)據(jù)、API 和工具之間。因此,你可以可預(yù)測地控制它們的行為。回到我們的退款政策示例,如果每個(gè)Agent操作在訪問工具之前都經(jīng)過Policy檢查,那么當(dāng)退款金額超過設(shè)定的限額時(shí),Agent就會被阻止發(fā)起該退款。有了這些明確的Policy,組織就能對其構(gòu)建和部署的Agent產(chǎn)生更深的信任,因?yàn)樗麄冎繟gent會保持在設(shè)定的邊界內(nèi)。

當(dāng)然,你不僅希望Agent遵循明確定義的規(guī)則,你更需要知道它們的行為是正確的!靶湃危(yàn)證(Trust, but verify)”是亞馬遜內(nèi)部一種管理規(guī);乃季S模型。在 AWS,我們給予團(tuán)隊(duì)極大的自主權(quán),我信任他們?yōu)榭蛻暨M(jìn)行創(chuàng)新并執(zhí)行使命。但同時(shí),我也有一些機(jī)制,讓我在一切順利時(shí)也能深入探查和檢視。我想確認(rèn)我們確定的戰(zhàn)略舉措,是否正按預(yù)期的方式被執(zhí)行。

這就像是我的青少年子女。我通常相信他們會遵守規(guī)則,但我仍可以查看Ring 攝像頭,確認(rèn)他們是否按時(shí)到家。我可以隨時(shí)查看實(shí)時(shí) 360 應(yīng)用的狀態(tài),以確保他們的行為在我設(shè)定的邊界和期望之內(nèi)。同樣的原則也適用于Agent。為了建立信心,你需要看到它們的實(shí)際行為情況。

目前,客戶非常滿意AgentCore Observability(可觀測性)帶來的體驗(yàn)。你可以實(shí)時(shí)查看所有運(yùn)營指標(biāo)的可見性,包括Agent的響應(yīng)時(shí)間、計(jì)算資源使用情況、錯(cuò)誤率以及哪些工具和功能被訪問。這些都很好。然而,除了Agent在運(yùn)營層面的表現(xiàn),還有其他你想要知道的事情。

7、引入 AgentCore Evaluation

你想要知道:Agent是否正在做出正確的決策?它們是否為任務(wù)使用了最合適的工具?它們的回答是否正確、適當(dāng),甚至是否符合品牌定位?這些是今天極難衡量的事情。通常,你需要一個(gè)數(shù)據(jù)科學(xué)家來構(gòu)建復(fù)雜的數(shù)據(jù)管道,選擇一個(gè)模型來嘗試判斷Agent的輸出結(jié)果。他們必須構(gòu)建基礎(chǔ)設(shè)施來提供這些評估,然后管理配額和限流。每當(dāng)你部署一個(gè)新的Agent,或想升級到正在使用的模型的新版本時(shí),你都必須把所有這些工作重做一遍。與傳統(tǒng)軟件不同,預(yù)先進(jìn)行測試和調(diào)試仍然非常困難。你只能在Agent于現(xiàn)實(shí)世界中運(yùn)行時(shí),才知道它們將如何反應(yīng)和回應(yīng)。這意味著你必須持續(xù)實(shí)時(shí)監(jiān)控并評估Agent的行為,并在發(fā)現(xiàn)不當(dāng)行為時(shí)快速做出反應(yīng)。

我們認(rèn)為可以做得更好。今天,我很高興宣布推出AgentCore Evaluation。Evaluation是一個(gè)新的 AgentCore 服務(wù),可以幫助開發(fā)者基于Agent的真實(shí)世界行為,持續(xù)檢查其質(zhì)量。評估可以幫助你根據(jù)特定標(biāo)準(zhǔn)分析Agent的行為,例如我提到的正確性、可用性和有害性。它附帶 13 個(gè)預(yù)構(gòu)建的評估器,用于常見的質(zhì)量維度。當(dāng)然,你也可以隨時(shí)使用自己偏好的提示和模型來構(gòu)建系統(tǒng),創(chuàng)建自己的自定義評分。

在測試階段,你可以輕松評估Agent,在廣泛部署之前糾正任何問題。例如,如果你打算升級到更高版本的模型,你可以運(yùn)行評估來確認(rèn)Agent是否保持了與當(dāng)前版本相同水平的有用性。你也可以在生產(chǎn)環(huán)境中使用Evaluation,快速捕捉那些難以發(fā)現(xiàn)的質(zhì)量下降。

8、Adobe 在 AWS 上的 AI 應(yīng)用實(shí)踐(Shantanu Narayen發(fā)言)

Adobe 一直處于這場革命的前沿。從桌面出版的發(fā)明到數(shù)字文檔的起源,再到開創(chuàng)性的圖像和視頻進(jìn)步,我們不斷推動可能性的邊界。十多年前,我們向基于云的訂閱模式的轉(zhuǎn)型,標(biāo)志著我們與 AWS 關(guān)系的開始。正是亞馬遜的 EC2 和 S3 等服務(wù),為 Adobe 的創(chuàng)新提供了可擴(kuò)展且安全的基礎(chǔ)。

當(dāng)我們過渡到AI 時(shí)代時(shí),AWS 正在幫助我們更快地創(chuàng)新。它提供了我們所需的核心服務(wù),正如 Matt 所說,用于訓(xùn)練模型和部署Agent。這使我們能夠?qū)W⒂?Adobe 最擅長的事情:在我們面向企業(yè)的各類數(shù)字體驗(yàn)中釋放創(chuàng)意,這些體驗(yàn)涵蓋商務(wù)專業(yè)人士、消費(fèi)者、創(chuàng)作者、創(chuàng)意專業(yè)人士,以及營銷和 IT 專業(yè)人士。

在與創(chuàng)造力相關(guān)的AI 方面,我們正在為各種技能水平的人重新構(gòu)想流程的每個(gè)階段。我們知道,超過 90% 的創(chuàng)作者現(xiàn)在都在積極使用以創(chuàng)意為中心的生成式 AI。為支持他們,我們將 AI 融入 Adobe Firefly——我們的全能創(chuàng)意平臺。它用于驅(qū)動我們旗艦 Creative Cloud 應(yīng)用(如 Photoshop)中的 AI 創(chuàng)意工作流程,以及 Adobe Express(一款用于快速輕松創(chuàng)建合規(guī)品牌內(nèi)容的應(yīng)用程序)。例如,Adobe Firefly 模型驅(qū)動的“文本到圖像”、“文本到視頻”、“生成填充”和“生成重著色”等功能,都是在 P5 和 P6 Instances上進(jìn)行訓(xùn)練和使用的。

Acrobat Studio 使用 Amazon SageMaker 和 Amazon Bedrock 來訪問我們自己的和第三方模型,幫助數(shù)百萬用戶更快地進(jìn)行研究、制定Policy、分析和協(xié)作。新的 Adobe PDF 產(chǎn)品也是一個(gè)對話式知識中心,由個(gè)性化 AI 助手支持,幫助消費(fèi)者和商業(yè)專業(yè)人士實(shí)現(xiàn)協(xié)作。

最后,在AI 時(shí)代,營銷人員的角色已經(jīng)演變?yōu)閰f(xié)調(diào)者,旨在為消費(fèi)者和客戶提供引人入勝的客戶體驗(yàn)。為支持他們,我們正在統(tǒng)一客戶參與的關(guān)鍵要素、內(nèi)容供應(yīng)鏈以及品牌可見性。Adobe Experience Platform 是推動此類客戶參與的核心基礎(chǔ),它將 AI 驅(qū)動的應(yīng)用和Agent匯聚在一起,以提高參與度和忠誠度。

該平臺的規(guī)模非常大,每天進(jìn)行超過35 萬億次片段評估和超過 700 億次檔案激活。Experience Platform 使用 AWS 構(gòu)建模塊以及創(chuàng)新的蜂窩架構(gòu)運(yùn)行。我們的共同客戶現(xiàn)在可以將 Redshift 等來源的數(shù)據(jù)攝取到 Adobe Experience Platform 中,創(chuàng)建客戶檔案,并利用這些受眾在 Adobe 的實(shí)時(shí)客戶數(shù)據(jù)平臺中注入數(shù)據(jù)。

我認(rèn)為,與客戶互動的關(guān)鍵在于創(chuàng)建符合品牌的內(nèi)容,并在正確的時(shí)間、通過正確的渠道、在恰到好處的時(shí)刻傳遞。由于營銷人員預(yù)計(jì)未來兩年內(nèi)對內(nèi)容的需求將增長五倍,因此每個(gè)企業(yè)都需要一個(gè)內(nèi)容供應(yīng)鏈來管理這一切。無論是在數(shù)據(jù)層——我們在此訓(xùn)練領(lǐng)先

行業(yè)的Adobe Firefly 基礎(chǔ)模型,正如 Matt 所說,確保我們在 AI 模型方面提供選擇,以便我們能在創(chuàng)造性領(lǐng)域持續(xù)創(chuàng)新,并通過Agent編排來增強(qiáng)這一生態(tài)系統(tǒng)。最后,將 AI 集成到我們所有的應(yīng)用中,使客戶能夠輕松實(shí)現(xiàn)價(jià)值,讓各種類型的組織在他們今天開展工作的地方采用并實(shí)現(xiàn)。站在人與計(jì)算機(jī)交互的這個(gè)交匯點(diǎn)上,我相信 Adobe 和 AWS 共同推動的 AI 變革,將重新定義為世界上數(shù)十億人服務(wù)的數(shù)字體驗(yàn)。我們非常期待與大家攜手合作。

9、AWS 原生智能Agent解決方案

太棒了,Shantanu。非常感謝?吹 Adobe 在數(shù)字體驗(yàn)方面的開創(chuàng)性工作,全部運(yùn)行在 AWS 之上,真是令人振奮。

現(xiàn)在,借助我們提供的工具和服務(wù),我們知道我們的客戶和合作伙伴將會構(gòu)建大量極具影響力的Agent。但也可以預(yù)期,一些最強(qiáng)大、最具能力的智能Agent解決方案將直接來自 AWS。現(xiàn)在讓我們來深入探討其中的幾項(xiàng)。

當(dāng)我們思考應(yīng)該構(gòu)建哪些Agent以及可以重新構(gòu)想哪些體驗(yàn)時(shí),我們專注于那些我們認(rèn)為可以為客戶帶來差異化專長的領(lǐng)域。例如,亞馬遜擁有一個(gè)龐大且異構(gòu)的全球勞動力,我們理解將企業(yè)所有數(shù)據(jù)和系統(tǒng)串聯(lián)起來以賦能員工的重要性,以及其中坦率的復(fù)雜性。

做出優(yōu)秀決策所需的所有數(shù)據(jù),我們將其提供給一套功能強(qiáng)大的智能Agent。你可以快速獲得一套強(qiáng)大的 BI 功能,讓任何人都能輕松發(fā)現(xiàn)洞見,涵蓋所有結(jié)構(gòu)化和非結(jié)構(gòu)化的數(shù)據(jù)來源。我個(gè)人最喜歡的功能之一是它快速進(jìn)行調(diào)查的能力。它可以調(diào)查復(fù)雜的主題,然后從你的內(nèi)部數(shù)據(jù)存儲庫以及互聯(lián)網(wǎng)上的外部數(shù)據(jù)來源中提取信息,匯聚出有深度的見解和詳細(xì)研究報(bào)告,并附有來源引用,讓你確切知道信息來自何處。此外,你還可以創(chuàng)建快速流程,創(chuàng)建為你個(gè)人自動化日常重復(fù)任務(wù)的小型個(gè)人Agent,推動效率。

10、Adobe 在 AWS 上的 AI 應(yīng)用實(shí)踐(May Habib發(fā)言)

如果全球最大的消費(fèi)品公司之一瑪氏(Mars),能夠在短短幾秒內(nèi)對每一張廣告圖片運(yùn)行合規(guī)性檢查,節(jié)省數(shù)千小時(shí)的人工核查時(shí)間,因?yàn)闄z查是即時(shí)完成的,那會怎樣?如果阿斯利康(AstraZeneca),這家創(chuàng)新藥物的制造商,能夠自動化在全球范圍內(nèi)獲得治療批準(zhǔn)所需的文書工作,節(jié)省數(shù)月艱苦的人工流程,并能更快地將救命療法送到患者手中,那會怎樣?如果全球科技先驅(qū)高通(Qualcomm),能夠?qū)崟r(shí)發(fā)現(xiàn)營銷支出的最高效點(diǎn),在節(jié)省數(shù)百萬成本的同時(shí),顯著提升活動表現(xiàn),那會怎樣?

這不僅僅是人工智能(AI)的承諾。這一切都在今天、此刻,由 Writer 的Agent AI(Agentic AI)實(shí)現(xiàn)。

我是May Habib,Writer 的聯(lián)合創(chuàng)始人兼首席執(zhí)行官。在過去的五年里,我們一直與全球大型企業(yè)合作,在監(jiān)管最嚴(yán)格的行業(yè)中,構(gòu)建一個(gè)用于智能Agent工作的平臺。

在早期,我們發(fā)現(xiàn)大型語言模型(LLMs)所能實(shí)現(xiàn)的驚人成果,與滿足企業(yè)所需的可靠性、安全性和可控性之間存在著差距。為此,我們做出了一個(gè)大膽的決定——成為一個(gè)全棧平臺,具備企業(yè)所要求的精確性和合規(guī)性。這一平臺由我們自有的企業(yè)級 Palmyra 大語言模型驅(qū)動,并交付能夠處理最艱巨企業(yè)工作流程的Agent(Agents)。

要真正實(shí)現(xiàn)全棧愿景的規(guī)模化,我們需要一個(gè)彈性強(qiáng)、安全、并為企業(yè)級設(shè)計(jì)的基礎(chǔ)設(shè)施提供商。財(cái)富500 強(qiáng)中的大多數(shù)企業(yè)都在 AWS 上運(yùn)行,其中也包括我們眾多的客戶。因此,與 AWS 合作是一個(gè)顯而易見的選擇。

AWS 作為云服務(wù)提供商,具有獨(dú)特的優(yōu)勢,它既支持我們訓(xùn)練前沿模型,又能夠安全地將我們的整個(gè)平臺部署給我們的企業(yè)客戶。

我們與AWS 的合作始于兩年前,從模型層開始。我們剛剛發(fā)布了最新的 Palmyra 大語言模型,并在排行榜上名列前茅。但隨著模型的規(guī)模變得更大,訓(xùn)練和推理所需的計(jì)算能力也在不斷增長。AWS 技術(shù)棧的深度因此成為了我們的戰(zhàn)略優(yōu)勢。

我們的基礎(chǔ)設(shè)施建立在SageMaker HyperPod 之上,這項(xiàng)服務(wù)為大規(guī)模模型訓(xùn)練提供了強(qiáng)大的支持。我們使用P5 Instances(并很快將升級至 P6 Instances)來處理繁重的 GPU 工作負(fù)載,它們通過 Elastic Fabric Adapter (EFA) 相互連接。EFA 是實(shí)現(xiàn)高速通信的關(guān)鍵,它提供了更大的節(jié)點(diǎn)間帶寬,確保了我們訓(xùn)練運(yùn)行的快速和同步。

我們還將HyperPod 與 Amazon FSx for Lustre 結(jié)合使用,這使我們能夠以模型所需的速度獲取數(shù)據(jù),同時(shí)將成本保持在可控范圍內(nèi)。

這些努力帶來了巨大的成效:我們將運(yùn)行時(shí)間縮短了三分之二,從六周縮短到了兩周。我們的訓(xùn)練流水線可靠性提高了百分之九十。所有這些工作為我們構(gòu)建最新的前沿模型Palmyra X5 提供了力量和穩(wěn)定性,該模型正是直接在HyperPod 上訓(xùn)練的。

Palmyra X5 提供了卓越的自適應(yīng)推理能力、高達(dá)一百萬令牌的巨大上下文窗口,以及從最復(fù)雜的海量數(shù)據(jù)中提取業(yè)務(wù)洞察的近乎完美的準(zhǔn)確性。

它以驚人的速度提供了這些能力:在僅22 秒內(nèi)處理一百萬令牌的提示,并在 300 毫秒內(nèi)完成多輪函數(shù)調(diào)用,而其成本卻低于其他最前沿模型的四分之一。

我們與AWS 的合作從來不只是為了打造快速而強(qiáng)大的模型,它始終致力于構(gòu)建一個(gè)能夠變革企業(yè)運(yùn)營方式的突破性 AI 平臺。以 Palmyra X5 為引擎,我們正在實(shí)現(xiàn)這一愿景。

通過Writer 平臺,像瑪氏、阿斯利康和高通這樣的企業(yè)團(tuán)隊(duì),能夠?qū)gent與數(shù)據(jù)、上下文和業(yè)務(wù)專有知識相連接,從而更高效地工作,這將轉(zhuǎn)變企業(yè)的關(guān)鍵流程,而這一切都無需業(yè)務(wù)用戶編寫一行代碼。

Playbooks(可執(zhí)行手冊)對Writer 來說至關(guān)重要。它們允許團(tuán)隊(duì)一次性記錄流程,將工具、數(shù)據(jù)和他們所依賴的系統(tǒng)連接起來,并將其轉(zhuǎn)化為可重復(fù)的智能Agent。一個(gè)可執(zhí)行手冊變成了一個(gè)動態(tài)的、活生生的藍(lán)圖,指導(dǎo)著出色工作的完成。由于這些手冊可以在團(tuán)隊(duì)之間共享,影響最大的手冊可以瞬間在整個(gè)組織內(nèi)擴(kuò)展。

在AWS 的幫助下,Writer 將很快推出下一代自我進(jìn)化的(Self-Evolving)大語言模型。它們能夠?qū)W習(xí)組織的運(yùn)作方式并即時(shí)預(yù)測請求。它們將成為世界上首批使用越多、性能就越能提升的智能Agent。

然而,所有這一切之上存在一個(gè)問題:對于那些負(fù)責(zé)安全與合規(guī)的領(lǐng)導(dǎo)者來說,當(dāng)出現(xiàn)問題時(shí),他們?nèi)绾尾拍茉诖_保安全和保障的前提下,賦能業(yè)務(wù)團(tuán)隊(duì)進(jìn)行創(chuàng)新?

Writer 首先必須是一個(gè)可互操作的平臺,一個(gè)能夠在規(guī)模上觀察、控制并連接你的Agent,并配備你已經(jīng)信任的相應(yīng)工具與保障措施。今天,我們正式將這一范式引入 Writer,推出了一套專為企業(yè)量身打造的強(qiáng)大監(jiān)管工具。

我們?yōu)榻M織在Agent生命周期的各個(gè)階段提供了完全的可見性和控制。每個(gè)會話都被追蹤,每個(gè)輸出都符合合規(guī)要求,每個(gè)數(shù)據(jù)連接器都實(shí)時(shí)受到治理。

真正的互操作性意味著連接到你信任的系統(tǒng)。因此,我們的平臺可以與您已在使用的可觀測性、保護(hù)欄和系統(tǒng)協(xié)同工作。

從今天開始,我們非常高興地宣布Amazon Bedrock 的保護(hù)欄(Guardrails)現(xiàn)在可以直接與我們的平臺集成。這意味著如果你已經(jīng)在Bedrock 中設(shè)置了Policy和安全規(guī)則,你可以將完全相同的保護(hù)措施應(yīng)用到 Writer 上。你無需重建任何東西,就能獲得一個(gè)一致且合規(guī)的、覆蓋整個(gè) AI 堆棧的控制層。

模型選擇對企業(yè)來說也非常重要。所以從今天開始,來自Amazon Bedrock 的模型可以直接在Writer 平臺內(nèi)使用,F(xiàn)在,AWS 和 Writer 的客戶可以使用模型目錄在 Writer 上構(gòu)建Agent,模型涵蓋了我們自己的 Palmyra 系列、今天發(fā)布的令人驚嘆的 Nova 模型以及更多模型,所有這些都在單一且受治理的環(huán)境中。這是在不犧牲安全性的前提下實(shí)現(xiàn)的終極靈活性。

對于像Vanguard 這樣的組織——他們是長期使用 Writer 和 AWS 的客戶,并且對信任有著零妥協(xié)要求——Writer 和 Bedrock 的集成,為他們提供了在大規(guī)模上負(fù)責(zé)任地創(chuàng)新所需的控制能力。

信任是公司從零散的個(gè)人電腦使用,走向真正受治理的全企業(yè)范圍內(nèi)、具有實(shí)質(zhì)影響的AI 戰(zhàn)略的關(guān)鍵。你無法擴(kuò)展你不信任的事物。

在Writer,我們的愿景是賦能人們實(shí)現(xiàn)變革性的工作,我們很自豪能與 AWS 一起完成這項(xiàng)工作。謝謝。

11、AWS 開發(fā)者 AI 的優(yōu)勢

非常感謝May。我們非常高興能幫助像 Writer 這樣的客戶,讓 AI 和智能Agent為他們的客戶變得切實(shí)可行。

一個(gè)我們較少提及的最終用戶群體是開發(fā)者。而事實(shí)證明,這正是AWS 的一個(gè)優(yōu)勢領(lǐng)域,亞馬遜在這方面擁有深厚的專業(yè)知識。

我們知道,對于那些試圖快速現(xiàn)代化其應(yīng)用程序的開發(fā)團(tuán)隊(duì)來說,最大的痛點(diǎn)之一是處理技術(shù)債務(wù)。埃森哲(Accenture)估計(jì),僅在美國,技術(shù)債務(wù)每年就使公司總計(jì)損失 2.4 萬億美元。高德納(Gartner)表示,如今百分之七十的 IT 預(yù)算被用于維護(hù)遺留系統(tǒng)。我們知道這是 AI 可以發(fā)揮作用的領(lǐng)域。這就是我們構(gòu)建 AWS Transform 的原因,它旨在幫助客戶擺脫他們的傳統(tǒng)平臺。



12、AWS Transform Custom 發(fā)布

就在昨天,我們發(fā)布了AWS Transform Custom,它允許你創(chuàng)建自定義代碼轉(zhuǎn)換Agent,從而實(shí)現(xiàn)任何代碼、API、框架、運(yùn)行時(shí)或語言翻譯的現(xiàn)代化,甚至是只在你們公司內(nèi)部使用的編程語言或框架?蛻粢呀(jīng)紛紛涌向它。

我們已經(jīng)看到客戶進(jìn)行從Angular 到 React 的遷移,將嵌入在 Excel 表格中的 VBA 腳本轉(zhuǎn)換為 Python,將Bash shell 腳本轉(zhuǎn)換為 Rust。一個(gè)很好的客戶案例是QAD,一家提供基于云的 ERP 解決方案和供應(yīng)鏈服務(wù)的供應(yīng)商。他們的客戶在將定制化的 Progress Software 專有高級業(yè)務(wù)語言舊版本,遷移到他們的QAD 自適應(yīng) ERP 平臺時(shí)遇到了困難。QAD 轉(zhuǎn)向了 AWS Transform,原本至少需要兩周時(shí)間才能完成的現(xiàn)代化任務(wù),突然間在不到三天內(nèi)就完成了。我們非常期待看到你們能夠改造的所有遺留代碼。

進(jìn)行所有這些改造的重大好處之一是,它為開發(fā)者騰出了更多時(shí)間去創(chuàng)造發(fā)明,這正是讓我們感到興奮的地方。事實(shí)證明,如今開發(fā)者的構(gòu)建速度比以往任何時(shí)候都快。過去一年里,AI 軟件工具經(jīng)歷了迅速變化,我們已經(jīng)從執(zhí)行內(nèi)聯(lián)制表符補(bǔ)全之類的功能中進(jìn)化出來了。

我們認(rèn)為你們都會喜歡Kiro 將如何改變你們的開發(fā)工作。我很高興今天宣布,對于任何符合條件的創(chuàng)業(yè)公司,如果在一個(gè)月內(nèi)申請,我們將免費(fèi)提供一年的Kiro 服務(wù),最多可達(dá)100 個(gè)席位。

我們對Kiro 在改善開發(fā)者生活方面所產(chǎn)生的影響感到非常興奮。坦白說,我對這種開發(fā)速度所帶來的影響感到驚訝,我們在亞馬遜內(nèi)部已經(jīng)看到了這種影響。事實(shí)上,我們非常震撼,上周整個(gè)亞馬遜決定在內(nèi)部將 Kiro 標(biāo)準(zhǔn)化為我們的官方AI 開發(fā)環(huán)境。

13、Frontier Agents 發(fā)布

人們在第一代AI 編碼工具中看到的只是效率提升,而現(xiàn)在這是數(shù)量級更高的效率提升。

我總會被問到,他們是怎么做到的?起初,團(tuán)隊(duì)花了一點(diǎn)時(shí)間去完全理解如何最好地利用Agentic工具。他們很快就開始看到一些效率提升,但這些更多是逐步改進(jìn)而非顛覆性改變。幾周后,他們有了一個(gè)頓悟時(shí)刻。他們意識到,要最大化利用這些Agent,就必須改變他們的工作流程,充分發(fā)揮Agent的優(yōu)勢。他們不得不質(zhì)疑一直以來關(guān)于如何編寫軟件的一些固有假設(shè)。團(tuán)隊(duì)在此過程中學(xué)到了大量經(jīng)驗(yàn),并發(fā)現(xiàn)了一整系列新的機(jī)會,關(guān)于Agent如何能夠讓團(tuán)隊(duì)更快交付。

他們得到的第一個(gè)經(jīng)驗(yàn)是他們與這些Kiro Agent交互的方式。一開始,他們會向這些工具輸入小型任務(wù)以確保得到可靠的結(jié)果,最終團(tuán)隊(duì)發(fā)現(xiàn)隨著他們向外擴(kuò)展,他們自己反而成了瓶頸,他們不得不斷為Agent解決阻塞,因?yàn)锳gent需要人工干預(yù)。

我們今天發(fā)布的是Frontier Agents,它們建立在三個(gè)關(guān)鍵要求之上:

自主性(Autonomous):你向它們指明一個(gè)目標(biāo),它們會自己想辦法去實(shí)現(xiàn)。

大規(guī)?蓴U(kuò)展性(Scalable):單個(gè)Agent可以同時(shí)執(zhí)行多個(gè)并發(fā)任務(wù),但你必須能夠進(jìn)行分發(fā),跨多個(gè)Instances、多種類型的Agent進(jìn)行協(xié)作。

長期運(yùn)行(Long-Running):它們可能會工作數(shù)小時(shí)甚至數(shù)天,以追求雄心勃勃的目標(biāo)(有時(shí)坦率地說是模糊不清的目標(biāo)),而無需人工干預(yù)或指示。

讓我介紹一下我們今天將發(fā)布的第一個(gè)Frontier Agent,那就是 Kiro Autonomous Agent。

Kiro Autonomous Agent是一種能夠變革開發(fā)者和團(tuán)隊(duì)構(gòu)建軟件方式的Agent,極大地提高了你們開發(fā)團(tuán)隊(duì)的創(chuàng)新能力。Kiro 自主Agent在你的工作流程中并行運(yùn)行,維護(hù)上下文并自動化開發(fā)任務(wù),以便你的團(tuán)隊(duì)始終保持動力。你只需從待辦事項(xiàng)中分配復(fù)雜任務(wù)給它,它就會獨(dú)立地找出完成這些工作的方式。

Kiro 現(xiàn)在可以自主運(yùn)行,處理開發(fā)者所需的一整套事項(xiàng),從交付新功能,到分揀錯(cuò)誤,再到提高代碼覆蓋率。它能夠在會話之間維護(hù)狀態(tài)。讓我們來看看這在新的Kiro 自主Agent中是什么樣子。

首先,你將在Kiro.dev 上開始,并啟動與您的GitHub 倉庫相關(guān)的任務(wù)。你會描述你要解決的問題,然后Agent會使用該描述,并利用來自以往實(shí)現(xiàn)的所有推理和知識。在嘗試規(guī)劃任務(wù)時(shí),它會提出它不理解的澄清性問題。憑借對你整個(gè)代碼庫的深度了解,它會快速識別出需要在所有選定倉庫中進(jìn)行更新的位置,以及需要更新的庫。該Agent會識別出你擁有的每一個(gè)受影響的倉庫。

當(dāng)它在處理PR(Pull Request)的錯(cuò)誤處理時(shí),它會把對前 14 個(gè)錯(cuò)誤的學(xué)習(xí)應(yīng)用進(jìn)去。當(dāng)它遇到類似的架構(gòu)時(shí),它會引用你之前做過的工作。你不需要每次都重新解釋你的代碼庫。它已經(jīng)知道你的工作方式,并且隨著它所執(zhí)行的每一個(gè)任務(wù)都會變得更好。我們認(rèn)為這將幫助你更快地前進(jìn),并徹底改變開發(fā)工作。

我們重申一遍,安全始終是AWS 的首要任務(wù)。近二十年來,我們一直與客戶合作,幫助你們在云端保護(hù)自己的產(chǎn)品。因此,我們自然而然地思考:一個(gè)安全frontier agent會是什么樣子。我們知道每個(gè)客戶都希望產(chǎn)品是安全的,但這存在權(quán)衡。你把時(shí)間花在哪里?你是優(yōu)先考慮改進(jìn)現(xiàn)有功能的安全性,還是優(yōu)先考慮在新功能發(fā)布時(shí)投入時(shí)間 ?在亞馬遜和 AWS,安全性深入融入我們所有的開發(fā)文化和實(shí)踐中。我們進(jìn)行代碼審查,對系統(tǒng)架構(gòu)進(jìn)行安全審查。我們與由內(nèi)部和外部專家組成的大型團(tuán)隊(duì)進(jìn)行大量滲透測試,以尋找漏洞。所有這些工作都在任何代碼進(jìn)入生產(chǎn)環(huán)境之前完成。

然而,大多數(shù)客戶無法持續(xù)承擔(dān)這種做法。結(jié)果是,你可能不會一直做這些事情,或者一年只做幾次。隨著AI 大幅加速開發(fā)進(jìn)程 ,這可能意味著多個(gè)版本發(fā)布正在推出,但你的代碼沒有經(jīng)過嚴(yán)格的安全風(fēng)險(xiǎn)評估。我們堅(jiān)信,為了實(shí)現(xiàn)安全,你必須從頭開始將其融入你所做的每件事中。

因此,我非常高興地宣布推出AWS Security Agent。這個(gè)Agent 將幫助你從一開始就構(gòu)建安全的應(yīng)用程序。AWS Security Agent 幫助你更有信心地交付產(chǎn)品。它將安全專業(yè)知識向上游嵌入,使你能夠更頻繁地保護(hù)系統(tǒng)。它主動審查你的設(shè)計(jì)文檔,并掃描你的代碼以查找漏洞。由于 Security Agent 直接與 GitHub Pull Request 集成 ,它將反饋直接提供給開發(fā)者的工作流中。

Security Agent 還可幫助進(jìn)行滲透測試。它將滲透測試從一種緩慢且昂貴的實(shí)踐 ,變成了一種按需進(jìn)行的實(shí)踐。它可以讓你持續(xù)驗(yàn)證應(yīng)用程序的安全態(tài)勢。

讓我快速演示它的工作原理。假設(shè)你的公司有一套獲批的存儲和處理信用卡信息的方法。如果一個(gè)開發(fā)者無意中采用了錯(cuò)誤的方法,這可能意味著大量的返工,甚至在開發(fā)過程的后期放棄數(shù)月的工作。然而,AWS Security Agent 可以及早發(fā)現(xiàn)這些問題。它甚至可以在你寫一行代碼之前,從你的設(shè)計(jì)文檔中發(fā)現(xiàn)這些問題,因?yàn)樗鼤冀K檢查以確保你遵循團(tuán)隊(duì)的最佳實(shí)踐。

當(dāng)真正到了提交代碼的時(shí)刻,AWS Security Agent 會針對相同的要求審查你的 Pull Request 并標(biāo)記任何問題。對于它發(fā)現(xiàn)的任何問題,它會為你提供簡明的修復(fù)步驟。當(dāng)你的代碼完成時(shí),你只需發(fā)起一次滲透測試 ,該代理會立即著手處理,實(shí)時(shí)向你展示其進(jìn)展情況。完成時(shí),你會得到經(jīng)過驗(yàn)證的結(jié)果,并附有建議的修復(fù)代碼以解決它發(fā)現(xiàn)的任何問題。不再需要等待資源,也不再需要聘請昂貴的外部顧問。

假設(shè)你有多個(gè)準(zhǔn)備好部署到生產(chǎn)環(huán)境的應(yīng)用。你可以并行啟動多個(gè)安全代理。這樣你就可以獲取并測試所有應(yīng)用,而不會成為瓶頸,F(xiàn)在你寫代碼更快了,并且你部署得一樣快,因?yàn)槟阒浪前踩摹?/p>

當(dāng)然,接下來是運(yùn)行代碼。我們都知道,隨著系統(tǒng)的增長,你需要操作的范圍也會隨之?dāng)U大,這意味著需要增加DevOps 工作。這是我們在亞馬遜內(nèi)部團(tuán)隊(duì)擁有大量經(jīng)驗(yàn)的領(lǐng)域。在亞馬遜,我們始終堅(jiān)信創(chuàng)造出色客戶體驗(yàn)的最佳方式,是讓開發(fā)人員自己運(yùn)行他們的代碼。我們多年來一直在實(shí)踐 DevOps。我們學(xué)到的是,隨著你的服務(wù)擴(kuò)展,運(yùn)營會吞噬你越來越多的時(shí)間。我們認(rèn)為這是另一個(gè)可以將我們的專業(yè)知識交到你手中的領(lǐng)域。

AWS DevOps Agent是一個(gè)frontier agent,能夠解析并主動預(yù)防事件 ,持續(xù)提升你的可靠性和性能。AWS DevOps Agent 調(diào)查事件并識別可改進(jìn)的運(yùn)維措施,就像經(jīng)驗(yàn)豐富的 DevOps 工程師所做的那樣。它從你的資源及其關(guān)系中學(xué)習(xí) ,包括你現(xiàn)有的服務(wù)器可觀測性解決方案、運(yùn)行手冊、代碼倉庫和 CI/CD 管道。然后,它會將所有這些來源的遙測、代碼和部署數(shù)據(jù)進(jìn)行關(guān)聯(lián) ,并能夠理解應(yīng)用資源之間的關(guān)系 ,包括多云和混合環(huán)境中的應(yīng)用。

讓我向你展示這如何改變事件響應(yīng)。假設(shè)發(fā)生了一個(gè)事件,警報(bào)響起。在你的值班工程師甚至來得及簽到之前,AWS DevOps Agent 會立即響應(yīng)。在診斷中,它發(fā)現(xiàn)試圖連接到數(shù)據(jù)庫的 Lambda 函數(shù)的身份驗(yàn)證錯(cuò)誤率有所提升。它利用對你的應(yīng)用拓?fù)浣Y(jié)構(gòu)和不同組件之間關(guān)系的了解 ,來獨(dú)立地從告警往回追溯,以找到問題的根本原因。

在這個(gè)例子中,假設(shè)你使用Dynatrace 作為你的可觀察性解決方案。AWS DevOps Agent 使用與 Dynatrace 的內(nèi)置集成,以提供有關(guān)該事件的更多背景信息。它了解你所有的依賴關(guān)系,并且知道創(chuàng)建每一個(gè)資源的部署堆棧。當(dāng)發(fā)現(xiàn)問題時(shí),比如在這個(gè)案例中是對你的 Lambda 函數(shù)所做的 IAM 策略更改 ,它會告訴你是什么引入了該更改。事實(shí)證明,這是你在 CDK 代碼部署中的一個(gè)簡單錯(cuò)誤。

在你的值班工程師登錄時(shí),DevOps 前沿代理已經(jīng)找到了問題、建議了更改 ,并已準(zhǔn)備好讓值班人員審查該更改并批準(zhǔn)修復(fù)。更棒的是,它還能讓你防止此類事件在未來發(fā)生。它通過建議在這些策略更改部署之前用 CI/CD 護(hù)欄加以攔截。

DevOps Agent 始終待命,快速且準(zhǔn)確 ,讓事件響應(yīng)與運(yùn)營工作變得輕松。共同,這三種前沿代理——Hero 自主代理、AWS Security Agent 和 AWS DevOps Agent ——將徹底改變你的團(tuán)隊(duì)構(gòu)建、保護(hù)和運(yùn)維軟件的方式。讓我們快速看看這里的未來可能是什么樣子。



14、核心 AWS 服務(wù)發(fā)布

本周Re:Invent 上,無論是人工智能還是代理化服務(wù),都涌現(xiàn)出大量新創(chuàng)新。此外,還有一系列讓 AWS 非常興奮的發(fā)布。因?yàn)?AWS 范圍如此廣泛 ,我知道你們中很多人都希望聽到關(guān)于我們核心非人工智能產(chǎn)品和服務(wù)的出色新增功能。

我將在我們的核心AWS 服務(wù)中發(fā)布 25 項(xiàng)令人振奮的新產(chǎn)品。我打算只用 10 分鐘來完成介紹。

先從我們的計(jì)算產(chǎn)品說起。我們知道你們都很喜歡AWS 持續(xù)提供最廣泛的Instances選擇 ,因此您始終能為您的應(yīng)用獲得最合適的Instances。

現(xiàn)在,很多人運(yùn)行內(nèi)存密集型工作負(fù)載,比如SAP HANA、SQL Server 或 EDA 等高強(qiáng)度應(yīng)用。因此,今天我很高興地宣布我們下一代X系列大內(nèi)存Instances。它們由定制的 Intel Xeon 6 處理器提供動力。這些Instances可提供多達(dá) 50% 的額外內(nèi)存。

我也很高興地宣布下一代AMD EPYC Memory Pro 處理器 ,同樣地,為你提供3 TB的內(nèi)存。

你們中很多人也運(yùn)行用于安全或網(wǎng)絡(luò)應(yīng)用的EC2 Instances。這些應(yīng)用需要大量計(jì)算能力和超高速網(wǎng)絡(luò)。對于那些場景,我們宣布推出我們的C8ine Instances。這些Instances由定制的 Intel Xeon 6 處理器 驅(qū)動 、使用最新 Nitro v6 卡。它們每個(gè) vCPU 提供 2.5 倍更高的分組性能。

那些需要超高速單線程頻率計(jì)算的應(yīng)用怎么辦?這個(gè)也有。介紹一下我們的M8azn Instances ,它擁有云端可用的絕對最快的 CPU 時(shí)鐘頻率。這些Instances非常適合多人游戲、高頻交易和實(shí)時(shí)數(shù)據(jù)分析等應(yīng)用場景。

今天,AWS 仍然是唯一一家提供基于 Apple Mac 的Instances ,而且它們非常受歡迎。因此,今天我很高興宣布兩款由最新 Apple 硬件驅(qū)動的新Instances。現(xiàn)在發(fā)布EC2 M3 Ultra Mac 和 EC2 M4 Max Mac Instances。開發(fā)者現(xiàn)在可以使用最新的Apple 硬件在 AWS 中構(gòu)建、測試并簽署 Apple 應(yīng)用。

好了,客戶喜歡使用Lambda 快速構(gòu)建函數(shù)并在大規(guī)模運(yùn)行代碼。Lambda 在你想要快速執(zhí)行代碼時(shí)表現(xiàn)出色 ,但有時(shí)你會遇到這樣的用例:你的 Lambda 函數(shù)需要等待響應(yīng) ,就像等待在后臺運(yùn)行的代理(agent)數(shù)小時(shí),甚至幾天。我們希望讓你更容易編程 ,將權(quán)重直接傳入你的 Lambda 函數(shù)。所以今天我們宣布推出Lambda Durable Functions。耐久函數(shù)使您能夠輕松管理狀態(tài),構(gòu)建長期運(yùn)行的工作負(fù)載。它們具有內(nèi)置的錯(cuò)誤處理和自動化恢復(fù)功能。

好吧,我們進(jìn)展如何?八次發(fā)布,差不多三分鐘左右。好吧,我最好加快點(diǎn)。存儲產(chǎn)品發(fā)布

好吧,我們繼續(xù)講存儲。我們知道你們愛用S3。我之前提到過,S3 存儲了超過 500 萬億個(gè)對象,數(shù)百艾字節(jié)的數(shù)據(jù)。那是非常多的數(shù)據(jù)。

當(dāng)我們在2006 年推出 S3 時(shí),單個(gè)對象最大為 5 GB。幾年后,我們將其增加到 5 TB。在過去十年里,這個(gè)容量一直足夠大。但在過去幾年里,數(shù)據(jù)規(guī)模增長了很多。所以我們問自己,什么樣的對象大小才能滿足你們今天的所有需求?

我很高興今天宣布我們將S3 的最大對象大小提高 10 倍 ,達(dá)到 50 TB。但不僅僅是更大。我們知道你們也希望讓 S3 在批處理操作上更快。因此,從今天開始,我們正在提升大型批處理作業(yè)的批處理操作的性能 ,現(xiàn)在運(yùn)行速度提升了 10 倍。

在去年的re:Invent 上,我宣布了 S3 Tables,這是一種為 Iceberg 表優(yōu)化的新桶類型。它變得非常受歡迎。但隨著表格數(shù)據(jù)量開始快速增長 ,你們都在尋求我們能幫助你們省錢的方法。

所以今天,我們宣布為S3 Tables推出智能分層。這可以為您節(jié)省高達(dá)80% ,自動降低存儲在S3 Tables存儲桶中的數(shù)據(jù)的存儲成本。你們還要求我們讓復(fù)制這些表在不同區(qū)域之間變得更容易 ,這樣你們就能獲得一致的查詢性能。截止到今天 ,你現(xiàn)在可以自動將你的S3 Tables跨 AWS 區(qū)域和賬戶復(fù)制。

今年早些時(shí)候,我們?yōu)镕Sx for OpenZFS 推出了 S3 訪問點(diǎn)。這使您可以訪問 ZFS 文件系統(tǒng)的信息 ,就像它是 S3 中的數(shù)據(jù)一樣。今天,我們正在讓你能夠訪問更多的文件數(shù)據(jù),通過將S3 訪問點(diǎn)擴(kuò)展到 FSx,以支持 NetApp ONTAP。現(xiàn)在,ONTAP 客戶也可以無縫訪問他們的數(shù)據(jù),就像數(shù)據(jù)在 S3 中一樣。

現(xiàn)在,你們擁有的增長最快的數(shù)據(jù)類型之一是向量嵌入,它們用于讓你的AI 模型更高效地工作 ,搜索并理解您的數(shù)據(jù)。今年早些時(shí)候,我們宣布了 S3 Vectors (S3 向量) 的預(yù)覽 ,這是首個(gè)原生支持存儲和查詢向量的云對象存儲。

今天,我很高興地宣布S3 Vectors 正式上線 (GA)。你現(xiàn)在可以存儲萬億級的向量在單個(gè)S3 存儲桶中 ,并將存儲和查詢的成本降低 90%。

我預(yù)計(jì)你們中的許多人會使用S3 Vectors 協(xié)同工作,配備高性能向量數(shù)據(jù)庫。今天,實(shí)現(xiàn)低延遲搜索向量嵌入最流行的方法是在 Amazon OpenSearch 中使用索引。但你們中的許多人問過我們,有沒有辦法加快這個(gè)過程 :創(chuàng)建我的所有數(shù)據(jù)的索引?

所以,今天我們很高興宣布在Amazon OpenSearch 中為向量索引提供 GPU 加速。通過使用GPUs 來為這些數(shù)據(jù)建立索引 ,你現(xiàn)在可以為數(shù)據(jù)建立索引快 10 倍 ,成本僅為四分之一。

好了,大家跟得上嗎?還有4 分鐘。太棒了。好了,已經(jīng)發(fā)布 15 次,只剩幾分鐘了。我們繼續(xù)。

讓我們繼續(xù)講到EMR,這也是我們流行的大數(shù)據(jù)處理服務(wù)。我們發(fā)布的 EMR Serverless 四年前發(fā)布,深受客戶喜愛 ,因?yàn)樗蟠鬁p少了運(yùn)行 PB 級規(guī)模處理的復(fù)雜泥潭。但事實(shí)證明今天還不是完全無雜物的?蛻羧匀槐仨毰渲煤凸芾硭麄兊 EMR 存儲,但現(xiàn)在不再需要了。從今天起,我們正在消除您必須進(jìn)行配置本地存儲的需要用于您的EMR Serverless 集群。

好的,我們繼續(xù)講安全。今天,成千上萬的客戶依賴GuardDuty 來監(jiān)控和保護(hù)他們的賬戶、應(yīng)用程序和數(shù)據(jù)免受威脅。在剛過去的這個(gè)夏天,我們將 GuardDuty 的擴(kuò)展威脅檢測添加到了 Amazon EKS。我們對看到的勢頭感到滿意。所以,當(dāng)然,我們并沒有止步于此。

今天,我們將這一功能擴(kuò)展到ECS。現(xiàn)在,您可以將AWS 最先進(jìn)的威脅檢測能力用于您所有的容器和您的所有 EC2 Instances。這項(xiàng)功能對所有 GuardDuty 客戶均已啟用,且無需額外費(fèi)用。

每位客戶都希望快速發(fā)現(xiàn)并修復(fù)安全問題,越快越好,越簡單越好。這就是我們推出Security Hub 的原因 ,它匯總來自 AWS 和第三方來源的安全數(shù)據(jù) ,幫助你識別潛在的安全問題。今年早些時(shí)候,我們預(yù)覽了增強(qiáng)版 Security Hub。今天,我很高興地宣布Security Hub 已進(jìn)入 GA。

今天,我們還宣布了若干新功能,包括近乎實(shí)時(shí)風(fēng)險(xiǎn)分析、一個(gè)趨勢儀表盤,以及一個(gè)新的簡化定價(jià)模型。運(yùn)維團(tuán)隊(duì)的生死取決于他們的日志數(shù)據(jù)。但那份日志數(shù)據(jù)無處不在。它們在CloudTrail 日志和 VPC 流日志和 WFT 日志 ,以及來自像 Okta 和 CrowdStrike 等第三方的日志。我們認(rèn)為我們可以把這做得更好。

所以今天,我們宣布在CloudWatch 中推出一個(gè)新的統(tǒng)一數(shù)據(jù)存儲。這個(gè)存儲用于您的所有運(yùn)營、安全與合規(guī)數(shù)據(jù)。它會自動從AWS 和第三方收集日志數(shù)據(jù) ,并將其存儲在 S3 對象或S3 Tables中 ,以便更輕松、更快速地發(fā)現(xiàn)問題并解鎖新的洞察。

好了,大家跟緊我。我們快到了,我們就在沖刺階段。我們現(xiàn)在來談?wù)剶?shù)據(jù)庫。我知道你們中還有許多人仍在維護(hù)一些遺留的SQL Server 和 Oracle 數(shù)據(jù)庫。遷移走它們很難,但至少 AWS 讓管理變得更容易。不用擔(dān)心,我們會提供幫助。我從你們許多人那里聽到的一件事是,你們的傳統(tǒng)數(shù)據(jù)庫規(guī)模隨著時(shí)間增長得非常大 ,它們實(shí)際上比我們在 RDS 中支持的容量更大。

所以我很高興宣布我們正在增加RDS 的存儲容量 適用于 SQL Server 和 Oracle。容量從 64 TB 增加到 256 TB。這也帶來了 4 倍的 IOPS 和 IO 帶寬提升。這將大大簡化將現(xiàn)有工作負(fù)載從本地遷移,以便在AWS 上對它們進(jìn)行擴(kuò)展的過程。

我們也希望為你提供更多控制,以幫助你優(yōu)化你的SQL Server 許可證并管理你的成本。所以,從今天開始我們推出幾項(xiàng)舉措。

您現(xiàn)在可以為SQL Server 數(shù)據(jù)庫Instances指定啟用的 vCPU 數(shù)量。這有助于降低來自 Microsoft 的按 CPU 計(jì)費(fèi)許可成本。

今天我們還增加了對SQL Server 開發(fā)者版本的支持 ,這樣你就可以構(gòu)建和測試你的應(yīng)用程序無需許可費(fèi)用。

哦,戰(zhàn)利品音樂要響起來了。好吧,那就意味著我只剩下幾秒鐘了。但我還有最后一件事,我想你們所有人都會喜歡。幾年前,我們推出了Compute Savings Plans (計(jì)算節(jié)省計(jì)劃) ,作為一種簡化方式,在我們整套計(jì)算產(chǎn)品上進(jìn)行承諾。自那天起,我經(jīng)常被問到 ,我什么時(shí)候能獲得針對數(shù)據(jù)庫的統(tǒng)一節(jié)省計(jì)劃 ?就在這里。

從今天起,我們推出數(shù)據(jù)庫節(jié)省計(jì)劃。這些計(jì)劃可為您在我們數(shù)據(jù)庫服務(wù)的所有使用上節(jié)省最多35%。

好了,搞定。在不到10 分鐘內(nèi) ,為你們帶來整整第二場主題演講價(jià)值的新功能。現(xiàn)在你們有整整四天的時(shí)間去外出學(xué)習(xí) ,深入細(xì)節(jié)并開始創(chuàng)新發(fā)明。感謝大家來參加 re:Invent。盡情享受。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
剛剛,集體殺跌!300萬手賣單,封死跌停

剛剛,集體殺跌!300萬手賣單,封死跌停

中國基金報(bào)
2026-01-15 10:51:14
“死了么”APP計(jì)劃將總部設(shè)在杭州!創(chuàng)始人最新發(fā)聲

“死了么”APP計(jì)劃將總部設(shè)在杭州!創(chuàng)始人最新發(fā)聲

極目新聞
2026-01-15 16:10:36
回應(yīng)特朗普三點(diǎn):臺海、伊朗與所謂道德!

回應(yīng)特朗普三點(diǎn):臺海、伊朗與所謂道德!

新民周刊
2026-01-15 09:13:58
美通告全球,中方大拋美債,特朗普終于動手了,八國央行向美宣戰(zhàn)

美通告全球,中方大拋美債,特朗普終于動手了,八國央行向美宣戰(zhàn)

樂天閑聊
2026-01-15 11:54:57
23歲女孩被逼迫嫁給39歲男子喝農(nóng)藥住進(jìn)ICU?當(dāng)?shù)貗D聯(lián)回應(yīng)

23歲女孩被逼迫嫁給39歲男子喝農(nóng)藥住進(jìn)ICU?當(dāng)?shù)貗D聯(lián)回應(yīng)

大風(fēng)新聞
2026-01-15 12:21:06
開年暴擊,四川某光伏巨頭清倉式裁員!

開年暴擊,四川某光伏巨頭清倉式裁員!

黯泉
2026-01-15 10:59:17
賀嬌龍好友透露事發(fā)細(xì)節(jié) 馬受驚尥蹶子腳被馬凳套住 去年勸她換馬

賀嬌龍好友透露事發(fā)細(xì)節(jié) 馬受驚尥蹶子腳被馬凳套住 去年勸她換馬

好賢觀史記
2026-01-15 14:04:51
16億只是保底,馬斯克想給朱曉彤的是100億

16億只是保底,馬斯克想給朱曉彤的是100億

字母榜
2026-01-15 14:44:13
秋瓷炫:我這輩子最正確的決定,就是39歲高齡為中國籍小丈夫生子

秋瓷炫:我這輩子最正確的決定,就是39歲高齡為中國籍小丈夫生子

八斗小先生
2026-01-15 09:59:08
王健林預(yù)言成真!第3輪大漲來了?內(nèi)行人:2026年房價(jià)或超出想象

王健林預(yù)言成真!第3輪大漲來了?內(nèi)行人:2026年房價(jià)或超出想象

貓叔東山再起
2026-01-15 10:55:03
賀嬌龍遺體已回昭蘇!生前最后畫面曝光,母親曾斥"再騎馬別回家"

賀嬌龍遺體已回昭蘇!生前最后畫面曝光,母親曾斥"再騎馬別回家"

烏娛子醬
2026-01-15 14:53:06
痛心!74歲“棋圣”聶衛(wèi)平去世,原因是直腸癌,三婚娶小23歲嬌妻

痛心!74歲“棋圣”聶衛(wèi)平去世,原因是直腸癌,三婚娶小23歲嬌妻

180視角
2026-01-15 09:32:04
山姆中國一年賣 1400 億、增長 40%:不是超市不行,是“靠收地租”的零售走不通了!

山姆中國一年賣 1400 億、增長 40%:不是超市不行,是“靠收地租”的零售走不通了!

新浪財(cái)經(jīng)
2026-01-15 00:06:03
上海隊(duì)迎來1個(gè)壞消息!CBA超級外援,因傷無緣與廣東隊(duì)的比賽

上海隊(duì)迎來1個(gè)壞消息!CBA超級外援,因傷無緣與廣東隊(duì)的比賽

體育哲人
2026-01-15 13:48:52
烏克蘭否決了多項(xiàng)任命,開始為澤連斯基的下臺,做著最后的準(zhǔn)備?

烏克蘭否決了多項(xiàng)任命,開始為澤連斯基的下臺,做著最后的準(zhǔn)備?

軍機(jī)Talk
2026-01-15 11:53:27
伊朗外長:政府已完全掌控局面 局勢已平靜

伊朗外長:政府已完全掌控局面 局勢已平靜

新華社
2026-01-15 10:00:06
我行我素的性情造就了“棋圣”,一生娶三妻自稱“情商高”

我行我素的性情造就了“棋圣”,一生娶三妻自稱“情商高”

一支破筆半支煙
2026-01-15 11:25:57
央行出臺一批貨幣金融政策:各類結(jié)構(gòu)性貨幣政策工具降息25個(gè)基點(diǎn),商業(yè)用房購房最低首付降至30%

央行出臺一批貨幣金融政策:各類結(jié)構(gòu)性貨幣政策工具降息25個(gè)基點(diǎn),商業(yè)用房購房最低首付降至30%

澎湃新聞
2026-01-15 15:24:33
痛心!媽媽將女兒送回前夫家后躲藏,9歲女兒撕心裂肺找媽媽暈倒身亡!

痛心!媽媽將女兒送回前夫家后躲藏,9歲女兒撕心裂肺找媽媽暈倒身亡!

上觀新聞
2026-01-14 23:14:05
湊湊火鍋鄭州門店清零?呷哺呷哺回應(yīng)

湊湊火鍋鄭州門店清零?呷哺呷哺回應(yīng)

魯中晨報(bào)
2026-01-15 14:11:08
2026-01-15 16:31:00
劃重點(diǎn)KeyPoints incentive-icons
劃重點(diǎn)KeyPoints
追蹤全球AI科技,記錄中國硬核崛起
145文章數(shù) 15關(guān)注度
往期回顧 全部

科技要聞

阿里最狠的一次“自我革命”

頭條要聞

媒體:不論美國是否會立即攻打伊朗 中方態(tài)度相當(dāng)鮮明

頭條要聞

媒體:不論美國是否會立即攻打伊朗 中方態(tài)度相當(dāng)鮮明

體育要聞

棋圣千古!聶衛(wèi)平俠氣豪情寄國足 一生情緣亦成憾

娛樂要聞

傳奇棋圣聶衛(wèi)平離世,網(wǎng)友集體悼念

財(cái)經(jīng)要聞

央行下調(diào)結(jié)構(gòu)性貨幣政策工具利率0.25%

汽車要聞

今年推出超40款新車,BBA要把失去的奪回來

態(tài)度原創(chuàng)

親子
藝術(shù)
數(shù)碼
公開課
軍事航空

親子要聞

哥哥放學(xué)回家,3歲妹妹給哥哥做了啥?兄妹情深讓人羨慕

藝術(shù)要聞

歷代書家集字春聯(lián)大集合

數(shù)碼要聞

曝三星已開始量產(chǎn)8.6代OLED屏幕 將用于新款筆記本電腦

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

美國已正式開始出售委內(nèi)瑞拉石油

無障礙瀏覽 進(jìn)入關(guān)懷版