国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

烏克蘭囤2.5萬臺機器人,戰(zhàn)爭邏輯正在改變

0
分享至

作者丨有界unknown 錢江

近日,烏克蘭國防部宣布,將在2026年上半年訂購25,000套地面機器人綜合體 (GRC)。相當(dāng)于2025年全年需求的2倍。烏克蘭國防采購署已與制造商簽署了19份合同,總價值達(dá)110億格里夫納,計劃實現(xiàn)后勤完全自動化。

這可不是我們想象的,一群人形一樣的機甲戰(zhàn)士,在戰(zhàn)場上相互廝打。烏克蘭采購的,是一類履帶式、輪式的小型地面機器人,它們的核心能力不是"自主作戰(zhàn)",而是通過穩(wěn)定通信,實現(xiàn)人類的遠(yuǎn)程操控。

也就是說,烏克蘭采購的機器人,雖然被投入戰(zhàn)場,但是替代的是人類"執(zhí)行"的環(huán)節(jié),并非"決策"環(huán)節(jié)。

但隨著AI不斷提升機器人的智能化水平,未來更高自主性的機器人進入戰(zhàn)場,已是一種可以預(yù)見的趨勢。當(dāng)機器人在戰(zhàn)場不僅只做"執(zhí)行",還可以參與做"決策"的時候,如何保證機器人不會"濫傷無辜"?

烏克蘭成機器人戰(zhàn)爭"試煉場"

具體來看,烏克蘭采購的地面機器人綜合體 (GRC)不是單一的機器人,而是一整套可用于地面作戰(zhàn)的無人機器人系統(tǒng),它可以用來替人上前線完成高風(fēng)險任務(wù),比如運送彈藥、醫(yī)療物資甚至拖運傷員。

它分為三個部分:

第一部分,是無人地面載體(UGV),也就是機器人本體,主要的形態(tài)是履帶式和輪式,其中履帶式最常見,適合泥地、戰(zhàn)壕等不平整的地面行駛。UGV主要用于運送彈藥和物資,做一些排雷的工程作業(yè)。

第二部分,是控制與通信系統(tǒng),這套系統(tǒng)的核心是實現(xiàn)即便人類不在現(xiàn)場,也能遠(yuǎn)程看見并遙控機器人,包括遙控終端、加密通信鏈路、視頻回傳系統(tǒng)等。

第三部分,是任務(wù)模塊,它主要決定機器人能做什么,比如武器模塊、排雷設(shè)備、偵查傳感器等。

之所以在這個時間點,用上億美金采購機器人設(shè)備,有兩層原因。

一是現(xiàn)實壓力。長期戰(zhàn)爭消耗下,烏克蘭面臨的是人力的持續(xù)流失,尤其是前線所需的年輕勞動力越來越緊缺。在這種情況下,用機器替代人進入高風(fēng)險環(huán)節(jié),不再是選擇,而是必然。

二是戰(zhàn)場反饋。烏克蘭方面近期披露的一次行動,進一步強化了這一判斷。

4月中旬,烏克蘭總統(tǒng)澤連斯基宣布,烏軍在一次戰(zhàn)斗中,僅依靠地面機器人和空中無人機攻占了俄軍陣地,未投入步兵力量。按照官方說法,"俄羅斯士兵在面對無人車輛時投降,烏克蘭方面沒有損失"。


▲ 面對無人車輛大軍,俄軍士兵投降了

盡管這一戰(zhàn)的細(xì)節(jié)尚未完全公開,也缺乏更多獨立驗證,但至少說明一點:

機器人已經(jīng)開始進入"替人上前線"的階段。

據(jù)總統(tǒng)稱,過去三個月里,烏克蘭地面機器人已在前線執(zhí)行了超過22000次任務(wù)。意味著,它們不再是試驗性裝備,而是被反復(fù)調(diào)用的前線工具。

在資金層面,這一體系具備現(xiàn)實基礎(chǔ)。

歐美以軍事和財政支持形式進入烏克蘭國家預(yù)算,間接支撐國防開支;政府再通過采購體系轉(zhuǎn)化為具體訂單。與此同時,像Come Back Alive等民間組織通過眾籌補充無人機等前線需求,形成一種以國家資金為主、民間補充的混合供給結(jié)構(gòu)。

烏克蘭的意義不在于"第一次使用無人裝備",而在于第一次把無人系統(tǒng)打成規(guī)模化、體系化的戰(zhàn)爭能力。烏克蘭戰(zhàn)場就是現(xiàn)代各類裝備的試煉場。戰(zhàn)爭持續(xù)打下去,很有可能成為機器人最先成熟的應(yīng)用場景。

當(dāng)未來機器人替代戰(zhàn)場上的士兵之時,戰(zhàn)爭的瓶頸,也就從"拼人命"變成"拼產(chǎn)能"。

那么,當(dāng)機器人替代人力,戰(zhàn)爭或許變成一場生產(chǎn)競賽。

AI和機器人,邊界應(yīng)該在哪里?

說起機器人上戰(zhàn)場,讓我想起我們前幾天一篇關(guān)于人形機器人馬拉松(《人形機器人跑半馬,得了第一,又能怎樣?》)的文章。

當(dāng)時評論區(qū)有網(wǎng)友提出過一個問題:"機器人要它跑這么快干什么?追求速度的話,完全可以買輛車。"

另一個網(wǎng)友開玩笑道:上戰(zhàn)場!

當(dāng)然,這件事情也并不是完全開玩笑,畢竟前幾年很火的四足機器狗,如今已經(jīng)在很多部隊實現(xiàn)了列裝,那么,人形機器人,未來也有可能走上戰(zhàn)場嗎?

相信很多人心里都是有答案的。

這也讓我想起一部2015年發(fā)布的阿根廷動畫短片《Uncanny Valley(2015)》(中文:恐怖谷),其大概意思一群人沉迷于高度擬真的VR射擊游戲:在游戲中,他們在廢墟戰(zhàn)場中執(zhí)行任務(wù)、消滅"怪物",一切看起來不過是刺激的娛樂。


▲ 圖片來自電影《恐怖谷》

但隨著游戲出現(xiàn)故障,畫面細(xì)節(jié)逐漸失真,主角逐漸意識到,他們所處的并非虛擬世界,而是通過遠(yuǎn)程操控人形機器人的方式,參與一場真實的戰(zhàn)爭。因此,那些被擊殺的也并不是怪物,而是另一個國家的普通人——有女人、有孩子、有保衛(wèi)家人的男人......

他發(fā)現(xiàn),所謂"游戲",其實是一場被包裝過的入侵與屠殺。

在這個短片末尾,主角接受不了這個事情,通過在游戲中自殺的方式回到了現(xiàn)實,但等待他的,是一隊荷槍實彈的人形機器人......

結(jié)合今天技術(shù)發(fā)展現(xiàn)狀來看,這部短片最重要的一個啟示其實是,技術(shù)應(yīng)該有邊界。

如今,AI大模型早已經(jīng)被用到了軍事領(lǐng)域。

據(jù)華爾街日報報道,美軍中央司令部明確表示,在美伊戰(zhàn)爭中,AI"每天都在用",主要用于處理海量情報、加快決策。

這里就不得不提到最近發(fā)生的另外一件事情。

今年(2026年)二月份,美國軍方將Anthropic納入"供應(yīng)鏈風(fēng)險"名單,原因是Anthropic拒絕接受五角大樓提出的條款:涉密環(huán)境下,AI模型應(yīng)可用于"所有合法用途",不得被"政策約束"限制軍事應(yīng)用空間。

而Anthropic卻始終堅持兩條"紅線":

第一,AI模型不得用于美國國內(nèi)大規(guī)模監(jiān)控;第二,AI模型不得用于完全自主武器系統(tǒng)(即無需人類授權(quán)即可開火的武器)。

在這件事情中,Anthropic因為拒絕五角大樓而被美國軍方"封殺",但也獲得了美國民眾的大力支持;與Anthropic相反,在Anthropic與美國軍方談判破裂后,僅僅幾個小時,OpenAI就與五角大樓達(dá)成了協(xié)議,當(dāng)然,相應(yīng)的,OpenAI也收到了美國民眾的抵制。

所以,其實到今天,我們應(yīng)該如何給AI、給機器人的使用設(shè)定一個界限,已經(jīng)是一個重要且迫在眉睫的問題。

現(xiàn)在國際社會針對這一點的討論也十分尖銳,世界上不同立場的人們也都有自己的主張。

這里面,最著名的反對派是現(xiàn)任聯(lián)合國秘書長古特雷斯,他認(rèn)為:"在沒有人類控制的情況下,機器擁有決定人類生死的權(quán)力,在政治上不可接受、在道德上令人厭惡,而且應(yīng)該被國際法禁止。"

紅十字國際委員會主席斯波利亞里奇的觀點要溫和一些,她主張通過國際法來規(guī)范致命自主武器系統(tǒng),核心是保留人類對武力使用的控制。即重點不是抽象的反AI,而是保住人類的"控制權(quán)"。

在歐洲,歐盟的觀點一直比較謹(jǐn)慎,他們認(rèn)為國際法完全適用于這類系統(tǒng),而且在可能的發(fā)展和使用過程中,必須有適當(dāng)?shù)娜祟惪刂啤?/p>

核心就是,發(fā)展可以,但是要先立規(guī)矩。事實上,歐盟也是世界上最早推出《人工智能法案》的地方,這項法案已在2024年8月生效。


▲ 歐盟《人工智能法案》中的AI風(fēng)險等級金字塔

作為對比,美國在這方面的觀點更加開放。

他們擔(dān)心,過度的監(jiān)管限制AI的發(fā)展。比如現(xiàn)任美國副總統(tǒng)萬斯就在2025年巴黎AI峰會上的表態(tài):如果用繁重監(jiān)管去限制AI發(fā)展,不僅會不公平地利好既有巨頭,還會讓最有前景的技術(shù)之一陷入癱瘓。

但在美國軍方,特別是作為AI在戰(zhàn)爭場景中的實際使用者,他們的態(tài)度還是相對克制,他們雖然主張不能"一刀切"限制AI,也應(yīng)該保留"人類判斷"和堅持"負(fù)責(zé)任使用"。

美國國防部3000.09指令[1寫得也很清楚:自主和半自主武器系統(tǒng)要讓指揮官和操作員對武力使用保持"適當(dāng)水平的人類判斷",還要經(jīng)過測試、驗證和高級別審查。

但問題恰恰也在這里。

無論是聯(lián)合國、歐盟,還是美國軍方現(xiàn)有的表述,本質(zhì)上都還停留在"如何管理技術(shù)使用"的層面:哪些場景能用、誰來授權(quán)、出了問題誰負(fù)責(zé)。

可當(dāng)機器人和AI越來越深地進入戰(zhàn)爭系統(tǒng),僅靠流程、審查和指令,或許還不足以回答那個更根本的問題——我們究竟應(yīng)不應(yīng)該把"決定傷害誰、殺死誰"的權(quán)力,一步步交給機器。


▲ 圖片來自《愛,死亡和機器人》

也正因為如此,人類今天面對的,已經(jīng)不只是治理問題,而是一個更古老的倫理問題。

早在20世紀(jì)40年代,美國著名科幻作家就提出了機器人三定律:

機器人不得傷害人類,或坐視人類受到傷害;

機器人必須服從人類命令,除非該命令違反第一定律;

機器人必須保護自己,除非這與第一或第二定律沖突。

那么今天,當(dāng)機器人距離人類的生活已經(jīng)近在咫尺,我們有給AI、給機器人設(shè)定這樣的"三定律"嗎?

誰又掌握著這個潘多拉盒子的鑰匙呢?

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

藍(lán)鯨新聞 incentive-icons
藍(lán)鯨新聞
財經(jīng)信息服務(wù)平臺
131668文章數(shù) 193847關(guān)注度
往期回顧 全部

專題推薦

洞天福地 花海畢節(jié) 山水饋贈里的“詩與遠(yuǎn)方

無障礙瀏覽 進入關(guān)懷版