
联合国最近真是操碎了心。古特雷斯秘书长在安理会敲桌子警告:绝不能让杀手机器人掌控战场!红十字国际委员会也紧跟着喊话,催各国赶紧签协议管管自主武器。可现实呢?大国们表面点头,背地里全在疯狂搞AI军事化,活脱脱一场“谁慢谁吃亏”的军备竞赛。

美国在搞什么全域指挥系统,想把所有作战单位用AI串成智能网络;俄罗斯虽然技术弱些,也在拼命把AI当力量倍增器。这阵仗像极了冷战核竞赛——谁都承认该限制,但谁都不愿先住手。毕竟在战略博弈里,赌别人会守规矩简直等于自杀。
但AI打仗真这么美好?战场数据经常残缺不全,AI系统可能瞬间变“人工智障”。更讽刺的是,军方越依赖商业公司的云计算,越容易被网络攻击一锅端。想想看,要是打仗时云计算服务器被黑,整个指挥系统直接瘫痪,这仗还怎么打?

最要命的是责任问题。AI误炸了平民,该怪程序员、制造商还是指挥官?现行法律根本说不清。国际人道主义法要求区分军民目标,可AI识别能力现在连猫狗都经常认错,谁敢让它判断哪个是扛锄头的农民哪个是扛火箭的民兵?
专家点出核心矛盾:各国拼命追求AI决策速度,却忽略了一个致命问题——快不等于好。当AI用0.1秒给出作战方案时,人类指挥官可能连提问的时间都没有。这种“算法黑箱”里要是藏着偏见或漏洞,分分钟就能引发灾难。

现在的困局在于:技术跑得比监管快十年,商业公司掌握着军方依赖的核心技术,而国际谈判还陷在“该禁止全自主武器还是部分禁止”的扯皮中。就像开着没有刹车的跑车在弯道竞速,刺激是真刺激,就是不知道什么时候冲出悬崖。
博星优配提示:文章来自网络,不代表本站观点。