“田教授的观点很有启发性。”
陈老微微颔首,补充道:“或许可以借鉴航空领域的‘人在回路’控制理念。
AI作为‘副驾驶’持续提供最优方案,人类指挥官则像‘机长’,拥有最终否决权,但必须承担决策后果。
四千零二十七章人机融合技术将改变战场模式
同时建立算法审计机制,每次重大决策后回溯AI的运算逻辑,确保其没有偏离人类设定的价值框架。”
“说到价值框架,这恰恰是最难量化的部分。”
林教授神情凝重,说道:“不同文化背景下,对战争伦理的认知存在巨大差异。
我们的AI系统如何避免陷入‘文化偏见’?
比如某些国家可能默许对敌方基础设施的攻击,而我们坚守‘保护民生’的原则,算法该如何平衡?”
这个问题让现场陷入短暂的沉思。
片刻后,负责海军作战模拟的钱主任提出新思路:“或许可以开发‘伦理沙盒’。
内容未完,下一页继续阅读