在软件层面,我们的研发团队已经在研究更加智能、高效的算法,能够在不显着增加计算资源消耗的前提下,实现备用频段切换和编码方式调整的快速响应。而且,随着技术的不断进步和规模化生产,成本会逐渐降低。
我们有信心在保障抗干扰性能提升的同时,将成本控制在一个合理水平,为军方提供既先进又经济实用的解决方案。”
听到吴浩的话,现场众人都点了点头,一位从事人工智能伦理研究的学者微微颔首,接过话茬:“从伦理角度看,人工智能决策模块的自主性引发了一些思考。虽然它能依据多模态数据做出决策,但在某些极端情况下,比如面临可能导致平民伤亡的复杂场景,如何确保决策符合人道主义原则?是否需要设置人工干预的紧急制动机制,以便在关键时刻人为介入,纠正可能出现的非人道决策?这不仅关乎技术,更涉及道德和法律层面的考量。”
一位国际法专家神色凝重,率先发表意见:“学者提出的问题十分关键。在现代战争中,遵循人道主义原则是国际社会的共识,也是我国军队始终坚守的底线。从法律角度讲,一旦因人工智能决策导致平民伤亡,且被认定违反人道主义法,国家将面临巨大的国际舆论压力,甚至可能陷入法律纠纷。所以,设置人工干预的紧急制动机制是必要的,这是确保战争行为合法合规的一道‘安全阀’。”
一位专注于军事指挥流程研究的专家皱着眉头,陷入思索后缓缓开口:“从军事指挥流程来看,人工干预机制的设置需要谨慎权衡。一方面,紧急制动机制能够防止人工智能决策出现严重偏差。但另一方面,在瞬息万变的战场上,人工干预可能会导致决策延迟。设想一下,当无人机群正在执行一项紧急且关键的任务,需要快速决策以应对突发情况时,人工介入的审核流程可能会错失最佳战机。因此,我们需要明确界定人工干预的触发条件,确保在不影响作战效率的前提下,保障人道主义原则的贯彻。”