对2023年9月17日坠毁在南卡罗来纳州的F-35B调查报告刚公布。
飞机有没有指示器立即用显著方式告诉飞行员备用系统正常、正在接管飞机?不应该等切换完成某个阶段才告诉。这种特别重要的功能应该由特殊硬件结构保障,以避免主控系统和软件因各种原因延误甚至失败。这是关键问题,应该调查清楚。
如果要双重保险,还可以再加个特殊硬件结构伺机立即发指令表示下列意思:备用系统启动、接管失败,请立即弃机。当然实际中应该更简洁地表达,或用更简短但广为飞行员所知的代号,以免啰里啰唆延误时机。
上亿美元的飞机和飞行员都是宝贵财富。加这点小硬件结构算什么?
这两个子系统的逻辑结构清晰、可靠,而不是一堆乱哄哄的指令中的两个,才能使飞行员像熟悉降落伞一样熟悉它们、反应敏捷稳定。其它指令的逻辑结构也应该尽可能清晰,以免让飞行员费心分神、扰乱战斗。
这是战机,备用系统出问题的概率并不小。但也可能是监控系统出问题,飞机本身没大问题。在很多情况下该让飞行员作判断,只有在特殊情况下才自动弹座、弹伞。
以前波音737Max的两次事故,是人类飞行员和自动驾驶争夺控制权引起的。和这次F-35B的事故都属于系统设计上的人机藕合失败。
无人汽车的自动驾驶因为得跟本车以外的人类智力密集竞争,远比民用客机以及和平环境里军机自动驾驶复杂。
笔者不研究战斗环境里的军机。但从计算机无法模拟鼠脑和猫脑、无法达到鼠和猫的智力,以及Safe Street Rebel group发现的在无人汽车hood上放个traffic cone就能让它一动不动、只能等人解救的情况看,对战斗环境里军机的自动驾驶不能过于乐观,包括人类可能利用特殊无人飞行器对昂贵军机事先设置好逻辑圈套。而人工智能(包括自动驾驶)的计算机逻辑,都是简单逻辑。
所以,借军工炒作人工智能也该慎重。而对飞行员是否公正更是重要,不公正科技就会走错方向。指鹿为马则导致秦朝末年的支柱章邯投降。
互联网上有对此次事故报告的报道: https://www.military.com/daily-news/2024/10/31/pilot-of-f-35-crashed-south-carolina-ejected-after-malfunctions-disorientation.html。
好像已有十架左右的F-35坠毁。对更近的2024年5月28日坠毁事件,尚未听说调查报告。
笔者研究科学逻辑和智力科学的基础理论。跟计算机和人工智能的人机藕合只是这些理论的一个次要应用,但也很重要。