Scott Gu

不公正,很快会听不到真相。马尔萨斯模型及改进型和认为人口控制类似火箭控制是数学和控制理论的严重错误。现在购买力和公司盈利全靠巨额政府债务泡沫的信用杠杆放大效应支撑。指鹿为马会开启潘多拉魔盒,使制度成为笑料,毁灭文明。
正文

关于F-35最新事故报告和人机藕合

(2024-11-02 23:05:25) 下一个

对2023年9月17日坠毁在南卡罗来纳州的F-35B调查报告刚公布。

飞机有没有指示器立即用显著方式告诉飞行员备用系统正常、正在接管飞机?不应该等切换完成某个阶段才告诉。这种特别重要的功能应该由特殊硬件结构保障,以避免主控系统和软件因各种原因延误甚至失败。这是关键问题,应该调查清楚。

如果要双重保险,还可以再加个特殊硬件结构伺机立即发指令表示下列意思:备用系统启动、接管失败,请立即弃机。当然实际中应该更简洁地表达,或用更简短但广为飞行员所知的代号,以免啰里啰唆延误时机。

上亿美元的飞机和飞行员都是宝贵财富。加这点小硬件结构算什么?

这两个子系统的逻辑结构清晰、可靠,而不是一堆乱哄哄的指令中的两个,才能使飞行员像熟悉降落伞一样熟悉它们、反应敏捷稳定。其它指令的逻辑结构也应该尽可能清晰,以免让飞行员费心分神、扰乱战斗。

这是战机,备用系统出问题的概率并不小。但也可能是监控系统出问题,飞机本身没大问题。在很多情况下该让飞行员作判断,只有在特殊情况下才自动弹座、弹伞。

以前波音737Max的两次事故,是人类飞行员和自动驾驶争夺控制权引起的。和这次F-35B的事故都属于系统设计上的人机藕合失败。

无人汽车的自动驾驶因为得跟本车以外的人类智力密集竞争,远比民用客机以及和平环境里军机自动驾驶复杂。

笔者不研究战斗环境里的军机。但从计算机无法模拟鼠脑和猫脑、无法达到鼠和猫的智力,以及Safe Street Rebel group发现的在无人汽车hood上放个traffic cone就能让它一动不动、只能等人解救的情况看,对战斗环境里军机的自动驾驶不能过于乐观,包括人类可能利用特殊无人飞行器对昂贵军机事先设置好逻辑圈套。而人工智能(包括自动驾驶)的计算机逻辑,都是简单逻辑。

所以,借军工炒作人工智能也该慎重。而对飞行员是否公正更是重要,不公正科技就会走错方向。指鹿为马则导致秦朝末年的支柱章邯投降。

互联网上有对此次事故报告的报道: https://www.military.com/daily-news/2024/10/31/pilot-of-f-35-crashed-south-carolina-ejected-after-malfunctions-disorientation.html

好像已有十架左右的F-35坠毁。对更近的2024年5月28日坠毁事件,尚未听说调查报告。

笔者研究科学逻辑和智力科学的基础理论。跟计算机和人工智能的人机藕合只是这些理论的一个次要应用,但也很重要。

[ 打印 ]
阅读 ()评论 (0)
评论
目前还没有任何评论
登录后才可评论.