现实中训练AI控制战斗机的步骤:新算法开发模型-海量历史数据-足够高的验证准确率-仿真软件测试和动画展示(动画可选)-小型航空器部署-演练收集实战数据-微调模型-再次演练-再次微调-和别的模型比拼性能-满足实战指标后评估验收-入列-确定实战方案
数据集链接开源如下:
XXXXXXXXXXXXXXXXXXXXXXXXXX/datasetdetail/90970
战斗机飞行路径数据集分为1个训练标签和8个训练输入,可以被用作训练AI完成无人机的路径规划任务
战斗机的姿态数据集分为13个文件,每个文件各自表示战斗机在不同时刻的姿态对应的运动学物理量(坐标、角度)取值集合
数据集文件最终转换为csv文件,大小合计约20MB,无法应用于实际的军事作战(应用于实际的军事作战必须学习海量的历史数据,GB级别起步)。
AI模型被命名为“冯如523”,为纪念历史上的航空先驱冯如(1884-1912);在本人发布的PythonDPG算法的文章中,本人提出了P蛇模型(Python-Model),用于完成工业产品(外壳)自动化设计任务,但PythonDPG算法的“奖励机制”需要进一步改进和完善,算法整体的框架需要修改。
冯如523模型仍然遵循PythonDPG算法的思路,嵌套多层神经网络搭建轻量级别模型,不设置奖励机制。和Transformer算法不同,冯如523模型不包含自注意力机制和前馈神经网络机制,因此在训练时容易出现不稳定的现象(梯度爆炸),网络中间层数不宜设置过高,后续仍然需要就“奖励机制”的问题实施改进。
代码当中分为Actor编码器和Critic解码器,对应的XXXXh和XXXXh;PythonDPG算法会借鉴强化学习领域的DDPG算法,利用奖励机制来让人工神经网络自发地朝向系统最优的方向训练,但很可惜,算法原始版本的预印本论文尚未设置合适的流程,让奖励机制充分发挥作用,因而算法以及基于算法的模型无法展现“强化大模型”的优势。
附件中的代码使用MSE损失函数,MSE损失值为0.06,准确率可以近似看成是94%,但由于学习的战斗机历史数据量较小,因此不适合在战斗机上实际部署用于实战任务,只能通过扩充训练数据,训练更强的AI模型,并充分利用“UE5”等渲染软件实现性能提升。
[修改于 4个月14天前 - 2024/07/12 22:00:35]
现实中训练AI控制战斗机的步骤:新算法开发模型-海量历史数据-足够高的验证准确率-仿真软件测试和动画展示(动画可选)-小型航空器部署-演练收集实战数据-微调模型-再次演练-再次微调-和别的模型比拼性能-满足实战指标后评估验收-入列-确定实战方案
PythonDPG算法本身有很大的问题,算法应该重新设计,基于算法的AI模型训练没有较好地融合强化学习的奖励机制,不能算作是论文定义下的“强化大模型”。
时段 | 个数 |
---|---|
{{f.startingTime}}点 - {{f.endTime}}点 | {{f.fileCount}} |
200字以内,仅用于支线交流,主线讨论请采用回复功能。