在航空发动机涡轮盘、骨科人工关节等高端制造领域,3D打印(激光粉末床熔融,LPBF)技术能“长”出传统工艺做不出的复杂钛合金(Ti6Al4V)零件。但工程师们有个共同烦恼:激光功率、扫描速度等参数稍微调错一点,零件内部就可能出现气孔、裂纹,力学性能直接“跳水”。过去只能靠“试错法”——打印64组试样,每组都要打磨、拉伸测试,耗时又费钱;用AI预测吧,单一模型总“偏科”:有的擅长复杂关系却“死记硬背”,有的适合简单关系却抓不住隐藏规律。

近日,我国华南理工大学团队在《Frontiers of Mechanical Engineering》发表论文,给出了“AI天团”解决方案——用“堆叠集成学习”让多个AI模型“组队”预测,把3D打印钛合金的抗拉强度预测误差降到了2.51%,相当于“看参数就能算出性能”,给工程师省了大量实验成本。

3D打印钛合金的“参数迷宫”
钛合金Ti6Al4V是出了名的“全能选手”:轻但强度高,耐腐蚀性好,还能和人体骨骼“友好相处”,所以在航空、医疗领域用得特别多。但用LPBF技术打印时,它的性能特别“敏感”——激光功率(200-410瓦)、扫描速度(800-2200毫米/秒)、扫描间距(0.11-0.16毫米)这三个参数稍微一变,熔池的温度、冷却速度就跟着变,零件内部可能出现气孔或裂纹,最终抗拉强度能差出100多兆帕。

过去,工程师只能靠“暴力实验”找最优参数:打印64组试样,每组用不同参数,再逐一测抗拉强度。但这种方法像“大海捞针”——64组实验要花几个月,材料、设备成本更是“烧钱”。

多个AI“专家”组队,预测更稳更准
团队想到了“AI天团”策略——用“堆叠集成学习”让多个AI模型“组队”。简单说,就像找不同领域的医生会诊:先让人工神经网络(ANN,擅长复杂非线性关系)、梯度提升回归(GBR,能抓参数间隐藏关联)、核岭回归(KRR,适合非线性任务)、弹性网络(ENet,控制模型复杂度)这四个“基础模型”各自分析数据,再让Lasso模型当“最终决策者”,综合它们的预测结果。

团队用64组实验数据(涵盖不同参数下的抗拉强度)训练这个“天团”,还通过贝叶斯优化调整模型参数。效果如何?测试数据显示,堆叠模型的预测准确度(R²)达到0.944(越接近1越准),平均绝对百分比误差仅2.51%,均方根误差27.64。而传统神经网络(ANN)的R²只有0.840,误差36.19,其他单一模型更差——比如弹性网络(ENet)的R²才0.397,误差近80。

从“实验室”到“车间”的关键一步
更厉害的是,堆叠模型不仅准,还“抗揍”。比如,当扫描速度从800提到2200毫米/秒时,它能准确算出抗拉强度会下降;而传统神经网络在测试时经常“低估”强度值,误差范围更大。团队分析发现,扫描速度对强度影响最大(相关系数-0.59),其次是激光功率(0.41),扫描间距影响最小(-0.36),这为工程师调参数提供了明确方向。

这项技术的应用场景很广:未来,工程师输入激光功率、扫描速度等参数,AI就能“秒算”零件的抗拉强度,不用再打印试样;还能集成到3D打印机的实时监控系统里,边打印边预测,发现参数不对立刻调整,减少废品率。

论文作者表示,下一步计划扩大数据集,探索堆叠模型在更复杂钛合金结构(比如多孔骨植入体)中的应用。或许不久的将来,航空发动机的关键钛合金零件,就能在AI的“精准指挥”下,又快又好地“生长”出来。

来源: FME机械工程前沿