在航空发动机涡轮盘、骨科植入体等高端制造领域,3D打印(激光粉末床熔融,LPBF)技术凭借“按需成型”的优势,让复杂钛合金(Ti6Al4V)零件的生产变得高效。但有个关键难题始终困扰工程师——激光功率、扫描速度等工艺参数稍有偏差,零件可能出现气孔、裂纹,力学性能大幅下降。而传统试错法成本高、周期长,单一AI模型预测又总“翻车”。近日,我国华南理工大学团队在《Frontiers of Mechanical Engineering》发表论文,提出一种“堆叠模型”AI算法,让3D打印钛合金的性能预测误差降到2.51%,为高效优化工艺参数提供了“数字助手”。
3D打印钛合金的“参数黑箱”
钛合金Ti6Al4V因“轻而强”“抗腐蚀”,是航空航天、医疗植入体的“明星材料”。但用LPBF技术打印时,激光功率(200-410瓦)、扫描速度(800-2200毫米/秒)、扫描间距(0.11-0.16毫米)等参数的微小变化,都会影响熔池形态,进而导致零件内部出现气孔或裂纹,最终影响抗拉强度。过去,工程师只能通过反复实验“试参数”——打印64组试样,每组都要打磨、拉伸测试,耗时耗力。
近年来,AI被引入解决这一问题,但单一模型(如神经网络)常因“偏科”表现不稳定:有的擅长捕捉复杂非线性关系,却容易“过拟合”(死记硬背训练数据);有的适合线性关系,却抓不住参数间的隐藏关联。如何让AI更“聪明”?团队想到了“模型叠buff”——用“堆叠集成学习”,让多个AI模型“组队”预测。
多个AI“专家”组队,预测更稳更准
所谓“堆叠模型”,就像找不同领域的专家会诊:先让人工神经网络(ANN)、梯度提升回归(GBR)、核岭回归(KRR)、弹性网络(ENet)这四个“基础模型”各自分析数据,再让Lasso模型当“最终决策者”,综合它们的预测结果。这种方法能取长补短——比如ANN擅长处理复杂非线性关系,KRR适合非线性任务,GBR能捕捉参数间的细微关联,ENet则能控制模型复杂度。
团队用64组LPBF打印的Ti6Al4V试样数据训练模型(涵盖不同激光功率、扫描速度、扫描间距下的抗拉强度),并通过贝叶斯优化调整参数。结果发现,“堆叠模型”的预测表现远超单个模型:测试集上,它的决定系数(R²)达0.944(越接近1越准),平均绝对百分比误差仅2.51%,均方根误差27.64,各项指标全面超越传统神经网络(R² 0.840,误差36.19)。
从“实验室”到“车间”的关键一步
实验验证显示,堆叠模型不仅预测准,还更稳定。比如,当激光功率和扫描速度变化时,它能更准确捕捉到两者对钛合金强度的协同影响;而传统神经网络在测试集上常“低估”强度值,误差范围更大。团队进一步分析发现,扫描速度对强度影响最大(相关系数-0.59),其次是激光功率(0.41),扫描间距影响最小(-0.36)。
这项技术的价值在于,工程师只需输入工艺参数,AI就能快速“算出”零件的抗拉强度,避免大量试错实验。未来,它还能集成到3D打印机的实时监控系统中,边打印边预测,及时调整参数,减少废品率。
论文作者表示,下一步将扩大数据集,探索堆叠模型在更复杂钛合金结构(如多孔植入体)中的应用,让3D打印从“能造”走向“精准造”。或许不久的将来,航空发动机的关键钛合金零件,就能在AI的“精准指挥”下,又快又好地“生长”出来。
来源: FME机械工程前沿