在繁忙的商业街上,行人总能默契地避开迎面而来的路人,或是在人群中保持与同伴的步调一致。这种看似简单的行为背后,隐藏着人类对群体动态的复杂预判能力。如今,科学家们通过“群体交互场”(Group Interaction Field, GIF)技术,首次让机器系统拥有了这种“社交直觉”。

群体行为:被忽视的导航密码

传统行人轨迹预测模型往往将每个个体视为独立运动单元,通过分析历史路径推测未来位置。然而现实场景中,超过70%的行人是以家庭、朋友或同事等群体形式出现。清华大学深圳国际研究生院团队发现,群体关系会显著改变行人的移动模式:家庭成员倾向于近距离并行,商务伙伴常保持半臂距离,而游客群体则呈现松散的空间分布。这些微妙差异导致传统模型在密集人群中的预测误差高达1.5米——相当于机器人可能误判行人的安全距离。

研究团队提出的“群体交互场”概念,首次将行人预判分解为两个可量化维度:近域场描绘未来3秒内可能出现的位置概率分布,注意力场则标记视觉焦点方向的变化范围。通过分析数万条真实轨迹数据,系统发现物理接触的群体(如牵手行走)移动轨迹比语言交流群体(如边走边聊)集中度高出40%,而后者注意力方向的变化频率是前者的3倍。

从数据到直觉:机器学习的群体智慧

支撑这项技术的GIFNet神经网络,能够同时处理行人轨迹、视线方向和群体互动状态三类信息。与仅分析位置的传统模型不同,该系统特别关注群体动态:当检测到两人从并排转为面对面时,自动识别为“交流开始”状态,并据此调整预测区域。实验显示,在包含2.1万条轨迹的PANDA数据集上,该系统预测未来位置的误差比现有最优模型降低17%,注意力方向误差减少21%。

更具突破性的是,模型揭示了群体互动的隐藏规律:物理接触的群体成员间平均距离为0.8米,视线交汇频率每分钟约12次;而语言交流群体即便保持1.2米距离,视线交汇频率可达每分钟25次。这些发现为机器人路径规划提供了精细化的社交参照。

从实验室到街头:智能系统的社交进化

研究团队将这项技术应用于机器人导航测试。与传统避障算法相比,搭载群体交互场系统的机器人在穿过10人群体时,路径效率提升35%,行人被迫改变行走方向的次数减少62%。在模拟场景中,机器人能准确识别家庭群体(间距<1米)并保持绕行,而对松散游客群体则选择高效穿行。

这种“社交感知”能力正在拓展应用边界:在机场导航机器人上,系统可根据旅客视线方向调整服务路径;在智能仓储场景,AGV小车能预判工人小组的移动趋势,避免打断工作流程。研究负责人方璐教授指出:“就像人类通过微妙的身体语言沟通,未来机器也需要理解群体行为的‘社交语法’。”

机器与人群:共处之道的技术启示

随着城市人口密度持续增加,这项研究为智能设备的群体适应性提供了新思路。当无人配送车能预判放学儿童群的奔跑方向,当服务机器人可以识别商务会议的动态阵型,人机共处的安全性与舒适度将发生质的飞跃。这不仅是技术的进步,更是机器理解人类社交本质的重要跨越——在数字时代重构“人群智慧”的科技表达。

研究团队透露,正与多家智能设备厂商合作,计划在2024年内开展公共场景实地测试。当机器真正读懂人群的“集体舞蹈”,城市空间的智能革命或将开启新的篇章。

来源: Engineering