业界普遍认为,这种智能体2025年将变得更加普及,且能处理更复杂的任务,将人类从一些重复且琐碎的工作中解放出来。德勤公司发布的《2025年技术趋势》报告预测,智能体很快将能支持供应链经理、软件开发人员、金融分析师等人员的工作。
智能体还可结合物理实体,形成“具身智能”,如自动驾驶汽车、具身智能机器人等。美国国际数据公司负责人工智能领域的高管丽图·乔蒂认为,智能体未来有望全面革新自动驾驶领域。美国特斯拉公司研发的人形机器人“擎天柱”已可在工厂行走、分拣电池,还能以接近人类的灵活度用单手稳稳接住迎面抛来的网球,有望在2025年实现小批量生产并投入使用。
“规模定律”受考验,多重挑战需应对
大模型过去一段时间的快速发展符合“规模定律”,即大模型的性能随着模型参数、训练数据量和计算量的增加而线性提高。但近来不断有迹象显示,由于训练数据即将耗尽、更大规模训练的能耗和成本激增等因素,“规模定律”可能难以延续。
因此有研究者提出“密度定律”,指AI模型的能力密度随时间呈指数级增长。北京面壁智能科技有限责任公司联合创始人兼执行总裁李大海说,现在越来越多的企业更注重AI算法的调优,同样的模型能力可被放到一个更小的参数规模里,表明模型的能力密度不断增强。“炼大模型,不如炼优模型”。
微软开发的Phi模型等一系列小模型已显示,管理较小但高质量的数据集可以提高模型的性能和推理能力。中国深度求索公司2024年12月底发布混合专家模型DeepSeek-V3。测试结果显示,与某些性能相当的国际知名大模型相比,成本低了一个数量级。业内人士预测,小模型的吸引力可能在2025年大幅增高。
发展AI的能源挑战也备受关注。由于训练最新的大模型耗能巨大,微软、谷歌、亚马逊等科技巨头已将目光瞄向核能。
AI的快速发展还伴随着安全、治理、版权、伦理等方面的新风险。例如多模态功能的拓展,使虚假信息的内容形态更加多元,也更难被普通人所辨别;智能体自主性的提高,会带来其目标与人类意图不一致或产生意外行为的风险。
为应对这些风险和挑战,全球多国已从政策法规、技术标准、行业自律等多个维度加强AI治理。2025年,国际社会将举办人工智能行动峰会等多场相关活动,共议AI发展前景与规范。