人工智能(AI)技术快速发展,赋能各行各业,也带来难以预知的风险。如何平衡人工智能的应用与治理,是博鳌亚洲论坛2025年年会上与会人士热议的话题。
人工智能的推广应用与加强监管并不矛盾。专家认为,AI从信息智能到物理智能再到生物智能,风险会增加很多倍。与此同时,当人工智能大模型的安全性提升20%至30%,对其本身的求解能力几乎没有影响。
中国人工智能大模型的陆续发布改变了全球人工智能的版图,并以其低成本和开放性促进了人工智能在全球的更公平应用,更多中小企业加入进来分享人工智能红利,也丰富了人工智能应用场景。各国与会人士有一个共识,就是推进人工智能的全球治理需要中国发挥重要作用。
AI需要通过大量数据学习来提升能力。数据越多,数据的质量越高,系统的能力就越强,未来出现“幻觉”和推理谬误的可能性就越小。中国庞大的制造业体系和巨大的消费市场为人工智能提供了用武之地,既提升了规模化生产效率,又促进了个性化需求满足。
当前,全球标准化的数据服务商数量相对较少,很多大模型获取的数据量虽然很大,但质量较低。如何构建一个完善而成熟的数据市场,是人工智能发展面临的迫切问题。中国正在统筹开展数据领域规划编制工作,致力于培育全国一体化数据市场,这将为人工智能的高质量应用奠定基础。
算法透明化是监管人工智能的又一关键环节。对用户而言,既要得到答案,又要知道这个答案的求解之道。例如,在交通和医疗领域,人工智能的推理偏差直接关系人们的生命安全和健康安全。在教育领域,算法的偏颇会影响教育体系的效能。因此,针对不同应用领域,需要建立风险等级测试评估体系,分类分级管理,快速有效响应。对人工智能技术研发企业而言,要保持人工智能的可解释性和可预测性。
目前世界上一些欠发达国家和地区没有广泛使用互联网,人工智能时代的来临使得数字鸿沟变成智能鸿沟。弥补智能鸿沟,需要人工智能发展走在前列的国家探索共通标准,通过对话与合作,在充分尊重各国政策和实践差异性基础上,推动各利益相关方积极参与,在国际人工智能治理领域形成广泛共识。
确保人工智能始终处于人类控制下是论坛年会与会人士的共识。不论人工智能如何发展,“不能自我复制”等红线是永远不能突破的。人工智能的创新要遵守现有的版权、专利、技术等制度设计,而不能置身于人类社会的伦理系统之外。只有将人类的道德价值投射到人工智能领域,才能确保其始终朝着有利于人类文明进步的方向发展。(刘 亮)
来源:新华网