场景即优势——“人工智能赋能百行千业的标准化”圆桌交流报告

场景即优势——“人工智能赋能百行千业的标准化”圆桌交流报告

2025-11-12

会议元数据

名称: 2025 CEIC 创新·标准化交流会 — “人工智能赋能百行千业的标准化”圆桌
日期: 2025年11月7日
地点: 中国深圳·福田国际会展中心牡丹厅
主办单位: 2025消费电子创新大会(CEIC)组委会、共熵产业与标准创新服务中心(Comentropy)
支持单位: 中国标准化研究院
会议规模: 200余位国内外标准化专家、学者及行业领袖

圆桌主持人:

李力 | 华为技术有限公司首席标准科学家

圆桌嘉宾:

  • 杨涛 | 共熵产业与标准创新服务中心 副理事长
  • 甘克勤 | 中国标准化研究院高新技术标准化研究所 副所长
  • 陈曦 | 上海人工智能研究院 标准主管
  • 廖芳莉 | 腾讯公司 战略传播总监
  • 沈芷月 | 中国电子技术标准化研究院 高级工程师

圆桌摘要

本次圆桌召开于全球AI标准化关键时刻:斯坦福《2025 AI指数报告》显示算力需求激增,ISO/IEC/ITU联合举办首届国际AI标准峰会,中国DeepSeek等创新成果重塑竞争格局。论坛聚焦“AI赋能百行千业的标准化”这一超级复杂命题,六位来自产学研政的专家展开深度对话。

核心发现

1 战略定位差异:全球AI发展呈现美国(资本驱动)、欧洲(治理优先)、中国(场景驱动)三种路径,标准化策略必须匹配各自价值取向。

2 应用优先原则:中国AI标准化应聚焦丰富应用场景这一独特优势,避免美国式重资产陷阱,在千行百业的实际需求中提炼标准。

3 技术突破领域:具身智能标准化面临动态稳定性、灵巧操作、高质量数据集三大挑战,中国正在ISO等国际组织中积极贡献中国方案。

4 伦理底线共识:工作替代是压倒一切的AI伦理问题,但专家认为AI促进人类工作方式进化而非简单失业,需顶层设计配套生产关系变革。

5 国际合作空间:标准是突破地缘政治封锁的有效工具,产业界在AI技术标准层面的沟通没有障碍,应大胆推进国际标准互认。

6 下一代基础设施:智能体通信协议(A2A/MCP)是战略制高点,中国需解决被忽视的“身份识别”缺陷,避免重蹈互联网协议被动局面。

7 预标准研究紧迫性:技术突破必须同步开展预标准研究,否则即使技术领先也会在生态和市场层面失去主导权。

专家共识

  • 真正需要标准化的只占5%,95%应保留创新空间
  • 国家层面需建立跨部委AI标准化协同机制
  • 加速制定智能体通信的中国标准,突破身份识别技术瓶颈
  • 推动AI伦理从抽象讨论转化为可量化、可嵌入产品的技术标准
  • 扩大标准外文版发布,将标准作为技术外交和产业出海的桥梁

1. 全球AI标准化格局分析

1.1 三种发展路径的战略对比
李力基于在欧洲的常驻经验,揭示全球AI发展的三种典型路径:

美国:资本驱动 + 前沿突破

  • 聚焦AGI(通用人工智能)和ASI(超级智能)
  • 通过“星际之门”项目声称占据全球40%算力市场
  • 以资本为中心,让资本家主导发展方向
  • 战略缺陷:围绕重资产投资和限制竞争对手,结构脆弱

欧洲:治理优先 + 审慎推进

  • 率先推出《AI法案》,对高风险AI严格监管
  • 建设“AI超级工厂”等基础设施
  • 应用困境:因担忧工会反对和失业问题,实际应用极度保守

中国:场景驱动 + 规模应用

  • 将几乎全部注意力放在应用层面
  • 14亿人口产生的多元需求形成全球最丰富应用场景
  • 快速推进千行百业AI赋能

廖芳莉(腾讯):

中国AI发展最独特的优势是场景极其丰富。不管是toB的行业场景,还是C端从工作到学习到娱乐的应用场景,这是美国算力优势和欧洲治理优势无法比拟的。

1.2 中国AI标准化战略定位

专家形成共识:中国AI标准化必须服务于“场景驱动的规模应用”这一战略选择,避免被美国的重资产、欧洲的过度监管带偏。

李力(华为):

美国战略有两个缺陷:一是围着资本转,追求重资产投入;二是通过限制别人来发展自己。真正的AI不一定需要重资产,也不一定要追求AGI。针对具体场景,一个普通AI就能解决问题,我们应围绕实际应用和效益考虑AI,而非以资本为中心。

2. 核心技术领域的标准化实践

2.1 具身智能:从实验室到工厂的“最后一厘米”

上海人工智能研究院陈曦团队参与ISO TC299国际机器人标委会标准制定,识别出具身智能标准化的三大核心挑战:

挑战一:动态稳定性与安全保障

问题定义:具身智能在非结构化环境中如何应对失稳、部件失效等不可预测状况?

中国方案:在ISO TC299 WG12(工业移动机器人动态稳定安全要求工作组)中,中国专家提出围绕双足人形机器人动态稳定的独特安全要求,包括上下肢协同安全、交互碰撞安全、部件失效安全等,防止对自身或环境造成伤害。

国际反响:美国、韩国、欧洲专家对中国提案表示认同,欢迎中国持续贡献。

陈曦(上海AI研究院):

具身智能需满足的不仅是传统机器人的机械安全、电气安全、功能安全,还要在不可控环境下对失稳、固件失效、人机密切接触进行风险防控。这些“守底线”的技术要求是具身智能从实验室走向工厂应用的安全通行证。

挑战二:灵巧手精细操作能力

战略意义:正如人类文明发展离不开手对工具的使用,具身智能“能干活”的最后一厘米在于手的精细化操作。

标准成果:上海AI研究院正牵头制定中国首个灵巧手技术规范行业标准,规定:

  • 手的分类体系(仿生类、连杆类等)
  • 核心技术指标(指尖力、指腹力、关节速度/角度、定位精度)
  • 标准测试方法(标准物体的尺寸、材质定义)
  • 作业基准(明确精细化操作能力的最低门槛)

挑战三:高质量训练数据集

核心困境:具身智能面临“鸡生蛋、蛋生鸡”的死循环。没有机器人就没有数据,没有数据就训练不出智能,训练不出智能就造不出好机器人。

问题复杂性:

  • 与大语言模型不同,具身智能的动作数据对硬件平台高度依赖
  • 角度、接触面积的细微变化导致数据完全不同
  • 现有开源数据集绑定特定硬件平台,不同厂商无法通用

中国倡议:2025年6月ISO TC299年会上,中国提议牵头成立“人形机器人数据集工作组”,建立统一的数据质量评价规范和共享机制。

国际博弈:美国专家质疑:“已有开源数据集,为何还要做国际标准?”中国专家回应,开源数据集有门槛,标准化才能让更多厂商受益,加速具身智能发展。

陈曦:

中国需要做这件事,一是把优秀经验推广到其他国家,二是让中国的发展成果惠及更多人。除国际标准外,我们也在牵头国家标准《人形机器人数据集》系列标准。”

2.2 未来挑战:软体机器人的理论与数据困境

李力追问:

当前刚性机器人理论成熟,标准化相对容易。但面向不确定环境的柔性/软体机器人,其运动空间理论尚未成熟,数据问题更加严峻。这是未来5-10年最大的挑战,需要研究机构更多投入。

3. 行业应用标准化的价值与边界

3.1 医疗AI:技术能力与责任边界的平衡

廖芳莉分享腾讯与迈瑞医疗合作开发ICU垂直大模型的实践,揭示行业应用标准化的三层复杂性:

技术层:不同医院CT机器品牌/型号不同,读片数据存在差异,大模型必须充分考虑设备生态的异构性

数据层:病历书写带有医生个人职业习惯,需推进病历标准化以提升大模型准确性

责任层:医生担忧AI误诊的责任归属(最后签字的是医生),技术可行性与法律责任机制之间存在鸿沟

廖芳莉(腾讯):

进入具体行业场景时,不仅要考虑技术上的可实现、可解释,还要考虑行业本身的特定属性。医疗从业者对AI工具的接受度比前几年高了很多,但仍有合理顾虑,标准化需在技术标准和行业规则之间找到平衡点。

3.2 标准化的“5%原则”

论坛形成重要共识:过度标准化会伤害创新和多元化。

李力(华为):

任何产品或服务需要标准化的,在整个知识领域里只占5%以下,95%都不需要。标准化的初心很简单,促成最佳实践和成功经验的规模应用。不要为了标准而标准,该创新的创新,该归标准的归标准。

案例启示:廖芳莉讲述深圳水贝珠宝商用AI工具链构建个人工作流的案例。大量中小企业、自由职业者、个体户的需求是“非标”的,标准化要考虑这些经济活跃群体,而非强推标准。

4. 伦理与社会影响的标准化路径

4.1 工作替代:压倒一切的伦理问题

一个真实场景引发了深度讨论。CEIC大会期间有领导看到现场的专业同传,提问“为什么不用AI翻译?”这个细节折射出AI伦理讨论中最核心但最难回答的问题。

李力(华为):

我看了很多AI伦理问题清单,工作替代可能是压倒一切的问题,其重要性超过所有其他伦理问题的总和。这涉及政策层面的决策:标准化会促进AI规模应用,进而可能导致大规模失业(比如1000个岗位)。政策上是否允许?欧洲的保守态度正是源于此。

4.2 从“失业威胁”到“工作进化”的认知转变

专家们对AI与就业的关系形成了更深刻的理解:

杨涛(共熵):

5年内一定会有翻天覆地的变化,失业率可能越来越高。但这引发终极哲学问题:人工作是为了工作,还是为了不工作?如果机器把活都干完了,我们躺平好还是不好?人类会由此走向灭亡还是走向繁荣?

李力(华为):

90%的工作是高度重复性的,不创造真正价值。AI帮我们从这些重复劳动中解放出来,让我们去做更有创造性的工作。历史上贵族不需要为生活担忧时,才有余力从事艺术、哲学等创造性工作。AI促成的不是失业,而是人类工作方式的进化。

陈曦(上海AI研究院):

物流分拣是特别枯燥、让人产生职业伤害的工作。用机器人替代后,这些工人可以转向训练机器人,成为具身智能的“教练”。新技术可能让一些人失去旧工作,但一定会创造更多新就业机会。

4.3 伦理标准化的实践路径

核心挑战:如何将AI伦理从抽象讨论转化为可嵌入产品的技术标准?

廖芳莉(腾讯):

伦理问题落到具体产品层面,怎么成为一个可嵌入AI产品的通用标准,而且这个标准是有共识的,不仅腾讯这么做,华为这么做,其他公司也认同?这才能让AI伦理真正落地,否则伦理讨论就永远是讨论。

中国实践 | 沈芷月(电子标准院):

  1. 安全标准(已落地):发布首项AI强制性国家标准(网络安全技术 人工智能生成合成内容标识方法)
  2. 伦理探索:
    • 成立国家人工智能标准化总体组治理专题组(北京大学任组长)
    • 发布《人工智能科技伦理及审查评估研究报告》中英文版,提出“以人为本,智能向善”原则
    • 核心要求:AI发展不能影响人类任何一项基本权利
    • 下一步将把伦理审查办法提炼为国家标准

5. 数据主权与国际合作

5..1 简中数据的“沧海一粟”困境

廖芳莉(腾讯):

简中互联网数据虽然是14亿人产生的,量很大,但放在全球70亿人的英文数据流中,还是沧海一粟。这会成为算力之后的第二个瓶颈。

数据复杂性分析 | 甘克勤(中标院):

  • 早期大模型(Llama等)训练数据89-92%为英文
  • 出海面对小语种国家,数据从何而来?
  • 涉及数据跨境流动、主权风险等敏感问题

李力(华为):

AI时代英文数据的问题反而不是问题,因为AI可以翻译,核心是提取信息想表达的语义。真正的问题是数据流通管制和版权。

5.2 标准化突破地缘政治封锁

战略价值:电子标准院在2025年进博会期间发布大模型系列国家标准外文版(英语、老挝语、缅甸语等),填补东盟国家大模型标准缺失,为中国优秀的AI技术出海搭建桥梁。

李力(华为):

基于在欧洲的经验,不管政治化多严重,产业界专家讨论AI标准化是没有障碍的。标准是世界通用语言,是开放的,是突破地缘政治封锁的最佳手段。西方政客喊的“价值观”差异,拆开来看大部分是空的。落到最基础的伦理和技术问题,全人类其实是一致的。

5.3 国内协同的紧迫性

杨涛(共熵):

无论国内还是国际,协同都太重要。国内不同部委背景的机构要先完成协同,不能因部门隔阂各干各的。在数据这种高度敏感领域,需要“全国一盘棋”的规划。数据作为生产要素,高质量数据的协同至关重要。

6. 下一代基础设施:智能体协议的战略竞争

6.1 A2A协议:被忽视的“天网”前夜

2025年谷歌发布A2A(Agent-to-Agent)协议并捐赠给Linux基金会,被认为是下一代智能体间通信的基础设施规范。

杨涛(共熵):

2017年在硅谷参加谷歌开发者大会时我就预见到这个趋势。《终结者》里的天网概念本质就是这个。单个机器人不可怕,可怕的是智能体网络形成的那一天。这方面的研究一定要加快,而且要提前布局。我们已经晚了。

历史类比:互联网早期有上百个协议竞争,最终TCP/IP以其优雅性和开放性胜出。智能体协议的竞争同样关乎谁掌握下一代互联网话语权

6.2 核心缺陷:身份识别问题

李力(华为):

A2A和MCP两个协议都有致命缺陷:没有解决智能体的“身份识别”问题(注意不是ID,ID不等于身份)。中国对互联网的管制是“不能成为法外之地”,而美国的技术和政策倾向于让互联网去中心化、匿名化。如果中国能解决身份识别问题,就在智能体协议上前进了一大步。

技术参考:建议借鉴欧盟EDIR(European Digital Identity Regulation)法规,这是eIDAS的演进,设计很完善,可为中国特色智能体通信协议提供灵感。

6.3 中国的标准化布局

沈芷月(电子标准院):

我们院已经在牵头制定智能体互联系列国家标准,包含总体架构、智能体身份码、智能体身份管理、智能体描述、发现、交互等方向。今年联合产学研各界智能体厂商共同研制,欢迎大家积极参编。

甘克勤(中标院):

为什么中国没有率先形成自己的智能体标准化协议?在技术突破的同时,必须同步开展预标准研究。比如突破光刻机等卡脖子技术后,如果别人同步突破并抢先占领标准和生态,我们的技术突破就失去了意义

7. 标准化工作的未来形态

7.1 从文本标准到生态标准

甘克勤(中标院):

标准形态正在演变为三种类型:

  1. 传统SDO标准(标准化组织发布的协商一致文件)
  2. 开源社区标准(事实标准,如GitHub生态)
  3. 新形态标准(数据集、平台等)

AI时代的标准化不仅是写标准文本,而是构建包括标准、开源、数据集在内的完整生态,才能真正促成规模应用。

7.2 AI为自己制定标准?

杨涛(共熵):

我们这个小机构虽然经费有限,但用四个开源大模型研究全球标准文档,已经给我们带来巨大震撼。有领导曾问“能不能用AI制定新标准?”我们认为非常有可能,以后写标准的可能不是工程师,而是AI,甚至AI为自身制定标准。

效率革命:

  • 过去工程师需要两周完成的标准研究,现在AI 20分钟完成
  • 20多年未写代码的专家,借助AI在工程师搭环境1小时后,5分钟写出网站代码

7.3 “改造自己,改造同行”的标准化路径

甘克勤(中标院):

中标院在AI赋能标准化方面的路径:

  1. 改造自己:解决标准数字化过程中,正确的OCR、知识图谱构建、标准指标抽取等难题,大模型使得原本复杂的工作变得简单
  2. 改造同行:将最佳实践分享给兄弟单位,形成可复制的方案
  3. 推广到相关领域:科技文献、专利等领域同样面临知识图谱构建的需求,都能借鉴这套方法

怎么用标准化手段赋能百行千业?不一定是强制性的“你必须这么做”,可以让最佳实践进行扩散。如果涉及伦理、安全等强需求,再进行较强的标准约束。

8. 关键发现与战略思考

8.1 七个核心洞察

1. 标准化的“5%原则”
真正需要标准化的只占5%,95%应保留创新空间。标准化的初心是促成最佳实践的规模应用,不要为标准而标准。

2. AI的“松弛感”价值
AI将我们从重复性工作中解放,带来的“松弛感”让我们有余力做创造性工作。这不是威胁,而是人类工作方式的进化。

3. 场景是中国核心优势
14亿人口产生的丰富应用场景,是中国发展AI最独特的优势,这是美国的算力和欧洲的治理都无法比拟的。

4. 工作替代是压倒一切的伦理问题
所有AI伦理问题中,工作替代的重要性超过其他问题的总和,这涉及生产关系的根本变革,需要国家层面顶层设计。

5. 预标准研究刻不容缓
技术突破必须同步开展预标准研究,否则即使技术领先也会在生态和市场层面失去主导权。

6. 智能体协议的身份识别是关键
A2A等协议的核心缺陷是未解决身份识别问题,中国如能突破这一点,将在下一代互联网基础设施上占据主动。

7. 中国AI要走务实应用之路
不要被美国的重资产、资本驱动模式带偏。真正的AI应该平民化,针对具体场景解决实际问题,而非盲目追求AGI。

8.2 讨论中浮现的战略方向

基于专家的深度对话,以下战略方向值得持续关注:

跨部委协同机制
打破数据孤岛和工作隔阂,建立“全国一盘棋”的数据要素协同机制,统筹AI标准化顶层设计与伦理治理。

智能体通信标准
突破A2A/MCP协议的身份识别技术瓶颈,参考欧盟eIDAS法规,制定符合中国互联网治理要求的标准,在国际标准组织中积极推动中国方案。

预标准研究同步
技术研发同步开展预标准研究,避免“技术突破、标准失守、生态被占”的战略风险,加强标准外文版发布,将标准作为技术外交和产业出海桥梁。

伦理标准可量化
将伦理审查办法转化为具体技术标准,建立可嵌入产品的伦理评估指标体系,促进产学研政在伦理标准上的共识形成。

应用场景提炼
避免美国式重资产投资和欧洲式过度监管,从千行百业的实际需求中提炼标准,坚持“边探索、边应用、边发现问题、边沉淀经验”的动态标准化路径。

生态协同作用
发挥中立第三方机构在标准体系顶层设计、领域协同中的优势,推动开源社区、数据集等新形态标准的探索,搭建产学研政多方参与的开放式研讨平台。

9. 结论

9.1 在不确定中寻找确定

本次圆桌在AI标准化这一“超级复杂命题”上达成重要共识:AI时代的标准化工作不应是自上而下的僵化规则,而应是边探索、边应用、边发现问题、边沉淀经验的动态过程。它需要在创新与规范、开放与安全、全球化与本地化之间找到平衡。

中国的机遇在于三个独特优势:

  • 最丰富的应用场景 (14亿人口的多元需求)
  • 最务实的发展路径 (场景驱动而非资本驱动)
  • 最开放的合作姿态 (标准突破地缘政治封锁)

李力总结:

如果中国能在标准化的5%和创新的95%之间把握好分寸,在技术追赶和规则制定之间实现同步,就有可能在AI时代走出一条不同于美欧的第三条道路。一条既高效又普惠,既创新又可控,既面向未来又守护人类福祉的道路。

9.2 焦虑与希望的辩证

论坛中最真实的时刻,或许是杨涛坦承的那份焦虑:

杨涛(共熵):

昨天晚上我只睡了3个小时,因为这个题目真的很难讨论。我甚至有点自责,我在讨论这个问题时,担心我们在标准化的讨论加速了人工智能发展,加速了人工智能发展之后导致人类失业,导致大家产生不可知。我可能想多了,但这就是趋势,如果李力问我什么是趋势,我可以非常肯定地说,这是在我们肯定可见的有生之年,会对整个世界带来巨大的影响和变化,这就是趋势。

但正是这种焦虑感,驱动着这些专业人士去认真思考技术与社会的关系。李力给出了更乐观的视角:

李力(华为):

如果AI带来的是焦虑,那我们宁愿不要AI。90%的工作其实是重复性的,不创造真正价值。重要的不是AI取不取代人,而是人的生活方式和工作方式要发生改变。我们要把更多精力放在发挥创造性的作用上。AI给我们的松弛感是有价值的,它促成了人本身的进化。我们太多的人工作在操作层面,从日常操作解放出来之后,每个人都有机会具备决策能力、战略思维。前途一定是光明的,所以大家不要焦虑。

最终,两种视角汇聚成一个共识:未来充满不确定性,但方向已经越来越清晰。这不是技术乐观主义,而是基于中国独特优势的理性判断。

本报告版权归2025 CEIC组委会与共熵产业与标准创新服务中心所有。欢迎在标注出处的前提下引用和传播。

如果对此话题感兴趣,
  欢迎扫码加入 “共熵大家庭”,
  共同推动产业与标准进步!