陈兵 广开首席产业研究院 首席产业研究员
摘 要
美国是全球人工智能领域的领头羊,2024年在多领域取得蓬勃发展。一是大语言模型开启新范式,Transformer架构朝多模态融合深化、更精准捕捉超长序列数据集依赖关系、轻量化高效化等方向演进,OpenAI的GPT-o1模型转向提升大模型的推理能力。二是美国AI应用开启货币化落地进程,To B场景中的AI广告、AI企业助手和AI数据分析已有成功案例;To C场景中的AI教育和AI编程也取得长足进步。三是受益于大模型赋能,自动驾驶、人形机器人等物理AI的能力进一步提升。
尽管我国在算力上要落后于美国,但DeepSeek融合多种创新技术突破算力瓶颈,引入“多头潜在注意力(MLA)”和“混合专家架构(MoE)”等优化Transformer架构降低算力需求;采取“FP8混合精度训练”和“多偶流水线机制(DualPipe)”提升GPU芯片利用率;使用强化学习技术训练模型推理能力,实现与OpenAI o1模型相当的推理能力,其V3模型仅花费558万美元,便达到与美国顶尖闭源模型相媲美的性能水平,中国大模型正逐步缩小与美国的差距。DeepSeek的成功将多维度深入影响中国人工智能产业发展,打破此前算力资源不足将限制大模型升级迭代的观点,增强中国自主可控发展人工智能的信心;将促进物理AI等智能终端产品的繁荣;低成本进一步普及人工智能服务,最终使AI产业链上下游迎来景气周期。
AI应用市场的竞争是多维度的,包括法律监管、数据资源掌握程度、对用户消费/使用习惯的理解、成本、商业模式等,中国企业有望凭借一个或多个竞争优势在AI应用市场取得较高市场份额。目前,正处于产业前期阶段,中国人工智能市场竞争格局变数较大,DeepSeek、Kimi、字节豆包和文心一言在通用大模型市场处于领先;华为、小鹏和百度等在中国自动驾驶市场处于领先地位。
2025年中国人工智能产业可能有三个发展趋势。第一个趋势是AI智能体将逐步成熟。目前,AI智能体面临可信、可解释性不足等挑战,限制了在医疗诊断、司法判定和金融风控等领域的落地,提高可解释性将是未来重点研究方向。我们预计部分To B领域有望率先落地,如电商营销、企业自动化任务执行、智能决策辅助等。但AI智能体在To C场景落地仍需时日,主要因合理的权限设置仍面临挑战,智能体通用性较差,造成产品功能和价值不够突出。第二个趋势是小模型提高人形机器人智能化。在全球范围内,人口老龄化问题日益严峻,国家层面高度重视人形机器人产业发展,多部门协同发力,出台一系列政策推动产业前行,但人形机器人硬件发展快于软件,以DeepSeek为代表的轻量化、高效模型将能更轻松集成到人形机器人硬件平台,提升机器人的环境感知、人机交互和决策推理能力。第三个趋势是地方立法扩大自动驾驶运营空间。根据针对产业专家的调查数据,产业专家们均认为法律监管是自动驾驶推广的主要瓶颈,北京、武汉和广州等城市相继批准自动驾驶政策拓宽运营空间。
目 录
一、人工智能+产业2024年发展回顾.................. 1
(一)美国人工智能+多领域蓬勃发展.................. 1
(二)中国人工智能产业政策成效斐然................. 4
(三)DeepSeek融合多种创新技术,突破算力瓶颈...... 5
(四)中国企业在AI应用市场有比较优势.............. 9
二、中国人工智能+产业2025年展望................. 12
(一)DeepSeek将多维度深入影响人工智能发展....... 12
(二)AI趋势一:AI智能体有望逐步成熟............. 13
(三)AI趋势二:小模型提高人形机器人智能化....... 15
(四)AI趋势三:地方立法扩大自动驾驶运营空间..... 17
正 文
(一)美国人工智能+多领域蓬勃发展
美国在全球人工智能领域处于领头羊地位,回顾分析2024年美国人工智能发展情况,对分析判断中国人工智能产业发展前景具有重要意义。
1.美国大语言模型开启新范式
Transformer架构发展向多维度演进。人工智能深度学习技术从卷积神经网络(CNN)、循环神经网络(RNN)发展到目前的Transformer架构,为解决循环神经网络处理长时序列数据能力的不足,2020年开始引入Transformer架构,创新引入“自注意力机制”,允许进行全局依赖建模,不论任意两个数据位置之间的关系,因此能够处理长序列数据集。时至今日,Transformer架构发展向多维度演进,一是多模态融合深化,OpenAI的GPT-4重点强化多模态融合与复杂推理,不仅能处理文本,还能理解图像信息,实现图文跨模态交互,为视频创作、智能安防、医学影像分析和自动驾驶等领域提供有力支持。二是探索更精准捕捉超长序列数据集的长短期依赖关系,传统Transformer架构对长序列数据集后半部分信息关注度下降,谷歌引入“选择性注意力”机制,在面对长篇幅文本时,能够依据文本的重要性动态分配注意力资源;“无限注意力”技术则融合压缩记忆(Compressive Memory)确保历史信息持续为当前文本理解提供支持,为长篇小说创作、超大规模代码理解等超长序列处理任务提供解决方案。三是向轻量化、高效化迈进,Meta引入“稀疏多头注意力机制”,动态选择对当前任务最具影响力的注意力头,减少不必要的算力消耗,在不损失生成质量的前提下,显著缩短了生成时间,提高了模型的运行效率。
大语言模型从预训练转向推理。人工智能深度学习由预训练和推理两个任务组成,预训练是通过对大量数据进行学习形成具有特定功能的大模型;推理则是基于已经训练好的模型,输入数据得出结果。本轮人工智能在大语言模型上质的飞跃主要得益于Transformer架构在预训练阶段的Scaling Law,即通过增加大模型的参数、训练数据量和算力,大模型的能力会得到大幅的提升。但随着训练数据枯竭,Scaling Law面临瓶颈,大模型厂商将更多算力投入到大模型推理能力的训练,即当模型面临逻辑推理类复杂任务时,能够实时生成和评估多种不同的解决路径,最终选择最佳的解决方案,通过提升大模型的推理能力提高其整体性能。OpenAI 推出的o3模型在2024年美国数学邀请赛中,准确率高达 96.7%,仅答错一题;面对博士级科学问题,如GPQA Diamond基准测试,准确率为87.7%,超人类博士平均水平,对比前代o1模型,o3推理能力提升显著。
2.美国AI应用开启货币化落地
To B场景中,AI广告、AI企业助手和AI数据分析等方向应用落地较快。传统广告推荐系统存在转化率低、广告投放ROI低等不足,通过将大语言模型集成到数据采集、特征工程、特征编码、打分排序、流程控制等阶段学习广告受众的兴趣分布进行产品/内容推荐,能提升广告推荐效果。程序化广告公司Applovin连续4个季度收入增速35%以上,其AI广告引擎Axon 2.0对广告主投放效率和回报率提升明显。AI企业助手则是将大语言模型用于提升财务、人力、供应链等企业内部管理流程的效率,如美国CRM公司Salesforce的客户管理助手Agent Force将销售、服务、营销、分析、数据云、Slack等多种功能集成在一个平台上,实现数据和工作流程的无缝衔接。AI数据分析应用的代表企业是Palantir,通过提供数据分析为客户决策提供支持,使用大语言模型全面加强基于大数据分析的规划能力,包括对未来产品价格预测、库存管理等。
To C场景中,AI教育、AI编程等方向应用落地较快。AI教育代表公司Duolingo,其Duolingo Max通过AI根据用户学习习惯、进展等数据,为用户提供个性化、趣味教学,可以与AI聊天机器人Lily进行仿真日常对话。软件编程方面,以微软的GitHub Copilot为例,开发者在编写代码时,只需输入自然语言描述需求,Copilot便能利用模型推理,快速生成符合逻辑与语法的代码,涵盖从基础函数到复杂算法模块。
3.美国物理AI能力进一步提升
物理AI致力于开发能够感知、学习、决策并与物理世界交互的人工智能系统,以自动驾驶和人形机器人为代表。物理AI在2024年也取得快速发展,特斯拉自动驾驶算法引入大语言模型,采用端到端的自动驾驶架构,摒弃了传统的模块化设计,直接将摄像头采集的原始图像数据输入神经网络,经模型处理后直接输出车辆的转向、加速、制动等控制指令。根据FSD Tracker的统计数据,用户完全无接管的行程比例从v11版本的50%左右提升至v12.5的80%。FSD v12.5在触发接管前平均行驶里程达到238英里,远超此前版本的120英里,城市道路也达到了145英里。物理AI另一重要领域是人形机器人,大语言模型赋予机器人更为卓越的自然语言处理与理解能力,使其能够精准把握人类指令意图,实现更为流畅、智能的人机交互。Figure公司与OpenAI合作,将ChatGPT集成到其人形机器人Figure 01中,新一代机器人已在宝马工厂投入使用,显示出人形机器人在工业自动化领域的应用潜力。
(二)中国人工智能产业政策成效斐然
在战略引导上,从中央到地方政府构建起系统推进蓝图,明晰产业发展路径,工业和信息化部等七部门联合印发《关于推动未来产业创新发展的实施意见》,将人工智能定位为驱动未来产业变革的核心力量,明确提出利用人工智能、先进计算等技术精准识别和培育高潜能未来产业,围绕制造业主战场加快发展人工智能、人形机器人等,支撑推进新型工业化,目标打造具有国际竞争力的人工智能产业集群,使我国在全球人工智能领域从跟跑向并跑、领跑转变。重点省市政策层面,北京依托中关村优势,汇聚顶尖科研力量与创新企业,出台专项政策扶持通用大模型研发,给予资金、算力补贴,打造标杆应用场景。长三角地区以一体化协同为基,沪苏浙皖联动,共建跨区域人工智能算力网络,实现算力资源灵活调配;产业层面,上海聚焦高端芯片研发、浙江发力智能安防、江苏深耕工业智能软件。珠三角地区凭借完备制造业生态,以广深为双核,带动周边城市融入人工智能产业链。
应用领域多点开花,AI教育、AI医疗等领域的成功实践,彰显AI赋能实体经济、改善社会生活的巨大价值。教育部于2024年3月启动 “人工智能赋能行动”,旨在多方面助推人工智能赋能教育,从优化教学过程、创新教育模式、提升教育评价科学性等维度发力。国家卫健委发布卫生健康行业人工智能应用场景参考指引,涵盖疾病预测、影像诊断辅助等多元场景,加速医疗智能化转型。
(三)DeepSeek融合多种创新技术,突破算力瓶颈
成立不到两年,DeepSeek大模型性能水平比肩OpenAI。DeepSeek于2023年4月由知名量化资管巨头幻方量化发起成立,2024年1月发布首个大模型DeepSeek LLM,包含670亿参数。2024年12月上线并同步开源DeepSeek-V3模型,在短短两个月内,仅在2000块英伟达H800 GPU(特供中国市场的芯片)上花费558万美元,便达到了与美国顶尖闭源模型相媲美的性能水平;2025年1月DeepSeek正式发布R1模型,在国外大模型排名Arena上,R1基准测试升至全类别大模型第三,在风格控制类模型 (StyleCtrl)分类中与OpenAI o1并列第一,在中国区及美区苹果App Store免费榜均占据首位。DeepSeek-V3定位为通用大模型,适用于智能客服、知识问答和内容生成等任务;R1专为复杂推理任务设计,强化在数学、代码生成和逻辑推理领域的性能。
1.DeepSeek创新优化Transformer架构降低算力需求
DeepSeek-V3模型创新优化Transformer架构,引入“多头潜在注意力(MLA)”和“混合专家架构(MoE)”降低算力需求,训练成本仅为同类闭源模型的1/20。标准的注意力机制随着模型规模的增加,键值的缓存需求急剧增长,可能会因内存占用过高而导致计算效率低下。多头潜在注意力机制通过低秩联合压缩注意力的键值,将高维的键值映射到低维的潜在向量空间,但仍包含了输入的关键信息,显著减少键值缓存内存占用,降低约80%。在每个注意力头得到潜在向量后,通过多头并行计算,每个注意力头关注输入序列的不同部分,最后将多头输出进行拼接组合成最终的输出。同时,为了提高模型训练的效率和性能,DeepSeek-V3模型引入多Token预测(MTP)技术,传统的单Token预测训练每次只预测下一个Token,MTP技术则同时预测多个Token,训练时间能缩短20%-30%,且能更精准捕捉上下文语义关系,生成更准确、更连贯的文本。
混合专家架构(MoE)将模型分解为多个“专家”网络,每个专家网络都是独立的子模型,专门负责处理特定类型的输入。当输入数据进入模型时,由一个门控网络根据输入数据的特征,动态地将其分配给最合适的专家网络进行处理。MoE架构的稀疏激活机制使得每次只有部分专家被激活参与计算,而不是所有专家都对每个输入进行计算,进一步降低对计算资源的需求。DeepSeek-V3模型一共有61层,其中58层是MoE层,每层设置257个专家,包括1个共享专家和256个路由专家,模型专家总数达到14906个。共享专家扮演全局知识处理的角色,始终参与所有输入的计算,能够捕捉数据中的普遍模式,为模型提供稳定的基础输出。路由专家专注处理特定类型的输入,通过门控机制按需激活。
2.DeepSeek引入低精度训练等提升GPU利用率
DeepSeek-V3模型不仅通过优化创新Transformer架构降低算力需求,同时采取“FP8混合精度训练”和“对偶流水线机制(DualPipe)”提升GPU芯片的利用率。传统的训练方式通常采用32位浮点数(FP32)来表示模型参数和中间计算结果,这种高精度表示虽然能够保证计算的准确性,但在计算过程中需要消耗大量的计算资源和内存,并且在数据传输过程中会产生较高的通信开销。FP8混合精度训练对于一些对精度要求相对较低的计算任务,使用FP8格式进行计算。由于FP8格式的数据占用内存更少,并且在支持FP8计算的硬件设备上,其计算速度相比FP32和FP16有显著提升。对于一些对精度要求较高的操作,仍然使用较高精度的格式进行计算,以确保模型的训练稳定性和准确性。
在模型训练过程中,涉及到前向传播、反向传播以及参数更新等过程,这些过程中既包含矩阵乘法等数学运算,也包含不同计算节点之间的数据传输等通信操作。GPU通常按照一定的顺序在指令执行流水线中进行。然而,由于数学运算和通信操作的特性不同,它们在执行过程中可能会导致流水线出现“气泡”,即GPU在某些时间段处于空闲状态,降低了GPU的实际利用率。对偶流水线机制(DualPipe)将模型的计算过程划分为多个阶段,每个阶段包含数学运算和通信操作,当一个阶段的数学运算正在进行时,利用这个时间启动下一个阶段的通信操作,使得数学运算和通信操作在时间上尽可能重叠,减少了数学运算等待数据传输的时间。
3.DeepSeek使用强化学习技术训练推理能力
DeepSeek-R1模型充分利用V3模型架构,针对复杂推理任务,引入强化学习技术,实现了与OpenAI o1模型相当的推理能力。强化学习是通过不断的试错过程和对结果的反馈进行学习,在长期内最大化累积奖励。传统的强化学习通常会有一个额外的批评模型来评估当前策略的好坏,然后根据评估结果来调整策略。然而,批评模型的训练既复杂又耗费计算资源。DeepSeek-R1使用GRPO算法,不需要批评模型,而是从当前策略中采样一组输出,然后根据这些输出的相对表现来调整策略,使表现较好的输出更有可能被生成,而表现较差的输出被抑制。DeepSeek-R1的推理训练分多个阶段,首先是冷启动阶段,利用精心设计的冷启动数据对DeepSeek-V3-Base进行微调,为模型提供初始的推理能力。接着在第一阶段的基础上,用GRPO算法强化学习,进一步提升模型的推理能力,并设计准确性奖励保证模型推理的正确,格式奖励和语言一致性奖励提升模型输出的可读性和流程性。随着强化学习训练的深入,模型思考时间增加,还自发“涌现”了诸如反思(重新审视和重新评估先前步骤)以及探索解决问题的替代方法等更加复杂的操作,表明模型在强化学习过程中能够不断自主提升推理能力。
(四)中国企业在AI应用市场有比较优势
1.中国大模型与美国差距逐步缩小
尽管我国在算力上要落后于美国,但如前文所述,以DeepSeek为代表的中国大模型企业通过优化改进Transformer架构,仍能在相对较低的算力资源基础上取得比肩海外顶尖闭源大模型的性能水平。另外,大语言模型预训练正面临Scaling Law瓶颈,将算力投向推理阶段,面向特定模型推理开发的ASIC芯片更适合用于推理阶段,ASIC芯片对半导体制程的要求要低于GPU芯片,如Groq公司的LPU(ASIC芯片其中一种)采用14nm制程,在大语言模型任务上比英伟达的GPU快10倍,而成本仅为GPU的10%,且能耗仅为GPU的十分之一。目前,华为已开发用于推理的昇腾Ascend 310芯片,基于12nm制程,阿里巴巴、腾讯、百度均有ASIC芯片相关产品。
2.中国企业在AI应用市场有比较优势
AI应用市场的竞争是多维度的竞争,本土企业在多维度上具有竞争优势。AI芯片算力、大语言模型是人工智能的基础设施,市场竞争主要集中在性能、成本等维度,从上文分析可知,尽管中国大模型总体要落后于美国,但通过“工程式创新”以及大模型推理“ASIC化”,有望缩小与美国的差距。参考互联网时期,腾讯、阿里巴巴、百度、美团、抖音等中国互联网企业成功经验,我们认为AI应用市场的竞争是多维度的,包括法律监管、数据资源掌握程度、对用户消费/使用习惯的理解、成本、商业模式等。一是在法律监管方面,医疗健康、工业、金融、电力等行业AI应用关系到国家安全,判断将难以采用基于海外大模型的AI应用,本土企业更有优势。二是在数据资源方面,大模型的能力除了算法、算力投入外,也是数据驱动的,即数据资源掌握丰富程度影响大模型的能力,本土企业在中文数据积累上更丰富。三是对用户消费/使用习惯的理解方面,本土企业对消费者心理、文化、工商业企业业务流程逻辑等方面的理解要比海外企业更深刻,海外AI应用产品容易出现水土不服的情况。四是在成本、商业模式方面,相比于海外市场,中国市场对软件等非实物产品的付费意愿普遍较低,需要创新商业模式实现货币化,中国互联网企业在商业模式创新上具有较多成功经验。截至目前,国内企业字节跳动、阿里巴巴、腾讯、百度、华为等已开始复制海外大厂在算力、算法和应用等方面加大投入,在中国市场AI应用上也有先发优势。
(一)DeepSeek将多维度深入影响人工智能发展
DeepSeek打破此前算力资源不足将限制大模型升级迭代的观点,增强中国自主可控发展人工智能的信心。DeepSeek通过创新优化Transformer架构、引入低精度计算、并行训练等,模型在短短两个月内,仅花费558万美元,便达到与美国顶尖闭源模型媲美的性能水平。尽管国产GPU芯片与英伟达的差距仍较大,但DeepSeek大模型能在华为昇腾、摩尔线程等国产GPU上运行,增强中国自主可控发展人工智能的信心。
DeepSeek大模型将促进物理AI等智能终端产品的繁荣。英特尔宣布DeepSeek能在搭载英特尔处理器的电脑上离线使用,基于R1模型可以完全离线、本地化的做会议纪要、撰写文档等操作。不仅AI PC,判断轻量化、高效的AI模型将能更轻松集成到计算资源受限的硬件平台中,如自动驾驶、人形机器人、AI手机、AI眼镜以及AI玩具等,促进智能终端产品繁荣。
DeepSeek大模型低成本将进一步普及人工智能服务。以人工智能客服市场为例,目前Salesforce对service agent的定价是2美元一次问询。相比之下,据行业调研人工客服平均应答一次问询的成本大约在2.7-5.6美元之间。DeepSeek-V3模型训练成本仅为同类闭源模型的1/20,且仍有下降空间,将进一步降低人工智能客服的定价,促进人工智能客服市场增长。不仅在人工智能客服市场,AI应用已在AI广告、AI企业助手、AI数据分析、AI教育和AI编程等领域落地,低成本将进一步促进相关AI应用普及,最终使AI产业链上下游迎来繁荣周期。
(二)AI趋势一:AI智能体有望逐步成熟
大模型推理能力增强将促进AI智能体落地。根据OpenAI对人工智能发展阶段的定义,目前处于Level 2推理器阶段,即人工智能具备基本的逻辑推理能力,能够分析复杂信息并进行推理,下一阶段Level 3是AI智能体(AI Agent),能够理解复杂指令并能做出多步任务规划,实现与环境的交互。AI智能体的特征有:一是自主性,能够依据预设的目标和规则,自发地对所感知到的信息进行剖析,进而独立自主地做出决策,并不需要人类时刻在旁发号施令;二是交互性,能与人类通过自然语言进行流畅沟通,还能与其他AI智能体进行高效的交互;三是学习性,能够从海量的数据以及过往的经验中不断学习,持续优化自身的决策模型,以更好地适应复杂多变的环境。
图表1:目前人工智能处于Level 2 推理器阶段
数据来源:OpenAI,广开首席产业研究院
传统AI智能体依赖人工规则决策,面对规则外新情况、新问题时,缺乏自主学习、灵活应变能力,知识更新需要人工介入,成本高昂且效率低下,严重制约其应用拓展。2022年以来,大语言模型强势赋能,凭借海量数据训练与卓越架构设计,为AI智能体注入前所未有的语言理解、生成能力,使其智能水平呈指数级跃升,尤其是OpenAI在2024年9月发布的o1模型通过提升大模型的推理能力提高其整体性能。AI智能体利用大模型的推理能力将复杂任务分解为一系列简单的子任务,在面对多种选择时,通过推理预测不同选择的结果,选择最优方案。2024年12月OpenAI已发布新一代推理模型o3,在2024年AIME数学竞赛的题目测试中,o3的准确度得分为96.7%,大幅度超过o1的83.3%。
提高AI智能体的可信、可解释性是未来重点研究方向。目前AI智能体也面临挑战,可信、可解释性首当其冲。AI智能体复杂决策过程仿若“黑箱”,难以完全洞悉其推理逻辑,一旦出现错误决策,后果不堪设想,限制了在对可靠性、可解释性要求高的行业应用,如医疗诊断、司法判定和金融风控等领域。为破局困境,技术研发上,可解释性 AI 技术崭露头角,试图揭开AI智能体决策 “黑箱”,以可视化、逻辑分解方式呈现推理路径,不仅仅是简单展示模型的输入与输出,更深入到挖掘模型决策背后的关键因素、特征权重、逻辑关联,为每一个决策赋予清晰的“因果脉络”,使得人类能够凭借自身的知识体系与认知能力,对AI模型的行为进行理性判断、有效验证与合理干预,进而构建起人类与AI协同共生、相互信任的合作模式,如引入特征重要性分析方法。检索增强生成(RAG)技术则通过将外部知识库与大语言模型相结合,在模型生成文本时,从外部知识库中检索相关信息并融入生成过程,从而提升生成内容的准确性、时效性与专业性。RAG引入特定领域权威知识库,使模型在金融风险评估、法律条文解读、医疗精准诊断等复杂专业任务中生成的信息真实可靠。
(三)AI趋势二:小模型提高人形机器人智能化
在全球范围内,人口老龄化问题日益严峻,劳动力短缺成为制约经济发展的重要因素。以日本为例,其老龄化率已超30%,劳动力人口持续减少,制造业、养老护理等行业用工缺口不断扩大。据日本厚生劳动省统计,到2025年,预计制造业劳动力缺口将达到100万人以上,养老护理岗位缺口更是高达30万人。在汽车制造领域,由于年轻劳动力不足,企业不得不提高薪资吸引工人,人力成本大幅攀升,同时生产效率受到影响,订单交付周期延长。
欧洲同样面临类似困境,德国作为制造业强国,随着老年人口比例上升,技术工人断层问题凸显。机械制造、电子等行业熟练工人供不应求,一些中小企业甚至因招不到合适工人而缩减生产规模或延迟新品研发。在中国,人口结构变化趋势也不容乐观。根据国家统计局数据,近年来劳动年龄人口逐年递减,2022年16 - 59岁劳动年龄人口减少了666 万人。在沿海制造业发达地区,如广东、浙江等地,工厂招工难问题长期存在,尤其是春节后返工潮期间,企业用工缺口普遍在20%-30%。
国家层面高度重视人形机器人产业发展,多部门协同发力,出台一系列政策推动产业前行。工信部发布的《人形机器人创新发展指导意见》明确提出,到2025年要初步建立人形机器人创新体系,关键技术取得突破,整机产品达到国际先进水平并实现批量生产;科技部在相关科技计划中将人形机器人核心技术研发列为重点支持方向,鼓励高校、科研机构与企业联合攻关;国家标准委加快人形机器人相关标准制定,涵盖安全规范、性能评测等多领域,确保产品质量与兼容性,为产业规模化发展奠定基础。各地政府积极响应国家政策,因地制宜出台多项扶持举措。上海打造人形机器人产业创新高地,在张江人工智能岛建设专业产业园区,为人形机器人企业提供免费办公场地、研发设备共享等优惠;深圳发挥制造业强市优势,推动人形机器人产业链上下游协同发展。
目前,人形机器人硬件发展快于软件,人工智能将提升机器人的环境感知、人机交互和决策推理能力。如前文所述,人工智能大模型发展方向之一是向轻量化、高效化迈进,DeepSeek大模型已能在算力较低的硬件平台上运行,同时保持模型的准确性,能够轻松将AI模型集成到资源受限的人形机器人硬件平台中,能够快速生成控制指令,满足人形机器人对实时性的严格要求。
(四)AI趋势三:地方立法扩大自动驾驶运营空间
法律监管是自动驾驶推广的主要瓶颈。根据针对产业专家的调查数据,北美地区60%的产业专家认为法律监管是主要的瓶颈,27%的产业专家认为技术可行性是主要的瓶颈;欧洲地区也有57%的产业专家认为法律监管是主要的瓶颈;亚太地区则是55%的比例认为法律监管是主要的瓶颈,27%的比例认为技术可行性是主要瓶颈,消费者接受度在三个地区的调查数据中均是比例最小的因素。
图表2:法律监管是自动驾驶推广的主要瓶颈
数据来源:麦肯锡,广开首席产业研究院
北京、武汉和广州等城市相继批准自动驾驶政策拓宽运营空间。2024年12月北京、武汉相继批准各自城市的自动驾驶政策,广州的地方立法也即将落地,《广州市智能网联汽车创新发展条例》已报广东省人大,有望于2025年初完成复核,或意味着中国持续近半年的“政策冷静期”告一段落。以《北京市自动驾驶汽车条例》(以下简称“条例”)为例,在市场准入方面,企业要具备相应的技术研发能力、生产制造能力以及安全管理能力,拥有完善的自动驾驶技术研发团队、生产设施和质量控制体系,以确保产品的稳定性和安全性。车辆则必须通过严格的技术检测和安全评估,包括对自动驾驶系统的功能测试、可靠性测试、安全性测试等,符合国家和地方相关标准。在运营管理方面,规定企业需建立实时监控平台,对车辆运行状态进行24小时实时监测,及时发现并处理潜在的安全隐患。一旦发现车辆出现异常情况,能够迅速采取措施,如远程控制车辆停止行驶、通知相关人员进行维修等,保障车辆和乘客的安全。在事故责任认定方面,《条例》规定,在自动驾驶系统激活状态下发生事故,属于自动驾驶汽车一方责任的,由车辆所有人、管理人承担赔偿责任。但车辆所有人、管理人在向受害者进行赔偿后,可以依法向负有责任的生产者、销售者等进行追偿。判断随着地方立法逐步落地,未来政策和自动驾驶汽车运营空间都会更加广阔。
评论列表 (0条)