智能化

站内搜索
汽车电子行业专题报告:智驾加速下沉,产业链全面受益

汽车电子行业专题报告:智驾加速下沉,产业链全面受益

智驾芯片:上游核心环节,国产厂商加速追赶。截止 2024 年 11 月,英伟达在中国智驾域控芯片装机量以 53%的市场份额断崖式领先于其他智驾芯片厂商,主要为搭载在中高端车型的 Orin-X。随着智驾功能逐步下沉至中低端车型,以中国本土厂商地平线及黑芝麻智能的征程 6E/M 及武当C1200 系列为代表的追求极致性价比产品的成本优势逐渐体现,并预计将充分受益于智驾下沉趋势获得更多的市场份额,同时英伟达也推出了更有性价比的 Orin-N 以保持自身在智驾域控芯片的市场地位,目前比亚迪已在 20 款车型中分别定点了征程 6E/M 及英伟达 Orin-N 的智驾系统。我们认为 2025 年各厂商将为争夺中低端车型的增量市场在产品之间展开新一轮交锋。
AI算力产业研究:美国对华AI限制加剧,自主可控大势所趋

AI算力产业研究:美国对华AI限制加剧,自主可控大势所趋

2019年以来,中美贸易摩擦持续加剧,导致国内科技产业的投资策略发生显著的变化。2024年10月,美国商务部要求台积电从11月11日起,停止向中国大陆客户供应7nm及更先进工艺的AI芯片。12月2日,美国商务部工业与安全局(BIS)公布了对中国半导体出口管制措施新规则,将140家中国半导体相关公司列入“实体清单”。在特朗普2.0时代,美国对华在高科技领域的制裁、限制或将持续。
AI液冷行业研究报告:液冷进入新纪元

AI液冷行业研究报告:液冷进入新纪元

算力快速发展带动散热需求提升,政策导向明确驱动液冷成为标配。伴随算力需求快速发展,处理器计算能力快速提升的同时功耗也显著提升,传统风冷已难以满足散热需求,需要更高换热效率、更节能的液冷技术来满足高功率散热需求。传统风冷的 PUE 值基本在 1.5-1.6,而液冷能够将 PUE 值做到 1.2 甚至更低。2019 年以来国内政策导向明确建设新型绿色数据中心,明确要求 PUE 值要做到 1.3 以下,液冷技术路径有望深度受益。 AI 领域蓬勃发展,液冷市场需求未来可期。液冷技术作为一种高效散热解决方案,近年来在数据中心、高性能计算(HPC)和电子设备等高能耗领域中得到了广泛应用。与传统的风冷系统相比,液冷通过冷却液直接传导和转移热量,实现了更出色的散热效果,能够有效支持高密度、高功率设备的稳定运行,并满足日益增长的计算需求和设备的散热要求。根据 IDC 统计预测,全球 AI 服务器市场规模将从 2022 年的 195 亿美元增长至 2026 年的 347 亿美元,复合年增长率达 17.3%;2023 至 2028 年间,中国液冷服务器市场规模年复合增长率将达到 47.6%,预计到 2028 年市场规模将增至 102 亿美元。
2024年中国AI大模型产业发展与应用研究报告

2024年中国AI大模型产业发展与应用研究报告

AI大模型是指拥有亿级以上参数的深度学习模型,从应用场景角度可分为通用大模型和垂直大模型,其中垂直大模型又可以分为行业大模型和垂直场景大模型。通用大模型,聚焦基础层和技术攻关;垂直大模型,聚焦垂直领域解决方案,在通用大模型基础上开发行业和场景专用模型,面向政务、金融、医疗、教育、交通等垂直行业和营销、客服、运营等通用场景。
乘用车行业2025年度策略:自主格局强化,高阶智驾迎来平权时代

乘用车行业2025年度策略:自主格局强化,高阶智驾迎来平权时代

智能驾驶产业提速,功能迭代市场下沉。各地区智能驾驶政策持续加码,L3 及以上智驾加速渗透,2024 年为 L3 落地元年,我们预计 2025 年 L3渗透率快速提升;L4-L5 级仍处于发展初期,基于弗若斯特沙利文预测,2024-2026 年全球 L4-L5 级渗透率分别为 0.1%/0.6%/1.3%,2027 年有望提至 4.4%。高阶智驾平权趋势显著,L3 代表性功能城市 NOA 车型价格正逐步下探至 10 万+,2024 年前三季度 15-20w 标配城市 NOA 的乘用车比重达 1.0%。功能端,从“城市 NOA”到“车位到车位”持续演进,2025 年第一梯队的小鹏、华为、理想将重点发力车位到车位功能,其他车企进一步夯实其城市 NOA 的能力。车企智驾已从“人无我有”到追求“人有我优”,后续将围绕算法、数据、算力全面竞争。
AI专题报告:从互联网到云再到AI,AIAgent下的三大投资机会

AI专题报告:从互联网到云再到AI,AIAgent下的三大投资机会

展望2025年, AI Agent和推理需求的指数级增长有望引领规模化AI应用元年,持续推动软件产品能力边界的拓展,赋能企业实现更高效的运营和成本优化。以字节跳动为代表的企业通过豆包AI等核心产品的广泛应用,率先全面布局AI市场,显著提升推理能力和多场景适配性,为国内AI Agent技术实践提供了落地基础。结合大模型与AI Agent未来的技术进步,智能化应用场景加速拓展,助力企业级市场实现降本增效。这一现象将引领 ToBSaaS行业迎来新一轮成长机遇,为中国软件行业在未来五年孕育出一批高成长型红利企业奠定基础。
AI大模型专题报告:Transformer架构的过去、现在和未来

AI大模型专题报告:Transformer架构的过去、现在和未来

Transformer 架构的过去和现在:人类大脑在有限的资源条件下,通过神经元回路的自组装和微调,实现了高效的信息处理。为了优化信息处理,大脑发展了高效的信息选择和投注机制——注意力,而非依赖超大容量的处理能力。随着我们对大脑认知机制的深入了解以及计算机科学的进步,研究人员尝试通过算法量化大脑的认知功能,将人类的思维模式映射到人工智能上。Transformer 是一种基于注意力机制的神经网络架构,由 Google Brain 团队于 2017 年在论文《Attention Is All You Need》中提出。通过摒弃传统循环结构,Transformer 利用自注意力机制并行处理序列元素,显著提升了训练速度和长距离依赖建模能力。Transformer 架构的灵活性,使其成为众多非自然语言处理领域先进模型构建的基础框架,展现出广阔的应用前景,包括但不限于能够将不同模态的数据映射到统一的特征表示空间,促进跨模态应用发展。目前,人工智能大模型的进化主要依赖于人工版本的更新。而随着技术的发展,研究人员正在探索自我进化的模型,使其能够自主完善和学习由自身生成的经验,从而推动人工智能向更高级的智能发展。当前 AI 的局限性或在于其学习效率的低下,而非数据不足。真正的智能不仅是数据量的堆积,而是在于对信息的压缩和提炼,类似于通过总结第一性原理的方式获取更深层次的智能。
AIGC数据存储技术研究报告

AIGC数据存储技术研究报告

随着AIGC产业的大力发展,数据作为爆炸式增长的重要生产要素,正在促使存储技术与存储体系不断创新发展。这其中更大的容量、更高的性能、更灵活的扩展方式、更安全可靠的数据保护、以及更加绿色可持续的数据基础设施建设,都是产业关注的重点。《AIGC数据存储技术研究报告》,以全面发展的AIGC研究与应用为场景,全面展示了不断更新迭代的全闪技术、存算一体架构技术、与创新性分布式存储技术的相互结合的发展趋势与落地点。报告汇集了来自产、学、研各界的丰富经验和深入研究,不仅为行业人士提供了更全面的多维度视角,而且在推动技术发展及实现数据价值最大化上也发挥着关键作用。
加载更多