人工智能 第10页

国产AI大模型应用报告

继2022年11月,OpenAI发布旗下AI聊天机器人应用ChatGPT后,大模型逐渐走入公众视野。2023年被视为中国大模型的发展元年。这一年里,中国本土厂商、各大科技巨头、科研院所、初创公司都纷纷下场,部署自己的大模型。从优化算法全面追赶头部大模型水平到创新应用落地全面开花,国产AI正待走出一条属于自己独特节奏的发展之路。 本报告将回顾国产AI大模型的发展历程,分析当前国产大模型落地应用的数据表现,结合赛道头部和特色产品案例,帮助用户读者更好地把握国产AI大模型的发展现状和未来趋势。

光模块行业研究:AIGC高景气持续,800G+产品需求旺盛

催化:AIGC刺激,800G+数通光模块开始担当大任。光模块负责光电信号的收发、转换,支撑着网络、计算等设备之间的协作与连接。受益于AIGC带来的海量数据交换和传输需求,高速光模块应用快速扩大,尤其是大模型训练对更快数据传输的需求持续激增,800G光模块因其高带宽、高传输速率、性能优良、高密度和扩展性好而受到广泛关注。高速光模块,从应用场景上看,涵盖了AI数据中心、HPC以及5G网络等多个领域。从趋势上看,随着AI等数据处理密集型的应用持续演进,数通光模块性能提升的速度将加快。在2022年之前,整个光互联网络的升级是以四年为一个周期;在2022年之后,升级周期缩短为两年,光模块800G是当前数通领域的主流,更高速率的产品也崭露头角。单波长传输速率的提升,是光模块传输速率向上的重要路径。

2024大模型十大趋势:走进“机器外脑”时代

继ChatGPT开启大语言模型引领的新一轮人工智能革命以来,我们持续见证了人工智能领域技术的加速迭代,在过去的一年里众多公司如Google、Midjourney、Adobe以及Inflection等,都推出了创新的模型和产品,标志着大模型技术的成熟和大规模应用的开始。今年2月,Sora的出现再次震撼了技术界,预示着我们可能很快就会见证更多令人兴奋的技术突破。过去半年,我们以日为单位更新“AI每日动态”,这可以充分反映出来,AI技术的发展日新月异,以日来统计的话也是毫不过分的。

英伟达专题报告:AI时代的算力领军人

GPU+DPU+CPU 全面布局,AI 软硬件一体化龙头优势领先。英伟达成立于 1993 年,构建以 CUDA 生态为核心,将底层 GPU+DPU+CPU 进行整合,提供数据中心的全领域加速计算方案,在持续推进的 AI 浪潮中,成为了软硬件一体化的云计算解决方案领导者。公司业务布局包括数据中心、游戏、专业可视化、汽车四大板块,数据中心业务伴随着 AI 浪潮高速成长,2025 财年第一季度实现营收 225.63 亿美元,同比增长 426.68%,同时公司其他几大业务板块业绩也在稳步提升,为公司整体营收和利润带来正向贡献。2024 财年公司实现营收609.22 亿美元,同比+125.85%,实现净利润 297.60 亿美元,同比+581.32%;2025 财年第一季度公司业绩进一步提速,实现营收 260.44 亿美元,同比+262.12%,净利润为 148.81 亿美元,同比+628.39%。AI 浪潮仍处于训练阶段,伴随下游客户需求增长,公司业绩有望持续提升。

从2024世界人工智能大会看AI产业投资方向

7 月 4 日至 6 日,2024 世界人工智能大会暨人工智能全球治理高级别会议在上海举行,此次大会的主题为“以共商促共享,以善治促善智”。截至 7 月 6 日下午 2 点,大会线下参观人数突破 30 万人次,全网流量突破 10 亿,比上届增长了 90%,均创历史新高。本次大会的展览面积超过了 5.2 万平方米,500 余家知名企业和超过 1500项人工智能展品参展,50 余款新品首发首秀,均创历史新高。本次大会主要展示了人形机器人、大模型、算力和智能驾驶四个 AI 产业投资方向。

人工智能行业大语言模型技术发展研究报告(2024年)

人工智能作为引领新一轮科技产业革命的战略性技术和新质生产力重要驱动力,正在引发经济、社会、文化等领域的变革和重塑,2023 年以来,以 ChatGPT、GPT-4 为代表的大模型技术的出台,因其强大的内容生成及多轮对话能力,引发全球新一轮人工智能创新热潮,随着大模型技术演进、产品迭代日新月异,成为科技产业发展强劲动能。本报告总结梳理大语言模型技术能力进展和应用情况,并对未来发展方向予以展望,以期为产业界提供参考。

寒武纪专题报告:乘大模型之风,AI芯片元老寒武纪再度起航

以 Transformer 结构为主的生成式带动了加速计算的需求突破式增长,随着Scaling law 的进一步拓展,Nvidia 数据中心的收入从 2024 财年 Q1 的 4 3 亿美金增加至 2025 财年一季度的 226 亿美金,同期超威电脑和 DELL 的 AI 服务器收入也大幅增加。我们预计未来针对训练和推理的 AI 算力需求有 望长时间高景气,据 IDC 及 TheNextPlatform 统计,2023 年全球 AI 服务器 市场规模预计将超 500 亿美元,2027 年预计将超 946 亿美元。在这一场科 技盛宴中,Nvidia 凭借前瞻的布局、CUDA 生态的壁垒、从 P100 到未来 R100 芯片的快速迭代以及完善的集群产品占据了主要的市场地位。

消费电子行业专题报告:AI大模型赋能手机终端,拥抱AI手机新机遇

算力持续强化为手机 AI 使用体验提升提供底层支撑,高通、联发科均在产品迭代上进行重点布局。NPU是实现手机AI功能的核心硬件,此外大模型的嵌入对手机内存容量、带宽、传输速率均提出了更高的要求,未来16GB可能成为手机内存的基本配置。对于目前AI手机主要的AI功能拍照、语音交互等,ISP、麦克风均会有所改进。由于AI手机的日常发热时长将长于此前的智能手机,散热也是AI手机需要重点关注的领域,目前主流AI手机均增加了均热板的面积,石墨烯散热材料有望在未来几年导入AI手机,进一步为端侧模型正常运行保驾护航。

人工智能行业新型智算中心专题报告:拉动全球电力消耗增长,液冷渗透率快速提升

能源测:智算中心电力消耗测算。1)单POD功率:以目前最常用的英伟达DGX H100计算集群(POD)为例,单POD(127节点)功率合计为1411.176kw,其中计算部分占比最高(为89.83%,即DGX H100服务器),其次为计算用交换机(为5.72%);2)单位算力能耗模型:以英伟达DGXH100服务器为例,假设利用率为80%,PUE为1.25,可知单台服务器对应智算中心功率消耗为11,112w,对应年度用电量为97,338KWh;TF32下单位petaFLOPS算力对应智算中心年度用电量为12,167 Kwh,FP16下单位petaFLOPS算力对应智算中心年度用电量为6,084 Kwh;3)对全球电力影响:根据华为GIV发布的《智能世界2030》预测,预计2030年全球AI算力将超过105ZFLOPS(FP16),对应每年638.82太瓦时用电量,以22年为基年,额外带来2.4%的全球用电增量。

全球AI算力行业专题报告:从云到端,云端协同,AⅠ开启科技行业超级成长周期

随着 2022 年 11 月底 OpenAI 发布 ChatGPT 3.5,AI 相关行业在 2023 年进入爆发式发展。OpenAI 随后发布 ChatGPT 4.0,谷歌、Meta 等多家厂商也陆续推出 Gemini、Llama 等 AI 大模型。在中国,包括互联网头部企业和初创公司在内的玩家相继投入到大模型的研究和发布中。根据 IDC 数据,2020 年至 2023 年全球生成式 AI 市场空间上涨了约 6 倍,预计 2024年至 2030 年期间复合增长率达到 40%,2030 年有望接近万亿美元。算力芯片作为 AI 大模型行业的最重要支撑,也正享受行业高增长红利。

大模型专题报告:从技术路径,纵观国产大模型逆袭之路

海外大模型龙头轮番抢占性能第一宝座,比拼整体性能和多模态交互。 大模型的宝座三次更迭:初代GPT-4o自我革命,持续刷新综合性能;二代谷歌Gemini更极限的上下文理解、更低延时;翘楚Claude3.5聚焦视觉和交互体验。 大模型高地争夺:多模态的理解和响应,原生多模态技术比拼。大模型的效果取决于多模态理解与生成,毫秒级响应,更先进的视觉与音频理解能力,智能感知语气与语态。端到端原生多模态技术、统一神经网络,是竞争的主要角力点。 大模型的比较维度升级:从模型到叠加终端,跨设备的使用效果体验。如谷歌推出AI Agent项目Astra模型,可以手机、眼睛镜头对准身边的物品,并向Project Astra提出一些疑问,它几乎能做到零延时地准确回答。

从中国企业视角:看元宇宙发展

消费者元宇宙带来更多文化和道德挑战;与此不同的是,企业元宇宙和工业元宇宙则聚焦于特定行业,蕴藏着巨大的发展潜力。中国是近来高度重视工业元宇宙的市场之一,这主要得益于政府自上而下的广泛政策支持。在此背景下,本研究旨在深入探究中国市场的差异,特别是各行业对企业元宇宙和工业元宇宙的看法。
加载更多