大模型

SVIP免费

计算机行业专题报告:私有化部署需求提升带来大模型一体机投资机会

DeepSeek 技术创新有望推动政企私有化部署需求提升。私有化部署凭借物理隔离、数据闭环、自主管控、定制服务等特征,正成为政企部署 AI 大模型的主流选择。DeepSeek 的技术创新显著降低了私有化部署的模型和算力门槛,有望解决政企落地 AI 应用的部分痛点难点问题,进一步推动政企私有化部署需求提升。

半导体行业专题报告:AI大模型竞赛方兴未艾,OpenAI与DeepSeek引领行业生态重构

2024年全球AI市场规模有望达到6.16万亿美元,同比增长30.1%,2027年有望扩张至11.64万亿美元,CAGR为23.65%。AI概念于1956年达特茅斯会议首次提出,是一种模拟人类智能的技术,按照智能程度划分,主要分为狭义人工智能、通用人工智能和超级人工智能,目前通用人工智能还处于理论阶段。AI具有算力、算法、数据三大要素,算法决定了AI如何处理数据和解决问题,数据决定了算法是否能得到有效的训练和优化,算力提供了执行算法和处理数据所需的计算资源。从AI产业链看,整体涵盖基础设施层、模型层、平台层、应用层及服务层多个环节,基础设施层主要包括与芯片、计算、存储、网络、软件、连接与通信等多个上游领域,模型层可分为通用大模型、行业大模型等。根据Frost & Sullivan,自2020年起,全球AI市场规模以高于20%的同比增速呈现迅猛增长的态势,从2019年的1.91万亿美元有望扩张至2024年的6.16万亿美元,同比增速逐年上升,整体市场有望在2027年扩张至11.64万亿美元,体现出全球AI行业井喷式的发展速度。

AI 大模型专题研究报告:模型加速迭代,有望促进应用端快速发展

AI 大模型是人工智能预训练大模型的简称,其融合了“预训练”和“大模型”两个核心概念,开创了一种全新的智能模式。具体而言,AI 大模型通过在海量数据集上进行预训练,能够在仅使用少量数据进行微调,甚至无需微调的情况下,直接支持多种应用场景。模型通常采用多层神经网络架构,并借助高级优化算法和强大的计算资源进行训练,从而具备出色的泛化能力、通用性和实用性,广泛应用于自然语言处理、计算机视觉、智能语音等多个领域,并在其中取得了突破性的性能提升。
SVIP免费

星环科技研究报告:从Data Infra到AIInfra,大模型部署的“卖铲人”

从 Data Infra 延伸至 AI Infra。公司以大数据技术起家,AI 数据工程基因纯粹,具有大数据基础平台、分布式数据库、数据开发与智能分析工具、数据云平台等完整产品矩阵,覆盖大数据全生命周期管理。基于数据工程基因,大模型时代浪潮下公司业务定位由数字基础设施提供商进一步延伸至 AI 基础设施企业,通过整合大数据、人工智能等技术,推出知识平台 TKH,完善了AI 从基础设施到应用的产业链条。

deepseek大模型生态报告

DeepSeek,全称“杭州深度求索人工智能基础技术研究有限公司”,简称“深度求索”,于 2023 年 7 月 17 日由幻方量化创立,位于杭州市拱墅区,是一家创新型科技公司,专注于开发先进的大语言模型(LLM)和相关技术,法定代表人、执行董事兼总经理为裴湉。

DeepSeek领衔大模型创新,数字科技政策与产业协同发展

DeepSeek 引领大模型创新浪潮。DeepSeek 的迅速推广和广泛应用将推动为行业树立了高质量数据驱动的标杆,进一步提升数据标准的精准性、多样性,加强算力和数据的协同优化,进一步加快 MoE 架构、强化学习训练方法和 FP8 等混合进度技术探索创新,有望助力国内大模型产业在稳步降低成本的同时实现模型性能跃升。我们认为,DeepSeek 在一定程度上重塑了大模型的技术发展范式,‚技术平权‛为产业升级注入了新活力,尤其是在金融、自动驾驶等领域表现尤为突出。此外,知识蒸馏已成为将大型模型的能力迁移至参数规模更小的模型的重要途径,蒸馏技术成为广泛部署 R1 能力中小型模型的有效策略,使大规模端侧部署更进一步,这为小模型赋能 AI PC、耳机、玩具和智能教育设备提供了有力支持。

大模型辅助编程手册

本文是大模型辅助编程的使用指南,详细介绍大模型在日常编程与项目开发过程中的辅助编程应用及其相应部署流程。本文从大模型嵌入开发环境的程度将不同辅助编程工具分为两类:插件类以及 IDE 类,以 Github Copilot、Cline、CodeGPT、MarsCode和Codeium,与Cursor、Windsurf和MarsCodeIDE 分别为例,介绍两类工具的部署流程及具体功能。此外,本文以 Cursor的 Composer 功能为代表,展示其在量化策略编写方面的实践案例。

投研范式的革新:当大模型遇到大资管

AI技术日新月异,逐步发力应用端,其中资产管理和财富管理将成为AI赋能的“超级场景”。尤其资产管理领域天然生成海量数据,同时去中心化的投研模式有利于AI赋能相关场景。未来AI将全面赋能大资管,不仅提升了业务效率,未来有望为客户提供了更加精准与个性化的服务体验,包括营销获客与转化、客户运营及陪伴、产品组合与推介、投研及投资、风险管理、交易以及后台系统支持等方面。

半导体行业专题报告:端侧大模型近存计算,定制化存储研究框架

大模型赋能端侧AI。在人工智能的飞速发展中,大型语言模型(LLMs)以其在自然语言处理(NLP)领域的革命性突破,引领着技术进步的新浪潮。自2017年Transformer架构的诞生以来,OpenAI的GPT系列到Meta的LLaMA系列等一系列模型崛起。这些模型传统上主要部署在云端服务器上,这种做法虽然保证了强大的计算力支持,却也带来了一系列挑战:网络延迟、数据安全、持续的联网要求等。这些问题在一定程度上限制了LLMs的广泛应用和用户的即时体验。正因如此,将LLMs部署在端侧设备上的探索应运而生,不仅能够提供更快的响应速度,还能在保护用户隐私的同时,实现个性化的用户体验。端侧AI市场的全球规模正以惊人的速度增长,预计从2022年的152亿美元增长到2032年的1436亿美元,这一近十倍的增长不仅反映了市场对边缘AI解决方案的迫切需求,也预示着在制造、汽车、消费品等多个行业中,端侧AI技术将发挥越来越重要的作用。
加载更多