这段时间DeepSeek的热度可谓是一波接一波,完完全全和春节档电影《哪吒之魔童脑海》一样成为了2025开年备受瞩目的关键词。作为开源大语言模型,DeepSeek凭借其低成本、高性能与广泛兼容性迅速出圈。它不仅能处理日常对话、内容创作,还擅长代码生成、数学推理等复杂任务,甚至支持本地部署,满足隐私与定制化需求。
为了让大家更快地从入门到精通DeepSeek,云巴巴特地带来了超详细的部署操作指南。无论你是新手,还是希望进阶的效率达人,这份指南都能帮到你。
选择部署平台:腾讯云TI
DeepSeek在DeepSeek-V3、DeepSeek-R1、DeepSeek-R1-Distill这三大模型中表现成绩优异,目前腾讯云TI平台已上架DeepSeek全系模型,并且平台限时免费开放DeepSeek模型的免部署在线体验,支持DeepSeek-R1和DeepSeek-R1-Distill-Qwen-1.5B两款模型,便于开发者直观比较“最大杯”和“最小杯”的性能差异。
所以云巴巴选择在腾讯云T1平台为大家介绍,选用尺寸相对最小的 DeepSeek-R1-Distill-Qwen-1.5B模型进行部署实践。其他模型的操作流程类似,仅需注意算力资源的配置差异。
DeepSeek的部署操作指南
前置准备工作
模型:TI平台已将DeepSeek模型内置在大模型广场中,可直接选择模型并一键部署。
资源:1.5B的DeepSeek模型对算力需求较小,单张中端GPU卡即可支持其推理服务。这其中有多种计费模式选择。
按量计费。对于仅需短时体验或所需算力较小的用户,机器来源推荐选用“从TIONE购买”,并选用“按量计费”模式。该模式无需提前准备算力。开始部署时,平台会自动分配资源并进行计费。
包年包月。对于已购买CVM机器或需较大、稳定算力的用户,机器来源推荐选用“从CVM 机器中选择”,并选择对应的资源组。该模式下需要提前购买好CVM机器并添加至TI平台资源组。
需要注意的是,如部署DeepSeek R1、V3模型,需要使用HCCPNV6机型,该机型需联系可以联系我们进行开通。
步骤一:部署模型服务
1、登录腾讯云TI平台 ,在大模型广场页面,您可看到TI内置的开源大模型卡片。
2、单击进入“DeepSeek系列模型”卡片,查看模型详细介绍。
3、在模型详情页面,单击新建在线服务,跳转至“模型服务>在线服务>创建服务”页面配置部署参数。
4、按页面提示填写配置信息。
服务名称:输入您的自定义的服务名称。如:“demo-DeepSeek-R1-Distill-Qwen-1_5B”。
机器来源:支持“从CVM机器中选择”和“从TIONE平台购买”两种模式。本例采用“从TIONE平台购买-按量计费”。如果您选择从“TIONE平台购买”选项时无法选到您所需要的 GPU机型,说明在TI平台中暂无该机型的库存,此时您须选择“从CVM机器中选择”,然后自行购买CVM机器并添加至TI平台资源组。
部署方式:选择“标准部署”。
服务实例:
模型来源:选择“镜像”类型。
模型和运行环境:选择“内置大模型/DeepSeek 系列模型/DeepSeek-R1-Distill-Qwen-1.5B”。
算力规格:单张中端GPU卡。
5、授权并同意《腾讯云TI-ONE训练平台服务协议》,单击底部启动服务,正式发起服务部署。
步骤二:体验模型效果
1、服务部署完成后,在“模型服务>在线服务”页面的列表中,其状态将显示为“运行中”。DeepSeek-R1-Distill-Qwen-1.5B模型的部署时长预计为1-2分钟。
2、单击列表中的在线体验,进入模型快速体验页面。可通过前端页面直接提问,体验模型效果。
步骤三:调用模型推理API
腾讯云TI平台在线服务模块内置了接口调用测试功能。此外,您还可以使用命令行等工具对测试API调用。测试完成后,您可以以API调用方式将模型接入AI应用。
方式一:使用TI平台内置工具测试API调用
1、在“模型服务>在线服务”页面的列表中,单击刚部署的服务的名称,跳转到服务详情页。
2、进入服务详情页的“服务调用”Tab,在页面底部可看到“接口信息”版块。
3、在“接口信息”版块的输入框中,输入接口和请求信息,进行接口测试。
4、完成信息输入后,单击发送请求,稍作等待,“请求响应”框中将显示模型返回的响应结果。
方式二:使用命令行工具测试 API 调用
1、在上述的“接口信息”版块中,在下图位置1处输入接口名。输入完成后,单击位置2处的复制按钮,复制完整的 API 调用命令头。
2、在命令头最后追加参数 -d'{REQ_BODY}',得到完整命令。其中{REQ_BODY} 为请求体,请按照上文中“使用平台在线测试功能调用API”的第3点给出的格式填写。
3、将完整命令输入到已连接到公网的计算设备的命令行工具中并执行,命令行中将返回模型的输出。
方式三:使用第三方应用开发工具调用API
完成模型部署后,如果您需要在您的AI应用中进行接入已部署的模型服务,可以将服务API 的信息配置到相关平台或系统中。
步骤四:管理推理服务
您可以通过访问“模型服务 > 在线服务 > 服务详情”页面查看并管理推理服务。包括但不限于:停止/重启/删除服务、查看服务配置信息、实例列表、监控图表、容器事件、日志、更新记录等。
超好用的智能开发服务平台:腾讯TI
部署了DeepSeek的腾讯TI效率更高了!作为腾讯云面向开发者、政企提供的一站式人工智能开发服务平台,TI既可以应用于传统AI/ML场景,也可以应用于生成式AI场景,客户不需要再去找单独的MaaS平台。
TI平台打通了从数据标注、数据构建,到模型训练、模型评估、模型部署,再到AI应用开发和落地的全流程链路,并且与鹅厂公有云基础设施(存/算/网/安能力)无缝衔接,开箱即用。
解决模型选择困难。TI平台预置了鹅厂自研的混元大模型和行业大模型,并优中选优,全面接入主流开源模型,同时提供通用训练框架和推理加速框架。
解决数据清洗和标注难题。TI平台预置了一套数据清洗pipeline脚本,这可是腾讯优图算法专家沉淀多年的清洗大模型数据的经验,开箱即用。同时腾讯云TI平台的大模型标注工具非常灵活,特色创立了基于schema(数据集的结构和格式)的定义方式,可以完全自定义工作台,让标注更方便。
精调过程稳定高效易用。TI支持低代码、灵活自定义两种精调模式自由选择,并预置了训练镜像,快速发起训练,简单易用。同时,TI基于鹅厂自研的“Angel”加速能力,让训练和推理的速度更快,资源消耗更少。
相信通过上述详尽的步骤指导,你已经掌握了如何将DeepSeek融入自己的项目或产品中。但在实际应用过程中,可能会遇到各种挑战和问题。但无论是在进一步优化模型性能、调整资源配置,还是探索新的应用场景方面,云巴巴专业的团队可以提供帮助和支持。如果你有任何疑问或需要进一步的帮助,请随时联系我们。
云巴巴(Yun88.com)是中国领先的企业数字化服务平台,为客户提供数字化咨询、产品选型和采购的一站式服务,平台合作2000+厂商,上线20000+产品和方案,100+的数字化咨询顾问,致力于实现客户数字化转型的降本增效。
1月16日,2025腾讯产业合作伙伴大会在三亚召开。云巴巴,荣膺“2024腾讯云卓越合作伙伴奖—星云奖”和“2024腾讯云AI产品突出贡献奖”双项大奖
前两日,探域正式发布业内首个电商全流程AI Agents平台——探域电商智能体,来实现电商企业的更智能化的运营。
旅智科技就致力于向住宿行业提供从B端到C端的管理、营销、增长一站式数智化解决方案,推动行业全面迈向数智化时代。
快麦小智作为一款高效智能客服解决方案,凭借其AI技术与深度行业洞察,持续迭代功能。最近的升级更是推出多项新功能,助力商家实现服务标准化、运营自动化与决策智能化。
面对市场上琳琅满目的企业级聊天工具,如何挑选出最适合自身业务需求的那一款呢?本文将从多个角度对企微工具进行深度测评,并分享一些实用的选型建议。