尚硅谷DeepSeek使用教程
更新: 1/26/2026, 9:32:20 AM 字数: 0 字 时长: 0 分钟
简介
DeepSeek普通用户可以在官网使用,开发者可以通过API开放平台调用,也可从GitHub拉取模型进行本地算力部署。
网页端默认使用的是指令模型V3可以解决搜索类问题,打开深度思考(R1)后可以解决需要逻辑推理的问题。此外,R1是为数不多支持联网搜索的推理大模型,若提问的问题在训练模型的知识截止时间之后,还可以打开联网搜索。
PS:可以通过问DeepSeek:"你训练的模型截止时间是什么时间" 来确认模型的知识截止时间
小贴士
指令模型:依赖用户指令生成内容或执行认为,如Deep Seek-V3、GPT-4o、豆包、Qwen2.5
推理模型:具有逻辑推理的能力,可以处理复杂决策的任务,如Deep Seek-R1、OpenAI-o1
如何进行提问
理论
R1是推理模型,与之前的指令模型相比,对提示词的要求是降低了的。与R1沟通可以使用乔哈里视窗划分为以下四种情况,常用的一般是标红的两种模式。
| 人知道 | 人不知道 | |
|---|---|---|
| AI知道 | 简单说 | 如何提出更好的问题 |
| AI不知道 | 喂模式: - 举例法:提供具体例子,让AI理解例子中的模式 - 定义字典:如专业术语、业内黑化 - RAG:提供本地文件、联网检索 | 开放聊 |
一般提问的模板可以采用 我是谁 (+ 背景信息) + 目标 这一固定句式。其中,我是谁 用于明确受众和风格;背景信息 用于给R1提供更多的信息。
除尽可能的描述问题外,也可以使用 联网检索 或 上传附件 等方式提供额外的信息 ,或在提问时加上如果有需要补充的信息可以向我提问的话术 以及 对R1提出反复斟酌、复盘等要求,进行反馈与迭代优化。
更多的提问技巧
① 不需在要给模型指定具体角色,R1内置的就是通识专家角色
② 超200字的冗长提示词或者宽泛话题、复杂的句式、模糊的词语都可能会污染关键词
③ 不要使用否定句式,否定句式会增加大模型成本
④ 只需要给模型目标,不要指定分步骤思考的过程 [AI知人不知时,R1的深度思考更具有价值]
⑤ 对于复杂问题,需要人工进行分步拆解 [因存在上下文联系最大长度限制]
实例
(1)MarkDown
示例1:mermaid图标
我需要了解跨境电商发货和收货具有哪些环节和流程,请用mermaid图标的语法绘制流程
图,尽可能详尽,如果有需求补充信息,可以向我提问
示例2:MarkDown表格
用MarkDown表格对比IPhone16和华为Mate70的屏幕、价格、电池和摄像头参数,参考京东
的数据。(2)DeepSeek + Kimi 制作PPT
第一步:了解新能源汽车换电站行业发展,绘制10页的PPT,以文本的形式给出PPT的详细内容
第二步:打开Kimi,选择PPT助手
第三步:将R1生成的内容发送给PPT助手,并在内容之前补充:请跟进下面内容生成一份PPT(3)写简历
我是一名本科生,xx年毕业,大学专业为软件工程,目前掌握的专业技能有Java技术,
熟悉JUc,熟悉SpringMvc工作流程,熟悉使用SpringBoot框架、MysQL数据库优化及Redis缓
存,熟练使用RabbitMQ、Nginx,熟悉Js,VUE和Thymeleaf等等。做过Java架构方面的工作。
做过线上教育行业、电商行业的的项目,做过直播相关的项目,自己带领过10人的开发团队。
现在你帮我写一份应聘Java高级工程师岗位的简历(4)模拟面试
现在你是一个Java面试官,你在面试我,我来应聘的是Java后台开发的职位,技术栈包括
java,mysql,linux,SSM,SpringBoot,SpringCloud,JVM,JUc,Redis。请结合我的技
术栈范围向我提问。你问一个问题,就等我回答一个问题。我回答后,你要评价我的回答如何,
有哪些地方不太对。然后你再问下一个问题.本地部署
可部署的Deep Seek R1模型有两个满血版,六个蒸馏版,参加这里。考虑到个人算力有限,建议部署7B的版本。
首先,下载并安装ollama,依次按提示安装完成后,在这里复制R1的安装命令,并等待安装完成即可。
ollama run deepseek-r1:7b(1)操作命令
// 启动或安装模型
ollama run deepseek-r1:7b
// 查看模型
ollama list
// 查看正在运行的模型
ollama ps
// 停止模型 或 输入 /bye
ollama stop llama3.2
// 删除模型
ollama rm llama3.2(2)修改模型存放位置
模型默认会下载到C:\Users\你的用户名\.ollama目录的models文件夹下,若想修改模型存放位置,需做如下配置:
- models拷贝到指定目录
- 将名称为OLLAMA_MODELS的PATH对应的变量值更换为新的models路径
- 重启Ollama客户端和命令行
- 输入ollama list验证