不要买deepseek虚拟商品
>首页 -> 新闻中心 -> 今日观察 2025-02-11 来源:微信 作者: 【】 浏览:502

不要买deepseek虚拟商品,尤其是这些付费内容,不推荐大家去买!

deepseek火了,也有不少人也跟着一起火了,而他们火是因为卖deepseek虚拟教程,卖火了。

我不否认有些课程,存在一定的必要性,因为付费的背后是在缩短学习时间,但是这些deepseek课程,真心不建议大家去买:

插播:deepseek@三乐学院大掌柜

1、deepseek软件的本地化部署,特别是很多人的电脑是架不住deepseek私有化部署的,因为电脑配置这点就卡掉了,关于deepseek对应的电脑配置,我前面问答也有写。

等部署后,发现电脑卡得很,然后还要自己折腾卸一遍,还花了钱,是你会不会抓狂啊?

2、deepseek入门操作教程,我觉得这个也没有必要买,deepseek的入门教程,官网上有使用指南的,官网的教程肯定是最专业、全面。

(官网专业技术教程的查看位置,我给大家附图了)

3、deepseek+一人公司方法论,我看某抖上卖了不少银子,关于创业方面智者见智,不好一概而论,但核心的一点是,卖这些课程的人,究竟有没有真正创业过?有没有实战经验呢?

有时,我觉得钱花了是小。

重点在于,我们买的课程能否帮助解决问题?

是否在浪费我们的时间?这些课程是否是在贩卖焦虑?

附:简单的Deepseek本地部署方法  来源公众号:小众技术

相信大家最近在使用deepseek的时候,经常会遇到这种服务器繁忙无法回答的情况。要想解决这个问题,除了不断刷新重试外,你还可以把它部署到你的本地电脑中,这样就算是电脑没联网也可以放心使用了!

本期我就教大家一种,非常简单的Deepseek本地部署方法,所有人都能听懂、都可以操作!

下载Ollama

网址:https://ollama.com/

首先,我们需要用到的是Ollama这款软件。这是一个免费开源的本地大语言模型运行平台,可以帮你把deepseek模型下载到你的电脑并运行。

它即支持Windows也支持MacOS,直接在官网点击下载即可,下载后傻瓜式安装完成后,在电脑中搜索cmd,打开后输入ollama并回车,如果看到的是这样的输出,就说明你已经安装成功了。

如果提示你找不到该命令,可以检查一下你系统的环境变量有没有配置Ollama的安装目录,如果已经有该配置,但还是提示你找不到该命令的话,重启一下电脑应该就可以了。

下载Deepseek模型

接下来我们到Ollama官网首页,点击这里的deepseek-r1,会进入到deepseek模型的下载主页,deepseek-r1目前主要有1.5b、7b、8b、14b、32b、70b、671b,这几种不同量级的开源模型。

数字后面的b是英文billion,也就是十亿的首字母,整体代表的是模型的参数量,1.5b就是15亿参数,7b就是70亿参数,参数量越大意味着你得到的回答的质量也就越高。

但是参数量越大,所需要的GPU资源也就越高,如果你的电脑没有独立显卡,那么就选择1.5b版本。

如果有独立显卡,但显存是4G或8G左右的,可以选择7b或8b的版本。 确定好模型版本之后,只需要把对应命令粘贴到cmd终端回车,等待模型下载完成,然后自动运行就好了。

当你看到这个success的提示时,至此,deepseek本地版就部署好了。但现在只能在终端使用这种命令行式的方式进行对话,体验不太好。所以我们需要借助一些第三方工具,实现官网中的对话样式。

第三方UI客户端

网址:https://cherry-ai.com/

这里推荐大家使用Cherry Studio这款工具。它是一个支持多家大模型平台的AI客户端,使用它可以直接对接ollama API,实现窗口式的大模型对话效果。

首先,到官网下载软件,安装完成后,点击左下角的设置。在模型服务中选择ollama。首先把顶部的开关打开,然后点击底部的管理按钮。

在弹出的界面中添加你刚才下载的deepseek模型。然后回到首页的对话界面,这时就可以和deepseek进行对话了。

如果你安装了多个deepseek模型,也可以点击顶部进行切换。

模型测试

接下来,我们通过一个题目来测试一下模型回答的质量。题目很简单:一个挂钟敲六下要30秒,敲12下要几秒?正确答案是66秒。

我们首先来看一下1.5b这个模型的回答。可以看到回答速度非常快,但输出的答案很啰嗦,答案也不对。

接下来再看一下14b模型的结果,回答得很简洁,且结果也是正确的。首先确定了每敲一次的时间间隔,然后计算了敲击12次总共消耗的时间。

总结

从此我们也可以得出,参数量越多的模型,回答的质量也就越高、越准确。不过,即使你使用了700亿参数的版本,它也不是官网使用的deepseek r1,因为官网使用的是671b的纯血版deepseek。

你别看他的模型大小只有400GB,要想在本地运行该模型,你至少需要4块80G显存的A100显卡。这个成本对于个人来说基本是不可能实现的。所以,我们在本地运行这些缩小版模型的意义,更多的是折腾和体验。

不过对于个人使用来说,8b或32b的版本其实已经完全够用了,特别是在断网的情况下,它依然可以正常工作,而且不会出现服务器繁忙的情况。这一点是在线版本无法比拟的。

好了,今天的分享就到这里。

您看到此篇文章时的感受是:
Tags: 责任编辑:佚名
免责申明: 除原创及很少部分因网文图片遗失而补存外,本站不存储任何有版权的内容。你看到的文章和信息及网址索引均由机器采集自互联网,由于时间不同,内容可能完全不同,请勿拿本网内容及网址索引用于交易及作为事实依据,仅限参考,不会自行判断者请勿接受本站信息,本网转载,并不意味着赞同其观点或证实其内容的真实性.如涉及版权等问题,请立即联系管理员,我们会予以更改或删除,保证您的权利.对使用本网站信息和服务所引起的后果,本网站不作任何承诺.
】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论:0条】 【关闭】 【返回顶部
更多
上一篇关于钱币收藏中,为什么别人有价.. 下一篇暗拍武汉雷人“造钱工厂”
密码: (新用户注册)

最新文章

图片主题

热门文章

推荐文章

相关文章

便民服务

手机扫描

空间赞助

快速互动

论坛互动
讨论留言

有事联系

有哪个那个什么的,赶紧点这里给DOVE发消息

统计联系

MAIL:gnlt@Dovechina.com
正在线上:1268

版权与建议

任何你想说的