把一切操作变成GUI
deepin
2025-02-08 17:53 Backbone of ecological co-construction group
应该是独立显卡不太够,所以比较慢
不过哪怕是rtx4060,本地上也不会快很多
Reply Like 0 View the author
应该是独立显卡不太够,所以比较慢
不过哪怕是rtx4060,本地上也不会快很多
端侧模型要达到你期望的效果,还是要等硬件发发力。现在确实就是玩一玩、融合进部分功能方便使用等等。
线上买一点token现在也很便宜。
以前的翻译专业模型做得再好的都没有LLM做得好 😂
实测翻译不可行
AI 在线效果比离线模型要好,普通用户需求没必要部署本地模型
Popular Ranking
ChangePopular Events
More
前几天看了几篇原版教材,可惜英语水平有限,看到头都大了。使用百度翻译胡说八道,有道翻译需要大几百会员。寻思上网找一下免费软件,结果看到有兄弟分享了cherrystudio + qwen:1.5b 做翻译。突然灵感一闪,我本地部署deepseek,何不尝试一下呢?
官方下载太慢,改网盘下载。
下载安装:

配置好模型:
随手输入一串英文搜一篇文章输入翻译一下:

凡是懂一点四六级的老兄都知道则个翻译简直是胡说八道。
尝试一下其他,发现除了纳米ai 全都要注册,翻译一下看看:
不管对不对,起码顺眼多了。小模型翻译靠不住啊,起码也要找一个机器翻译模型。突然想一下,7b和14b的跑一下试试:
7B的:

顺眼多了,仔细对比一下,专业术语还是不大行,速度一秒10个字左右,有点慢。看看14B的。
嗯,好多了。一秒4个字太慢了。
总结如下:
1、单机部署大模型翻译需要至少14b以上,不如直接调用在线大模型API。
2、请问deepin有没有免费翻译的软件,麻烦老哥们推荐一下?
3、有没有专业开源机器翻译模型推荐一下?