[Share Experiences] Cherrystudio 可视化部署离线deepseek R1做翻译
Tofloor
default avatar
刘政
deepin
2025-02-08 17:01
Author

前几天看了几篇原版教材,可惜英语水平有限,看到头都大了。使用百度翻译胡说八道,有道翻译需要大几百会员。寻思上网找一下免费软件,结果看到有兄弟分享了cherrystudio + qwen:1.5b 做翻译。突然灵感一闪,我本地部署deepseek,何不尝试一下呢?截图_选择区域_20250208225211.png

官方下载太慢,改网盘下载。

截图_选择区域_20250208232121.png

下载安装:
截图_选择区域_20250208232213.png

配置好模型:

截图_选择区域_20250208232522.png

截图_选择区域_20250208232445.png

截图_选择区域_20250208232418.png

随手输入一串英文搜一篇文章输入翻译一下:
截图_选择区域_20250208234634.png

凡是懂一点四六级的老兄都知道则个翻译简直是胡说八道。

尝试一下其他,发现除了纳米ai 全都要注册,翻译一下看看:

截图_选择区域_20250208235052.png

不管对不对,起码顺眼多了。小模型翻译靠不住啊,起码也要找一个机器翻译模型。突然想一下,7b和14b的跑一下试试:

7B的:
截图_选择区域_20250209001327.png

截图_选择区域_20250209001745.png

顺眼多了,仔细对比一下,专业术语还是不大行,速度一秒10个字左右,有点慢。看看14B的。

截图_选择区域_20250209002005.png

截图_选择区域_20250209005528.png

嗯,好多了。一秒4个字太慢了。

总结如下:

1、单机部署大模型翻译需要至少14b以上,不如直接调用在线大模型API。

2、请问deepin有没有免费翻译的软件,麻烦老哥们推荐一下?

3、有没有专业开源机器翻译模型推荐一下?confused

Reply Favorite View the author
All Replies
把一切操作变成GUI
deepin
Backbone of ecological co-construction group
2025-02-08 17:53
#1

应该是独立显卡不太够,所以比较慢

不过哪怕是rtx4060,本地上也不会快很多

Reply View the author
HualetWang
deepin
2025-02-09 02:03
#2

端侧模型要达到你期望的效果,还是要等硬件发发力。现在确实就是玩一玩、融合进部分功能方便使用等等。

线上买一点token现在也很便宜。

以前的翻译专业模型做得再好的都没有LLM做得好 😂

Reply View the author
raspbian
deepin
2025-02-09 03:18
#3

实测翻译不可行

Reply View the author
krisd
deepin
2025-02-10 07:21
#4

AI 在线效果比离线模型要好,普通用户需求没必要部署本地模型

Reply View the author