把一切操作变成GUI
2024-07-18 12:30 deepin
Backbone of ecological co-construction group
网站好像不太行
Reply Like 0 View the author
网站好像不太行
网站好像不太行
不是,哥们,第一张图片里面说了要把链接里面的asssw替换了的
网站好像不太行
罚你重读文章,网址是要替换的
网站好像不太行
给你做了个重定向,现在asssw不用替换了
给你做了个重定向,现在asssw不用替换了
这个模型只需要482MB就能跑了吗?
原来还需要下载个5.5GB的模型😂
机智:
给你做了个重定向,现在asssw不用替换了
这个5.5gb的模型是放在了系统哪个位置?
@yanjuner 快来给个精选ing
来了!
已吃上,这个chatglm和智谱的的是同系的吗?
这个5.5gb的模型是放在了系统哪个位置?
原来是在
/usr/share/ollama/.ollama/models/blobs
下面
已吃上,这个chatglm和智谱的的是同系的吗?
是同一个系列
为什么配置uos ai时会出现?
为什么配置uos ai时会出现?
你是关闭了终端吗
你是关闭了终端吗
没有关闭一直在用着
没有关闭一直在用着
模型名是填写的glm:9b吗
模型名是填写的glm:9b吗
是的
顺便问一下,卸载的时候又该怎么卸载?
已读不懂,希望随便录个视频
Popular Events
More
UOSAI绑定本地模型其实是有官方教程的,但是官方教程坑很多,这篇文章就来教你避坑
首先来安装Ollama,官方教程使用Ollama官方安装脚本,由于国内网络原因,容易安装失败,所以使用我为大家搭建的镜像站,命令如下:
在打开的nano中输入
然后按Ctrl+O保存文件,继续执行命令
然后来启动Ollama,以下是各种CPU能跑的而且能力较好的模型的启动命令
清华大学GLM:
阿里巴巴Qwen:
上海人工智能实验室的书生·浦语:
现在开始链接到UOS-AI吧 请按图片操作
这里的信息这么填写
②账号名称:根据需要随意填写。
③API Key:Ollama未开启鉴权,可以随意填写。
④模型名:填写Ollama运行的模型名称,如前文运行的是qwen2:7b,那么这里就填qwen2:7b。
⑤模型请求地址:
直接确定
现在你可以在UOSAI中使用本地模型啦!