一条指令让本地部署的DeepSeek R1和ChatGPT一样“好用”

之前写过一篇文章三分钟在本地运行DeepSeek R1推理模型,总结一下其实就是两句话,下载安装Ollama,拉取并使用对应的模型(比如deepseek-r1:8b)。

keyboard-4482267_960_720.webp
(图源 :pixabay)

不过这样安装以后,对面界面是黑乎乎的命令行窗口,想往上翻对话记录也非常难,复制粘贴也非常不方便,如果系统再渣一点,模型反应慢,那简直就是折磨呀。

比如下边这个问答界面,先不管回答问题的质量,光看界面,就问你晕不晕,反正我是晕了!

你可以会好奇,问题中怎么还出现了.....,那是因为还有一句话,现在,打开阀门,请问被挤到屏幕的右边了,囧!
1738628853760.png

那么有没有办法,让本地部署的DeepSeek R1,至少在界面上,使用方便性上和ChatGPT一样好用呢?答案当然是有的,那就是给DeepSeek R1加上一个WebUI。

使用哪种WebUI呢?我查了一下有不下十几种方案,不过被使用最多的貌似就是Open WebUI,那咱也别折腾别的啦,就选择这个吧。

不过貌似安装和配置Open WebUI也不是那么简单?比如网上很多方案都是使用Docker安装的,而我对Docker一无所知😳。那有没有什么适合我的方法呢?翻来翻去,发现一条指令:

pip install open-webui

不用多,就这一条指令就可以搞定Open WebUI安装。不过不知道我告诉你这一条指令足足弄了一宿还多次以失败告终,你会不会气馁呢?而失败的原因嘛,那就是因为网速!

第二天一早,继续运行这个指令,安装搞定了,来让你看看一条指令在我电脑里装了多少东西?

7f0de48683955b86175f7626410cea5.png

噗,具体有多少东西,反正我是数不过来了,也不打算数了。接下来是见证奇迹的时刻了,运行一下Open WebUI:

open-webui serve

然后噗噗噗一通输出后,它就运行起来啦:
0818a6f394d9e127b8b0b1195373f09.png

接下来,在浏览器中输入如下网址:

http://localhost:8080

如果一切正常,会打开如下页面:

5595adf33e7eb33d6ca3bf366c0ee79.png

点击上边页面的底部,Get Started,创建一个管理员账户:
2937f92d192100a0fe212ce43c74580.png

弹出的提示信息,可以直接关闭
8b69530db5775217e292a47e5d1a3f1.png

如果你之前已经成功的安装了Ollama以及相应的模型,那么将直接可以工作:
244eb72294b16565ddc04fd62636625.png

是不是很熟悉,没错,看起来和ChatGPT的对话窗口一样一样的,简直不要太方便。

让我来体验一下:
165a4d90a45df72b8bcc2516271ec83.png

这是其中的部分代码:
e11e0d2c94aa46f66f602eb101ea309.png

哦买噶,我是不是可以发币割韭菜了?哎,算了,韭菜何苦为难韭菜!

相关链接

Sort:  

强大!

纯水回复🤣 那天某用户还创造AI自动回复评论帖子,我看很快已经分不出是人还是鬼恢复了。说不定很快又如欧胸上面说,分分钟AI自行发币上链了。

配置太差了跑不动,连8b的都不一定能跑。满血那玩意是600多B的。

我真的不喜欢技术,因为它会让我感到困惑,而您是超自然的。

太厉害了,难怪说R1甚至超越GPT,但是对于我们这些代码小白来说,还是比较有难度,暂时只能限于手机APP上使用,哈哈

好及时的分享,感谢🫡

O哥大年初八发发发!🧧🧧🧧🧧🧧🧧🧧🧧🧨🧨🧨🧨🧨🧨🧨🧨
@tipu curate 7

O婶威武,国产之光!