感谢大佬的分享 |
感谢分享 |
感谢分享 |
非常实用!感谢提供! |
8b比官方网页满血版如何? |
支持分享 拥抱AI |
谢谢分享。。。。。。。 |
6666666666666666666666666 |
感谢分享 |
在线的现在用着也还行了 |
plutoshen 发表于 2025-2-5 16:36 知道吗,cuda runner 占差不多1G,你显卡不支持 cuda 12 就把 cuda 12 runner 删了,省500M |
感谢分享 |
连接 Ollama API 失败。这通常是由于配置错误或 Ollama API 账户问题。请检查您的设置并验证您的 Ollama API 账户状态。 |
plutoshen 发表于 2025-2-14 20:15 9600kf+32g,试了下本地化,特别卡。这还是冬天。没有12代以上cpu的性能还是别试了。 |
下载好的数据是在那里?我想移动到非C盘 |
有没有傻瓜式一键配置完成 |
感谢分享 |
感谢分享, |
这个太大了 |
感谢楼主分享![]() |
谢谢楼主分享! |
谢谢分享! |
hkl7366 发表于 2025-2-8 11:28 我一个人使用。 |
感谢分享,准备试试 |
刚刚想用deepseek询问一个生活中的常识,结果告诉我服务器繁忙,请稍后再试。(再牛的算法也架不住中国人多啊),所以搭本地服务局域网内共享使用一直是我的理想配置。 |
15126222223 发表于 2025-2-7 10:55 楼主,请问您这配置本地安装后,能提供给局域网内大约多少人使用? |
这个R1是满血的吗 |
我就在线用 |
Powered by Discuz! X3.3
© 2001-2017 Comsenz Inc.