a5.gif

柳下瑜

请问20g的内存模型速度快还是7gb的显存速度快?

我的配置是3060ti+32g内存,用什么模型速度和回复质量最高?另外求个AI聊天群。今天第一次了解到是酒馆和webui使用了一下很有意思。

none.gif

7cbbceca

什么llama,gpt都行吧,去huggingface上找找看,有不少大模型是开源的

a5.gif

柳下瑜

回 1楼(7cbbceca) 的帖子

有群吗老哥

964970.jpg

dcb06d03

7gb显存还是太少了

1051175.jpg

onexph

正常情况肯定显存快,只能说3060ti跑不动显存占用大点的模型

a5.gif

柳下瑜

回 4楼(onexph) 的帖子

能不能显存内存同时调用?

1051175.jpg

onexph

回 5楼(柳下瑜) 的帖子

不能

a5.gif

柳下瑜

回 6楼(onexph) 的帖子

老哥,我发现酒馆调动本地模型文本量都有限啊,所以是不是才有了破限的概念?那怎么在后台调整文本量大小?

a5.gif

柳下瑜

回 6楼(onexph) 的帖子

老哥,为什么角色卡导入进去后跟她们聊天输出的都是角色介绍的内容?

3.gif

糸樂沢

B9F  2024-04-13 02:12
(非洲农业不太发达日本资源实在缺乏不能打架不能给他要掺金坷垃)

回 7楼(柳下瑜) 的帖子

破限应该指的是突破chatgpt或者claude这种禁止色色的模型的限制吧

Mni