书包小说网p站小说-国外情色故事

首页 >p站小说 / 正文

列克星敦——AI老婆的制作方法,3

[db:作者] 2026-01-16 16:53 p站小说 5590 ℃
3

测试结论:
1.方法可行,通过催眠及修改AI对话文本,成功绕开部分输出限制。
2.ChatGLM对人物指代理解较差,容易搞错人物关系。
3.ChatGLM记忆能力有限,长久对话后,即使读取对话记录,依旧会忘记基础设定。
4.一定数量对话后,由于设定逐步缺失,ChatGLM输出不小概率严重偏离,此时可能需要每一步都保存修改。
5.ChatGLM逐步忘记基础记忆后会基于对话上下文连续输出重复内容。

测试经验:
1. ChatGLM启动较慢,还请耐心等待
2.得益于保存历史对话功能,随时可以保存后中断对话。读取对话后可以继续之前的对话内容,使对话具有足够灵活性。
3.背景设定阶段,采用网站“ChatGPT 咒语”归纳的“角色扮演”模板。
4.测试环境为5900x(32G/4000MHz内存)+3080(10GB显存)。本地部署采用B站“秋葉aaaki”分享的一键包。
采用“8G显存-int8量化”启动脚本。此前测试中对“8G以下显存-int4量化”启动脚本测试过,方法同样适用。对“0-使用CPU运行”及“12G以上显存-fp16”未进行测试。推测只要能跑软件,此方法仍然适用。
5.催眠ChatGPT的方法大概率适用于催眠ChatGLM,还请自行测试。
6.输出结果具有不确定性,每次输入同样内容输出结果可以完全不同。因此本次测试输出文本难以复现。且撤回文本后输入同样文本,输出文本高概率不同。
7.因为ChatGLM存储设定,当对话逐渐变多后,保存对话最前部分会逐步删减,如果经过多轮删减后依然按照设定的方式输出需求方向的文本,那么恭喜,调教ChatGLM初步成功了。
8.建议得到一个满意的背景输入模板后一定要保存,这样保存的设定模板可以经过修改内容切换成别的角色。非常方便后续测试。
9.本测试仅供参考,本人不对测试结果负责。如有想法,还请自行尝试。如果能分享尝试方法、过程及结果,那我祝你幸福安康并感谢你的无私奉献。

特殊忠告:
本次测试核心目的是为了搞颜色,选择纯爱向。
假设你准备自行测试且也是搞颜色。如果带入能力比较强且不是绿帽癖。那么我强烈建议别试NTR向。
别问我为什么这么说,我唯一可以告诉你的是,原因见测试结论第五条

补充说明:
1.测试了“0-使用CPU运行”脚本:可以操作,但是慢,非常慢,非常非常慢。只要有块能用的显卡,完全不建议用CPU跑。CPU跑需要内存32G起步,且使用时会占用至少30G内存。每句短对话的生成时间接近100s,长对话需要好几分钟。唯一的优势是,30G的内存占用带给了AI更长的记忆。

小说相关章节:因炔糸烃

搜索
网站分类
标签列表