早期有些想法如果直接表达出来丢给AI,AI理解出来的偏差有时候会比较大。后来我逐渐掌握了一种引导方式。
比方说,我想要深究的是C概念的一种变种。我不会先说C,而是找到一个A概念问他这是什么,再找到一个B概念问他这是什么,然后让他总结一下A和B有什么相同之处。
最后才是说“我想研究的其实是C,用到的就是A的什么和B的什么”,这样他才真正理解C是什么。
我简单想了一下可能的原理是,大模型拥有很多知识,但有时候无法直接理解没在训练集里面的出现过的信息(或者理解得比较平庸),就需要人类在提问之前多想一步,有什么前置的对话可以引导AI自己吐出一些信息。当引导足够之后再提问,有了被引导出来的上下文,交流会更加顺畅一些。
另一种理解是把AI当作数据库,某些场景下让AI自己Query的准确率可能不太高。需要人多思考几步,对上下文做一些热身活动,后面干活就更加舒服。