顺着「LLM输出即PoW」的思路往下想,第一反应是可能要根据模型水平或者是输出质量来绑定一个价值系数,但这个第一反应似乎有点问题。
“差模型”的输出一定“价值低”,而“好模型”的输出就一定“高价值”吗?这也说不过去,也和输入有关。不能只看模型好坏,那假如不计代价去衡量每次输出的“价值”,这能做到吗?
想到 Floatboat 在用户认为“没有做对”的情况下可以返还这次Agent操作所消耗的额度,不知道 Floatboat 是怎么判定“是不是真的没对”的。或许要引入LLM仲裁,再加上类似信誉系统的东西。
我还试想了下,如果模型质量和获得的酬劳挂钩,那么网络中各个节点会倾向于部署质量高的模型还是质量低的模型。我的第一想法是,肯定部署又贵又好的模型,这样赚钱比较快。但细想发现太错了,假如把LLM任务看成是一个市场,那简单的脏活累活需求的占比应该不一定比高质量需求少。另外也要考虑回报率,很有可能是用闲置显卡跑小模型的回报率更高,因为成本更低。就像挖矿初期大家知道用CPU跑的收益很低,但只要算下来能赚回电费可能都会先用手头上有的CPU跑。