有了J3R200卡以及读写器后我想到要玩的就是基于Java卡模拟金融交易流程去构造一个Token卡的概念。毕竟谁知道以后是不是会有现实场景需要付费调用LLM,需要每个人自备相应模型的Token卡呢。
简单构想了下,首先我假设我的Python后端调用LLM这个过程是安全的,或者说这是部署在比如Kimi服务器上的后端。首先把 Kimi 的 API Key 写入卡片的EEPROM并读保护。我插卡后,Python客户端发起随机数Challenge,向卡片请求释放Key。用户输入PIN码后 ,卡片使用临时协商好的RSA公钥对API Key进行加密,输出密文。若是想加上DH也是可以的,只不过DH之后要做个HMAC-based的KDF。
最后Python客户端在内存里校验和解密,获得明文的API Key,然后调用LLM。
不过以上均是为了学Java卡瞎想出来的一个场景。
虽然有点荒诞,但Token卡如果真的存在,以后会不会有人拿着自己的Token卡抢着“买单”呢?
“别争了,今晚就用我的Kimi”
“最近手头有些紧,能不能借你的豆包卡刷一下?”
========
继续瞎想。对于一款软件来说,从源代码到可执行文件可能有个编译的过程,而源代码是不一定开放的。虽说即便开源也有一些办法商业化,但闭源可能是更加可靠的商业化路线。
但在AI时代,prompt、SKILL.md都是明文文本。假如,我说假如这些提示词都是有价值的,那未来会不会有一种机制可以打包加密一段prompt,可以给用户付费有限次数调用?
加密一段文本,只能让云端LLM去处理这可能不算特别困难。但在会话中防止提示词泄露可能是更加难的课题。
如果能做到,或许是有一定价值的。不过大模型迭代发展很快,这可能也真的只是一种瞎想。可能到在“付费 XX SKILL”的介绍页,单靠简介就可以让大模型自己复刻一个出来。
除非这个提示词包含了一些很有价值很关键的上下文信息。但这种场景似乎也比较少见。
