← 返回首页

AI不能做之事的精确追问

发布时间: 2026-04-23 15:39(北京时间)

摘要: 作者以维纳的机器论为引,探讨AI能力边界的追问方式,强调精确任务定义的价值,并质疑“提示词不够好”的归因,提出将模型能力视为系统一环的积极优化视角。行文理性思辨,带有元分析色彩。

标签: AI能力边界, 任务定义, 提示词优化, 系统思维, 元分析, 思辨, 理性

字数: 626

原文链接: /7402396589/QC8taCe0U

今日碎碎念

“You insist that there is something a machine cannot do. If you tell me precisely what it is a machine cannot do, then I can always make a machine which will do just that.”

这句话如果非得想明白是对的还是错的,我觉得是有些浪费的。但如果仅作为一种思考问题的方式,我觉得还是蛮有用的。

比如可以把原句中的“machine”换成“AI”继续想往下,有什么事情目前是AI没办法做的,我们对完成这件事的定义是否已经足够精确。再进一步想,如果这项我们认为已经定义清楚的任务目前AI还做不到/做不好,瓶颈是在哪里呢?

说“提示词不够好”我感觉是有些问题的。假如对任务已经有足够精确的定义,是不是就意味着提示词其实是可以写得足够好。或者说,这个定义是不是还不够精确。

如果说是模型水平问题并且我把自己定义成“模型使用者”,那老老实实等待模型迭代到能够完成任务的那一天?这样想似乎有些消极被动,可能把解决问题的工具看成一个系统,模型能力只是其中一环会更加积极一些,这样可以慢慢折腾系统的优化。

其实我有点好奇,现在的AI领域是否存在某种任务,就像Shor算法那样,有着明确的定义甚至能够证明这份Prompt就是“能做”这件事的,但能够接受这份Prompt的大模型还不存在。