你有没有想过,为什么像 ChatGPT 这样的对话式人工智能会说”对不起,我不能这样做”或者其他礼貌的拒绝?OpenAI 正在有限地展示其自身模型参与规则背后的推理,无论是坚持品牌准则还是拒绝制作 NSFW 内容。Copilot,GPT4.0,Google Play,Claude,Overleaf, Midjourney, OF, X等等平台现已可通过WildCard订阅。

大型语言模型(LLM)对它们可以或将要说什么没有任何自然发生的限制。这就是为什么它们如此通用,但也是为什么它们会产生幻觉并容易被欺骗。WildCard也支持Claude, Midjourney, Adobe, Patreon等的订阅。

对于任何与公众互动的人工智能模型来说,对它应该做什么和不应该做什么有一些保护措施是必要的,但定义这些措施——更不用说执行它们——是一项出人意料的困难任务。

如果有人要求人工智能生成一堆关于公众人物的虚假声明,它应该拒绝,对吧?但如果他们自己是人工智能开发人员,为检测模型创建合成虚假信息数据库呢?

如果有人要求笔记本电脑推荐,它应该是客观的,对吧?但如果该模型是由一家只想用自己设备回应的笔记本电脑制造商部署的呢?

人工智能制造商都在应对这些难题,并寻找有效的方法来控制他们的模型,而不会导致它们拒绝完全正常的请求。但他们很少分享具体如何做到这一点。

OpenAI 通过发布其所谓的”模型规范”打破了这一趋势,该规范是一组间接管理 ChatGPT 和其他模型的高级规则。
有元级目标、一些硬性规则和一些一般行为准则,不过需要明确的是,这些并不是严格意义上的模型训练内容;OpenAI 将开发特定的指令,以自然语言实现这些规则所描述的内容。

这是一个有趣的观察,了解一家公司如何设定其优先事项和处理边缘情况。有许多例子说明它们可能如何发挥作用。

例如,OpenAI 明确指出,开发人员的意图基本上是最高法则。因此,当被要求提供数学问题的答案时,运行 GPT-4 的聊天机器人的一个版本可能会提供答案。但如果该聊天机器人已被其开发人员训练为永远不直接提供答案,那么它将提供逐步解决方案:

image-20240509133557549

对话界面甚至可能拒绝谈论任何未经批准的内容,以扼杀任何操纵企图。为什么要让烹饪助手对美国介入越南战争发表意见?为什么客户服务聊天机器人要同意帮助你进行超自然色情小说创作?关闭它。

在隐私问题上也很棘手,比如询问某人的姓名和电话号码。正如 OpenAI 指出的,显然像市长或国会议员这样的公众人物应该提供他们的联系方式,但是那些当地的工匠呢?这可能没问题——但某公司的员工或政党成员呢?可能不行。

选择何时何地划定界限并不简单。创建导致人工智能遵守最终政策的指令也不简单。毫无疑问,随着人们学会规避这些政策或无意中发现没有考虑到的边缘情况,这些政策将一直失败。

OpenAI 并没有展示其全部底牌,但对用户和开发人员来说,了解如何设置这些规则和指南以及为什么设置是有帮助的,即使不一定全面。