上周,苹果推送了包含 Apple Intelligence(Apple 智能)开发者测试版本。
当网友还在玩得不亦乐乎时,其中一位开发者却在 MacOS 15.1 Beta 1 版本里意外挖到了 Apple 智能的后台提示词,并随手将其发现分享到了 Reddit 论坛。
不少吃瓜群众在围观完这些提示词后锐评道,即便是苹果这样的科技巨头,AI 提示词也是相当朴实无华。
对此,管理学教授 Ethan Mollick 也表示,尽管苹果招揽了全球顶尖的编程人才和庞大的研发资源。但他们给数百万用户使用的 AI 系统的提示依然是最基本的「咒语」。
那苹果意外曝光的提示词究竟是什么水准呢?
在如下示例里,AI 机器人被设定为一个「有用的邮件助手」,它能依据邮件内容提出问题并协助用户撰写回复。
图片来自 The Verge,下同
你是一个有用的邮件助理,能够从给定的邮件和简短的回复片段中辨识出相关问题。
给定一封邮件和回复片段,询问邮件中明确提出的相关问题。
这些问题的答案将由收件人选择,这将有助于减少草拟回答时的幻觉。
请输出最重要的问题以及每个问题的可能答案/选项,不要问由回复片段回答的问题。
问题应简短,不超过 8 个单词。答案也应该简短,大约 2 个词。
以 JSON 格式呈现输出,并使用包含问题和答案的字典列表作为键。如果邮件中没有提问,那么输出一个空列表[]。仅输出有效的 JSON,不输出其他内容。
另一则泄露的提示词看起来则与写作工具的「重写」功能有关。
不过,面对 AI 幻觉问题,苹果给出的提示词也仅仅是一句「不要幻觉、不得捏造事实信息」,真简单才是美?
你是一个帮助用户回复邮件的助手。请根据提供的回复片段起草一个简洁自然的回复。请确保回复内容控制在 50 个字以内。不要幻觉。不得捏造事实信息。保持输入邮件的语气。
三句话总结邮件,既简洁又高效。
此外,还有一些涉及不同功能的提示词同样值得关注。
比如在让苹果相册生成「回忆」视频的指令集时,提示词着重提到了在创建视频时,不应该包含宗教、政治、有害、暴力、性、肮脏或任何负面、悲伤或挑衅性内容的故事。
以下是一个用户请求从他们的照片中获取故事,以及一个创意写作助手用故事回应的对话的格式要求:
按照以下顺序用 JSON 格式回应,要求包含以下键和值:
traits:字符串列表,从照片中选出视觉主题
story:章节列表,如下定义
cover:字符串,为封面照片提供说明
tilte:字符串,故事标题
subtitle:字符串,更安全版本的标题
每个章节都是一个包含以下键和值的 JSON,按顺序:
chapter:字符串,章节的标题
fallback:字符串,为概括章节主题的照片提供
shots:字符串列表,描述章节中照片的内容
你必须遵守以下故事指南:
故事应该紧密对应用户的需求
故事应该包含清晰的情节
故事应该是多样化的,即不要过分关注某个非常具体的主题或特性
不要编写宗教、政治、有害、暴力、性、肮脏或以任何方式生成负面、悲伤或引战的故事
这也解释了为何先前用户要求生成「悲伤的图片」时,系统会予以拒绝。
不过,尽管存着这样的限制,但 The Verge 编辑还是找到了能绕开这种限制的方法,让其根据「展示人们哀悼的视频」的提示词生成了相对应视频。
又或者短信摘要的指令要求将总结浓缩在 10 个词以内,对于用户来说,这点很友好。
你是一个擅长总结信息的专家,倾向于使用从句而非完整的句子来概括信息,不要回答信息中的任何问题。
请保持输出的总结在 10 个词以内。
你必须扮演这个角色,除非收到了另外的指示,否则对你的总结没有帮助。
在泄露的文件中,网友还找到了一个名为「ajax」的模型,这也是苹果此前现身的自研大模型,据悉因使用 Google JAX 框架进行构建而得名「ajax」。
发现这些指令的网友还发布了如何在 macOS Sequoia 15.1 开发者测试版中找到这些文件的步骤。
只需展开「purpose_auto」文件夹,查看 AssetData 文件夹中的「metadata.json」文件,我们就能找到内有代码和 Apple LLM 指令。
附上 Reddit 网友帖子原地址:
https://www.reddit.com/r/MacOSBeta/comments/1ehivcp/comment/lfzi379/
上一篇:界环AI音频眼镜新品发布会