8月27日,据科技媒体 TechCrunch 报导了人工智能公司 Anthropic 揭露其 Claude AI 模型体系提示词的音讯。Anthropic 这一行动标明其在推进人工智能通明和品德规范方面的坚决许诺。
在提示词工程中,体系提示词和用户提示词是 AI 模型了解和生成呼应的两个中心组成部分。 一个是用户提示词,这是用户直接输入的提示词,AI 模型会根据这一些提示生成相应的答复。别的一部分是体系提示词,这是由体系生成的提示词,一般用于设定对话布景、供给辅导或规矩规矩。体系提示词协助模型了解自己的人物、基本素质以及行为鸿沟。例如,它可以奉告模型需求坚持礼貌或在不确定时坦白供认自己的局限性。
内职业界,包含 OpenAI 和 Anthropic 在内的生成式人工智能厂商,遍及运用体系提示词来引导 AI 模型的行为,以避免不良或不妥的行为。经过这一些提示,模型的口气和心情可以取得调控,保证与用户互动时的呼应愈加牢靠、安全。但是,出于安全性和竞赛优势的考虑,大多数厂商一般将这些体系提示词保密,以避免歹意用户绕过安全防护。
Anthropic 开发者联系负责人亚历克斯・艾伯特(Alex Albert)在社会化媒体渠道 X 上表明,Anthropic 计划在未来对体系提示进行更新和微调,而且将定时揭露这一些信息。这种敞开的姿势旨在推进更广泛的职业通明度,一起也为 AI 道德和安全性设立新的规范。