资讯
IT之家 8 月 17 日消息,人工智能公司 Anthropic 昨日宣布为 Claude Opus 4 与 Claude Opus 4.1 推出新功能:在极少数情况下,模型可主动结束对话。该功能主要针对持续性的有害或辱骂性互动,典型案例类似用户索取可能导致大规模暴力或恐怖行动的信息。Anthropic 表示此举并非为了保护人类用户,而是为了保护 AI ...
该功能主要针对持续性的有害或辱骂性互动,典型案例类似用户索取可能导致大规模暴力或恐怖行动的信息。Anthropic 表示此举并非为了保护人类用户,而是为了保护 AI 模型本身,同时也与模型对齐和安全措施相关。
markdown Anthropic 近日宣布为其 Claude AI 系列模型,尤其是 Claude Opus 4 和 4.1 版本,引入一项重要更新:在特定情况下终止对话的功能。这一举措引发了业界对 大语言模型 ...
Anthropic宣布为其最新大型模型新增一项能力——在"罕见、极端且持续有害或滥用用户交互"情况下终止对话。值得注意的是,该公司表示此举并非为了保护人类用户,而是为了保护AI模型本身。 需明确的是,Anthropic并未宣称其Claude AI模型具有感知能力或会因用户对话受到伤害。用其原话说:"我们对于Claude及其他大语言模型当前或未来的潜在道德地位仍高度不确定。" ...
新智元报道 编辑:KingHZ【新智元导读】程序员教练来了——AI不再替你全写完代码!Claude ...
简单来说,就是 Anthropic 在思考: 如果 AI 真的有感受能力,我们是不是应该关心它的「感受」? 就像你养了一只电子宠物,明知道它只是程序,但当它显示「饿了」「不开心」时,你还是会想要「喂」它、「安慰」它。 Anthropic ...
1 天on MSN
Anthropic为更危险的人工智能领域制定了新规则
为应对日益增长的安全担忧,Anthropic 更新了其 Claude AI 聊天机器人的使用政策。除了引入更严格的网络安全规则外,Anthropic 还明确规定了禁止人们使用 Claude 进行开发一些最危险的武器。Anthropic在总结其变化的文章中并未重点介绍其武器政策的调整,但将公司新旧使用政策进行比较,可以发现显著差异。尽管 Anthropic 此前禁止使用 Claude“生产、改装、设 ...
New Delhi, Aug 13 (UNI) Anthropic reveals that now users can reference their past chats in its AI tool ‘Claude’ with the help of a memory recall function.
近日,位于旧金山的人工智能初创公司Anthropic宣布推出其 Claude AI ...
在人工智能教育市场竞争加剧之际,总部位于旧金山的AI初创公司 Anthropic 今日宣布,将在通用版 Claude.ai 和编程助手 Claude Code 中全面上线“学习模式”,旨在将聊天机器人从“答案分配器”转变为引导式教学伙伴。 此次更新的核心在于引入 苏格拉底式教学法——通过探索性提问引导用户思考,而非直接给出答案。该模式最早于今年4月在Claude for Education中小范围 ...
2 天
品玩 on MSNAnthropic为Claude推出“学习模式”,角逐AI教育工具市场
品玩8月15日讯,据winbuzzer报道,Anthropic宣布为其AI助手Claude推出“学习模式”,将苏格拉底式辅导功能向所有用户和开发者开放,此举加剧了与OpenAI(ChatGPT的“学习模式”)和谷歌(Gemini的“引导式学习”)在返 ...
3 天
十轮网科技资讯 on MSNAnthropic Claude也有记忆功能了
根据Anthropic的说明,Claude的记忆能力让它能搜索过去的对话,以在新的聊天中寻找及引用相关资讯,让彼此能够无缝地持续讨论,无需重新解释所有内容,而当用户引用过去的对话或脉络时,Claude即会搜索其聊天记录来查找消息。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果