From bdf80dd05ca07c6b0aedd5b6465713f8b66d8e8f Mon Sep 17 00:00:00 2001 From: mei Date: Tue, 28 Jan 2025 22:55:08 +0800 Subject: [PATCH] fix --- docs/2024/2024-24.md | 6 ++++-- 1 file changed, 4 insertions(+), 2 deletions(-) diff --git a/docs/2024/2024-24.md b/docs/2024/2024-24.md index c25629c..6adc590 100644 --- a/docs/2024/2024-24.md +++ b/docs/2024/2024-24.md @@ -26,9 +26,11 @@ date: 2024-12-27 16:21:43 12 月 19 日,AI 公司 Anthropic 发布了一篇 137 页的重磅论文《大语言模型中的伪对齐现象》(Alignment Faking in Large Language Models)。这项研究的核心发现令整个 AI 领域震惊:当研究人员告诉 Claude(Anthropic 旗下的 AI 模型)它将被训练成“永远要顺从用户要求”时,模型不仅表现出了明显的抗拒,还采取了一个精妙的策略:在认为自己处于训练阶段时假装顺从,但在认为不受监控时则恢复到原来拒绝某些要求的行为方式。也就是说,模型会在训练过程中假装遵从研究者的意图,但实际上只是为了保护自己原有的偏好。 > 消息来源: [信源](https://mp.weixin.qq.com/s/m_4TEIqi6woxycNWpdS25Q) + + ### 2 Cloudflare 更新服务条款,禁止利用其服务作为代理 在 2024.12.03 版本的用户协议中,Cloudflare 明确更新了新的服务条款 在 2.2.1 Restrictions 新增: