3.5 KiB
title: Linuxcat周刊(第38期) tags:
- AI
categories:
- Linuxcat周刊 permalink: /weekly/2025-14/index.html date: 2025-06-21 06:36:15
{% note success %} 👏我们的软件推荐站已经完成了升级,欢迎查看: Github 可以向 i@mei.lv 发送邮件或通过 issue 投稿 现在可以通过 nav.linuxcat.top 来访问 {% endnote %}
正文
1 中国团队研究证实AI可自发形成人类级认知
中国科学家团队首次证实,基于AI技术的多模态大语言模型能够自发形成与人类高度相似的物体概念表征系统,即AI可自发形成人类级认知。研究团队从认知神经科学经典理论出发,设计出一套融合计算建模、行为实验与脑科学的创新范式。研究团队从海量大模型行为数据中提取出66个“心智维度”,并为这些维度赋予语义标签。研究发现,这些维度是高度可解释的,并且与大脑类别选择区域的神经活动模式显著相关。进一步对比了多个模型在行为选择模式上与人类的一致性,结果显示,多模态大模型在一致性方面表现更优。研究还揭示人类在做决策时更倾向于结合视觉特征和语义信息进行判断,而大模型则倾向于依赖语义标签和抽象概念。
2 智能手机占全球网页流量64%,创历史新高
最新数据显示,全球64%的网页流量来自智能手机,创下新纪录,连续第八个季度增长。亚洲地区移动流量占比高达71.3%,主导全球趋势;美洲和欧洲约为50%。在移动操作系统中,Android占比72.72%,iOS为26.92%。
3
跟踪
Apple论文:大型推理模型的“思维”可能只是“幻象”
前序:苹果研究员质疑大语言模型(LLM)的推理能力,认为其仅是复杂的模式匹配
Apple最新研究探讨了大型语言模型(LLMs)中的“大型推理模型”(LRMs)。尽管它们在推理任务上展现出优势,但其根本能力与局限仍未充分理解。研究引入具可控复杂度的逻辑谜题环境,深入分析LRMs的推理路径与行为模式,为理解其能力极限提供关键洞察,并提出对其真正“推理能力”的质疑。
实验表明,LRMs在复杂度达到某一阈值后,准确率完全崩溃,且其推理努力呈现先增后减的非线性趋势,尽管计算资源充足。与标准LLMs对比下,研究发现:在简单任务中传统模型反超;中等任务中LRMs具优势;复杂任务中两者均失效。此外,LRMs在精确计算与一致性推理方面存在明显短板,无法有效调用明确算法。
消息来源:Apple机器学习研究 | 科技圈🎗在花频道