本期节目,我们将一起探索AI智能的几种迷人形态。一个从没上过网的AI,如何靠“顿悟”来解题?一个摇摆不定的AI,如何被调教得“心中有谱”?一个笨学生,又是如何通过一套“教育学”秘籍,成为推理高手的?最后,我们还会聊聊如何给AI团队“动手”纠错,并用一把尺子精确量出它的“记忆深度”。准备好了吗?让我们一起出发!00:00:31 造一个聪明的AI,需要喂它整个互联网吗?00:07:16 告别左右摇摆:如何让机器学会有个“准星”?00:12:27 如何把一个“笨学生”调教成解题高手?00:19:59 别再当事后诸葛亮,试试“动手”来纠错00:25:43 你的AI有多健忘?我们终于有了一把尺子本期介绍的几篇论文:[LG] ARC-AGI Without Pretraining[CMU]https://arxiv.org/abs/2512.06104---[LG] Average-reward reinforcement learning in semi-Markov decision processes via relative value iteration[University of Alberta]https://arxiv.org/abs/2512.06218---[CL] On the Interplay of Pre-Training, Mid-Training, and RL on Reasoning Language Models[CMU]https://arxiv.org/abs/2512.07783---[AI] DoVer: Intervention-Driven Auto Debugging for LLM Multi-Agent Systems[Microsoft & Chinese Academy of Sciences]https://arxiv.org/abs/2512.06749---[LG] Quantifying Memory Use in Reinforcement Learning with Temporal Range[MIT]https://arxiv.org/abs/2512.06204
--------
31:49
--------
31:49
[人人能懂] AI如何监督人类,又如何自我进化
本期节目,我们将一起挑战几个关于AI的“想当然”:它真的无所不能,又或者只是个模式复读机?我们会发现,AI能反过来给人类科学论文“挑错”,但它自己预测的数据也可能布满陷阱。更进一步,我们将从逻辑的根源探讨机器创新的“天花板”,并揭示让AI实现“协调”与“自我进化”的巧妙新思路。00:00:28 AI当监工:我们读的顶会论文,到底有多少bug?00:05:55 你的AI为什么总“犯傻”?缺的不是智商,是“协调”00:12:48 给AI的狂热泼一盆冷水:为什么机器无法真正创新?00:19:44 AI预测的数据,是馅饼还是陷阱?00:30:00 AI的自我修养:没有人类老师,它如何变得更聪明?本期介绍的几篇论文:[AI] To Err Is Human: Systematic Quantification of Errors in Published AI Papers via LLM Analysis[Together AI & NEC Labs America]https://arxiv.org/abs/2512.05925---[AI] The Missing Layer of AGI: From Pattern Alchemy to Coordination Physics[Stanford University]https://arxiv.org/abs/2512.05765---[AI] On the Computability of Artificial General Intelligence[N/A]https://arxiv.org/abs/2512.05212---[LG] Do We Really Even Need Data? A Modern Look at Drawing Inference with Predicted Data[Fred Hutchinson Cancer Center & University of Washington]https://arxiv.org/abs/2512.05456---[CV] Self-Improving VLM Judges Without Human Annotations[FAIR at Meta]https://arxiv.org/abs/2512.05145
--------
36:17
--------
36:17
[人人能懂] 从万能骨架、老司机到一副新眼镜
想让AI更聪明,为什么它有时反而会“学傻”?本期节目,我们将一起揭开AI训练中“差不多”哲学的代价,并探索如何为所有大模型打造一副省钱又省力的“万能骨架”。我们还会看到,有时只需给机器人加一点“噪声”,或者校准一下它看世界的“眼镜”,就能让它从新手秒变老司机。最后,我们将见证一个奇迹:如何让机器人看懂我们天马行空的“梦境”,将想象力直接翻译成物理世界的行动。00:00:35 驯服AI这匹野马,问题出在了“差不多”上00:07:43 给机器人加点“噪声”,它就变聪明了?这事没那么简单00:14:08 怎么让机器人听懂你的想象力?00:19:18 AI大模型们的“万能骨架”:省钱省力的秘密00:23:03 机器人换个角度就犯傻?问题可能出在你没想到的地方本期介绍的几篇论文:[CL] Stabilizing Reinforcement Learning with LLMs: Formulation and Practices[Qwen Team, Alibaba Inc.]https://arxiv.org/abs/2512.01374---[RO] Much Ado About Noising: Dispelling the Myths of Generative Robotic Control[CMU]https://arxiv.org/abs/2512.01809---[RO] From Generated Human Videos to Physically Plausible Robot Trajectories[UC Berkeley & Johannes Kepler University]https://arxiv.org/abs/2512.05094---[LG] The Universal Weight Subspace Hypothesis[Johns Hopkins University]https://arxiv.org/abs/2512.05117---[RO] VLA Models Are More Generalizable Than You Think: Revisiting Physical and Spatial Modeling[Sun Yat-sen University]https://arxiv.org/abs/2512.02902
--------
28:57
--------
28:57
[人人能懂] 从量体裁衣、幻觉检测到精心设计的极化
今天我们不只关心AI有多强,而是要探索一些更深刻的问题。我们会看到,最适合汽车的AI,恰恰不是那个最强的“云端大脑”;我们会拿到一个“测谎仪”,去分辨AI何时在“一本正经地胡说八道”。接着,我们会用一张最残酷的考卷,揭示AI在“知识搬运”和“智慧创造”之间的巨大鸿沟。更进一步,我们将探讨一个令人深思的可能:我们感受到的社会撕裂,竟可能是一种被AI精心设计的产物。最后,我们再看看如何请一位“上帝视角”的教练,训练出能主动探索世界的机器人。00:00:42 造车启示录:为什么最强的AI,不是最好的AI?00:06:14 AI的“一本正经胡说八道”,我们终于有办法治它了00:11:30 AI:一个既能干又“无能”的实习生00:16:44 撕裂的社会,可能是一种“精心设计”00:23:10 机器人学习新范式:带个“上帝视角”的教练本期介绍的几篇论文:[CL] AutoNeural: Co-Designing Vision-Language Models for NPU Inference[Nexa AI & Geely Auto]https://arxiv.org/abs/2512.02924---[LG] Detecting AI Hallucinations in Finance: An Information-Theoretic Method Cuts Hallucination Rate by 92%[The Catholic University of America]https://arxiv.org/abs/2512.03107---[CL] CryptoBench: A Dynamic Benchmark for Expert-Level Evaluation of LLM Agents in Cryptocurrency[Princeton University]https://arxiv.org/abs/2512.00417---[AI] Polarization by Design: How Elites Could Shape Mass Preferences as AI Reduces Persuasion Costs[University of Chicago]https://arxiv.org/abs/2512.04047---[RO] Real-World Reinforcement Learning of Active Perception Behaviors[University of Pennsylvania]https://arxiv.org/abs/2512.01188
--------
28:58
--------
28:58
[人人能懂] 重塑AI的行为、思考与形态
我们总希望AI不只是个聪明的工具,更像个能沟通、能反思、甚至能自我进化的伙伴。本期节目,我们就从几篇最新论文出发,看看科学家们是如何脑洞大开地教AI“忏悔”错误、在虚拟世界里“动手”实践、像团队一样“合成”智慧,甚至上演一出匪夷所思的“灵魂互换”大戏。准备好了吗?让我们一起探索,如何把AI从一个“黑箱”变成一个我们可以理解和塑造的智能体。00:00:33 让AI“忏悔”,我们能得到什么?00:05:49 当AI不再只是个“书呆子”00:11:06 AI自己不行的事,怎么让一群AI办成?00:16:56 AI的“复盘”教练:如何用人话把它教聪明00:22:11 AI变形记:为什么你训练的和最后用的,不必是同一个模型?本期介绍的几篇论文:[CL] Training LLMs for Honesty via Confessions[OpenAI]https://cdn.openai.com/pdf/6216f8bc-187b-4bbb-8932-ba7c40c5553d/confessions_paper.pdf---[AI] SIMA 2: A Generalist Embodied Agent for Virtual Worlds[Google DeepMind]https://arxiv.org/abs/2512.04797---[AI] Algorithmic Thinking Theory[Google & NYU]https://arxiv.org/abs/2512.04923---[LG] Natural Language Actor-Critic: Scalable Off-Policy Learning in Language Space[UC Berkeley & ByteDance Seed]https://arxiv.org/abs/2512.04601---[LG] Network of Theseus (like the ship)[MIT CSAIL & Johns Hopkins University]https://arxiv.org/abs/2512.04198