Powered by RND
PodcastsTechnologyAI可可AI生活

AI可可AI生活

fly51fly
AI可可AI生活
Latest episode

Available Episodes

5 of 770
  • [人人能懂] 为AI装上仪表盘、罗塞塔石碑与阅读眼镜
    当AI变得越来越强大,我们还能从哪些地方挖掘它的潜力呢?本期我们聚焦几篇思路极其巧妙的最新论文,它们不约而同地告诉我们:真正的飞跃,不一定来自更大的模型,而来自更聪明的工作方式。我们将一起探讨,AI如何学会为自己省下90%的训练开销,如何免费装上“直觉”来审时度势,又是如何通过“抓重点”实现一目十行。更重要的是,我们将看到科学家们如何努力为整个AI行业的发展,打造一把统一的“度量衡”。00:00:38 AI调参省钱术:从“大力出奇迹”到“聪明省力气”00:07:44 AI绘画,如何从“慢跑”变“冲刺”?00:13:11 给AI发展装上一个统一的度量衡00:19:25 如何免费给AI装上“直觉”?00:24:56 AI“一目十行”的秘密:不靠算力,靠“会抓重点”本期介绍的几篇论文:[LG] Efficient Hyperparameter Search for Non-Stationary Model Training[Google DeepMind & Google Research]https://arxiv.org/abs/2512.01258---[CV] Improved Mean Flows: On the Challenges of Fastforward Generative Models[CMU & THU & Adobe]https://arxiv.org/abs/2512.02012---[AI] A Rosetta Stone for AI Benchmarks[Google DeepMind]https://arxiv.org/abs/2512.00193---[LG] ZIP-RC: Zero-overhead Inference-time Prediction of Reward and Cost for Adaptive and Interpretable Generation[UC Berkeley & MIT]https://arxiv.org/abs/2512.01457---[LG] Accelerating Large-Scale Reasoning Model Inference with Sparse Self-Speculative Decoding[UC Berkeley & MIT & University of Washington]https://arxiv.org/abs/2512.01278
    --------  
    29:37
  • [人人能懂] 让AI学会内省、进化与断舍离
    你有没有想过,聪明的AI不只靠堆算力,更要靠高质量的思考方式?本期我们要聊的几篇最新论文,就为我们揭示了AI正在经历一场深刻的“认知升级”。我们将看到,AI如何像一个身处江湖的开源模型,用聪明的策略追赶顶尖高手;又如何进行哲学层面的“自我觉醒”,把自己看作世界的一部分来做出更优决策。我们还会探讨,AI怎样像武林高手一样边解决难题边“涨功夫”,甚至学会给自己的思维“断舍离”,用最少的步骤直达问题核心。准备好,我们马上进入AI的思考进化之旅。00:00:41 AI江湖:开源大模型如何追赶“独孤求败”?00:06:34 AI的心智革命:当我成为世界的一部分00:12:38 AI如何像高手一样,边解题边涨功夫?00:18:14 AI思考,也需要“断舍离”00:22:58 如何让你的AI助手,思考速度提升三倍?本期介绍的几篇论文:[LG] DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models[DeepSeek-AI]https://modelscope.cn/models/deepseek-ai/DeepSeek-V3.2/resolve/master/assets/paper.pdf---[LG] Embedded Universal Predictive Intelligence: a coherent framework for multi-agent learning[Google]https://arxiv.org/abs/2511.22226---[LG] ThetaEvolve: Test-time Learning on Open Problems[Microsoft & University of Washington]https://arxiv.org/abs/2511.23473---[LG] ORION: Teaching Language Models to Reason Efficiently in the Language of Thought[Harvard University & Hippocratic AI & MIT]https://arxiv.org/abs/2511.22891---[CL] Focused Chain-of-Thought: Efficient LLM Reasoning via Structured Input Information[FAR.AI & German Research Center for Artificial Intelligence (DFKI) & University of Kassel]https://arxiv.org/abs/2511.22176
    --------  
    28:39
  • [人人能懂] 从“眼神”交流到“元宇宙”练兵
    如果AI团队开会只用“眼神”交流,会发生什么?本期节目,我们就来探索AI世界的奇妙新思路。我们将看到,驯服AI的秘诀,可能只是把一个“开关”换成“旋钮”,而让模型更聪明,也许只需给它一条“虚拟”的超宽车道。我们还会发现,机器人正从“打工仔”变身“修炼者”,而最顶尖的AI,甚至正在为它的同伴搭建一个“元宇宙”操场来练兵。让我们一起深入这些最新论文,看看智能的未来是如何被巧妙构想的。00:00:37 AI开会,从此只用“眼神”交流00:04:46 驯服AI:开关与旋钮的差别00:09:21 AI大模型的新玩法:不花大钱,也能办大事00:13:48 机器人不是在打工,是在“修炼”00:18:41 AI练兵新思路:没有操场,咱就造个“元宇宙”操场本期介绍的几篇论文:[CL] Latent Collaboration in Multi-Agent Systems[Princeton University & University of Illinois Urbana-Champaign]https://arxiv.org/abs/2511.20639---[LG] Soft Adaptive Policy Optimization[Qwen Team, Alibaba Inc.]https://arxiv.org/abs/2511.20347---[LG] Virtual Width Networks[ByteDance Seed]https://arxiv.org/abs/2511.11238---[RO] Robot-Powered Data Flywheels: Deploying Robots in the Wild for Continual Data Collection and Foundation Model Adaptation[Stanford University]https://arxiv.org/abs/2511.19647---[LG] Simulating Environments with Reasoning Models for Agent Training[University of Washington & Microsoft & CMU]https://arxiv.org/abs/2511.01824
    --------  
    24:28
  • [人人能懂] 从学会走路,到打通游戏,再到过目不忘
    你有没有想过,AI的“开窍”瞬间,背后藏着什么样的秘密?这一期,我们将一口气解锁五篇最新论文,探讨AI智能的进化法则。我们会发现,为什么让AI的大脑长得“更高”而不是“更胖”,能让它学会体操一样的神操作;为什么“学得快”的AI画家比“学得久”的更有创造力;以及AI是如何通过自我复盘和深度研究,从一个模仿者,成长为能打通复杂游戏的通才。00:00:33 人工智能的成长秘密:与其更胖,不如更高00:04:46 AI画画,为什么“学得快”的比“学得久”的更聪明?00:09:32 不止是模仿:机器人如何学会自我迭代00:14:42 AI上岗:我们是怎么教会它打通一款游戏的?00:20:44 你的大脑不是硬盘,而是搜索引擎本期介绍的几篇论文:[LG] 1000 Layer Networks for Self-Supervised RL: Scaling Depth Can Enable New Goal-Reaching Capabilities[Princeton University]https://openreview.net/forum?id=s0JVsx3bx1---[LG] Why Diffusion Models Don't Memorize: The Role of Implicit Dynamical Regularization in Training[Université PSL]https://arxiv.org/abs/2505.17638---[LG] π∗0.6: a VLA That Learns From Experience[Physical Intelligence]https://arxiv.org/abs/2511.14759---[AI] Lumine: An Open Recipe for Building Generalist Agents in 3D Open Worlds[ByteDance Seed]https://arxiv.org/abs/2511.08892---[CL] General Agentic Memory Via Deep Research[Beijing Academy of Artificial Intelligence]https://arxiv.org/abs/2511.18423
    --------  
    26:46
  • [人人能懂] 从自我审视、大脑协作到效率革命
    今天我们要探讨一个很有意思的问题:聪明的AI和“真正理解”的AI,中间到底隔着什么?本期节目,我们将通过几篇最新论文,一探究竟。我们会看到,AI如何从只会“猜答案”的学生,蜕变为懂得自我批判的“思考者”;也会发现,我们大脑理解语言的秘密,可能在于一个高效的“跨部门协作网络”。接着,我们会揭示AI如何通过巧妙的“团队分工”,同时实现速度与性能的飞跃;最后,我们将探讨一门被忽视的“老手艺”和一种让AI“一句话一句话思考”的新模式,它们或许是让AI真正懂你的关键。准备好了吗?让我们一起开启这场关于AI思考方式的深度探索之旅!00:00:47 从“猜对答案”到“讲清道理”:AI的一次认知飞跃00:07:09 语言的“深加工”:你的大脑里藏着一个协作网络00:12:14 既要马儿跑,又要马儿不吃草?AI世界里有个新答案00:17:27 为什么你的AI总是不懂你?秘密藏在一门20年的老手艺里00:23:32 大模型“一句话一句话”地思考,可能吗?本期介绍的几篇论文:[LG] DeepSeekMath-V2: Towards Self-Verifiable Mathematical Reasoning[DeepSeek-AI]https://github.com/deepseek-ai/DeepSeek-Math-V2/blob/main/DeepSeekMath_V2.pdf---[CL] What does it mean to understand language?[Harvard University & Georgia Institute of Technology & MIT]https://arxiv.org/abs/2511.19757---[CL] Kimi Linear: An Expressive, Efficient Attention Architecture[Kimi Team]https://arxiv.org/abs/2510.26692---[CL] Context Engineering 2.0: The Context of Context Engineering[SJTU & SII]https://arxiv.org/abs/2510.26493---[CL] Continuous Autoregressive Language Models[WeChat AI, Tencent Inc]https://arxiv.org/abs/2510.27688
    --------  
    30:58

More Technology podcasts

About AI可可AI生活

来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿
Podcast website

Listen to AI可可AI生活, Acquired and many other podcasts from around the world with the radio.net app

Get the free radio.net app

  • Stations and podcasts to bookmark
  • Stream via Wi-Fi or Bluetooth
  • Supports Carplay & Android Auto
  • Many other app features
Social
v8.0.5 | © 2007-2025 radio.de GmbH
Generated: 12/3/2025 - 8:15:46 AM