Powered by RND
PodcastsTechnology张小珺Jùn|商业访谈录
Listen to 张小珺Jùn|商业访谈录 in the App
Listen to 张小珺Jùn|商业访谈录 in the App
(398)(247,963)
Save favourites
Alarm
Sleep timer

张小珺Jùn|商业访谈录

Podcast 张小珺Jùn|商业访谈录
张小珺
努力做中国最优质的科技、商业访谈。 张小珺:财经作者,曾供职《财经》,现在是腾讯新闻科技主笔 ,写作中国商业深度报道,范围包括AI、科技巨头、风险投资和知名人物,也是播客《张小珺Jùn | 商业访谈录》制作人。 如果我的访谈能陪你走一段孤独的未知的路,也许有一天可以离目的地更近一点,我就很温暖:)

Available Episodes

5 of 98
  • 95. 对Manus创始人肖弘的3小时访谈:世界不是线性外推,做博弈中的重要变量
    今天的嘉宾是肖弘(小红/小宏),一名AI应用创业者。我们从去年在不同时期进行谈话,可以算是展开了一场“接力式访谈”。大模型的模型能力还在迅速变化,身处其中的创业者要不断根据外部环境身段柔软地时时调整姿势。《商业访谈录》希望记录一名AI应用创业者,在技术变革之中、当一切都处于不稳定状态下的持续思考历程。而这个历程富有魅力之处就在于,它是变化的,而且还会继续变化。我们正在开启的2025可能会是AI应用爆发的元年、Agent爆发的元年,这集节目正是来自一线“AI应用爆发”、“Agent爆发”的前沿声音。肖弘提供了一种身处浪花中创业者的心态:“世界不是线性外推的,要让自己成为博弈中的重要变量。”期待2025,我们和AI共同进步!我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)第一次访谈发生在2024年秋天,彼时小红刚完成一轮融资。(提醒大家注意的是,第一次访谈中,当我们说到今年、去年这些词语的时候,可能脑海里需要转化一下——“去年”指的是2023年,“今年”指的是2024年)03:03 开始的快问快答05:15 连续创业者、第一段创业、沮丧时刻、不同年龄段毕业生的最优选17:04 已经把大学赚的钱花完了,山穷水尽33:16 “VC是很贵的集资手段”,它的贵不体现在你不好的时候,而是体现在好的时候42:10 最重要的转折点:预判大厂的预判、《大空头》、等待、诱惑52:27 每次觉得自己技能点还可以的时候,就会冒出一个新维度——这次是资本56:19 嗅到泡沫的味道58:15 卖过公司founder的生活和心态、“让你的生活状态变得昂贵是更昂贵的”01:05:55 第二段创业的第一款产品:浏览器插件、Monica.im、ChatGPT for Google01:28:04 从2022年底创业开始每年重要的决策01:48:38 有模型 vs 没模型,“贸工技”vs“技工贸”,“模型是技术平权”02:02:14 我脑海中大模型应用的分类和方法论:主场景补充、模型能力带来的变化、模型能力在特定领域的外溢第二次访谈发生在2025年春节后,此时DeepSeek一时间改写了中国AI应用底层生态,我们坐下来又聊了一次。这次话题主要围绕他即将要发布的Agent产品(Manus,但当时还没上线),他讲述了对新产品的完整思考过程。02:09:32 2025年春节真是梦回2023年呐!02:10:09 我尝试把火过的AI应用作为少量数据点,总结规律做预测02:20:00 开源一个AI创业idea:预判大模型的下一个能力是什么,先做好应用,在那里等着02:21:01 大模型原厂做什么 vs 应用公司做什么02:23:51 DeepSeek最佛却取得最好结果,精神上给了大家鼓励:BE YOURSELF!!02:26:27 从产品角度解析为什么DeepSeek全球爆火,而OpenAI o1遗憾错过(02:29:00-02:29:44 注:这里有几处口误,不是Perplexity而是DeepSeek)02:31:12 对即将要发布的新产品的完整思考:国内Agent的第一枪!02:47:49 这几天正在经历“A-ha moment”,真的觉得在制造生命一样的东西02:49:27 在一切都不稳固的状态下,AI应用创业者应该保持什么心态?02:51:36 大厂能理解你的创新的时候就是很危险的时候02:58:24 用时代的年龄思考,而不是用生理的年龄思考03:01:02 我让DeepSeek解释“贪、嗔、痴”03:01:53 为什么不做底层模型?03:04:39 Peak Ji(Manus首席科学家)问黄仁勋:接下来几年什么事情发生会让你觉得很惊讶?黄仁勋的回答:Basically nothing。03:09:08 Founder是没得选的03:12:20 Founder应该用“博弈的方式”思考,而不是用“逻辑推理的方式”思考03:15:00 一位founder的生活和对世界的认知03:17:50 最后的快问快答【更多信息】联络我们:微博@张小珺-Benita,小红书@张小珺更多信息欢迎关注公众号:张小珺
    --------  
    3:22:46
  • 94. 逐篇讲解DeepSeek、Kimi、MiniMax注意力机制新论文——“硬件上的暴力美学”
    今天这集节目延续我们的论文系列。我邀请MIT计算机科学与人工智能实验室的在读博士松琳,来给大家解读上个星期DeepSeek和Kimi发布的全新技术报告。DeepSeek和Kimi又一次技术对垒。在同一天发布论文,两篇集中在改进注意力机制以处理长文本任务上。而春节前,MiniMax也发布了一篇注意力机制相关的论文。松琳将带领大家阅读这3篇注意力机制有关的文章,解析不同模型公司的技术哲学和路线选择。我们希望能让更多人领略AI科技平权,体验技术之美。2025,我们和AI共同进步!(如果如果,你觉得光听还不够刺激,觉得一定要坐在电脑前看着投屏、拿起纸笔学习更有沉浸感…如果你实在是真心想要找虐的话…请前往:含投屏的视频版本。预祝你学习顺利啦!)我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)02:30 讲解开始前,先提问几个小问题15:36 DeepSeek最新论文《Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention》讲解论文中文名:《原生稀疏注意力:硬件对齐且原生可训练的稀疏注意力》路线:稀疏注意力机制本篇工作最大亮点:Native Sparse Attention 全线压制 Full Attention01:19:14 Kimi最新论文《MoBA: Mixture of Block Attention for Long-Context LLMs》讲解论文中文名:《MoBA:面向长文本上下文的块注意力混合架构》路线:稀疏注意力机制01:44:42 MiniMax春节前的论文《MiniMax-01: Scaling Foundation Models with Lightning Attention》讲解论文中文名:《MiniMax-01:利用闪电注意力扩展基础模型》路线:线性注意力机制02:30:07 最后强化学习一下【技术之美】系列:逐句讲解DeepSeek-R1、Kimi K1.5、OpenAI o1技术报告——“最优美的算法最干净”逐篇讲解DeepSeek关键9篇论文及创新点——“勇敢者的游戏”【更多信息】联络我们:微博@张小珺-Benita,小红书@张小珺更多信息欢迎关注公众号:张小珺
    --------  
    2:36:12
  • 93. 离开字节、MiniMax的张前川,发出AGI对人类威胁的预警
    今天这集节目是春节前,我和前今日头条用户产品负责人、前MiniMax产品负责人张前川的一次聊天。张前川从2005年开始入行成为产品经理,经历过百度、360、字节、知乎等公司,最后一次出现在新闻是他从大模型公司MiniMax离职。这次聊天分成两个部分:第一部分是他作为一位20年的产品经理的思考,特别是他观察到的中国内容产品演变史。第二部分是他最近半年的所思所想。和上一集节目张亚勤对AGI勾勒的乐观前景不同,关于AGI,张前川发出了对人类威胁的预警,并分析人类灭绝的n种可能性。他告诉我,他接下来会考虑成立一家pro-human的非营利组织。(本集节目录制于春节前)我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)内容产品的20年演变史 02:00 张前川自我介绍:一位产品经理的20年 (曾供职过的企业:百度、360、字节、新浪微博、知乎、MiniMax) 03:39 搜索引擎、拉里·佩奇和俞军 17:35 2005-2025,过去20年,内容分发产品的演化历史和内生逻辑 24:28 推荐引擎、今日头条和张一鸣 28:28 小红书在推荐引擎范式的延长线上吗?为什么小红书不是字节做的? 39:29 微信送礼物的功能maybe对于小红书更有意义 42:50 泛化如水流有方向:女生向男生,年轻向年长用户的泛化更容易 52:00 面试时张一鸣问我的问题离开大模型公司的张前川,发出AGI预警这里对AGI推演和92集张亚勤的观点截然不同 54:10 AI是人类的最后一个发明,加速度无限大 57:00 把AI当目的 vs 把人当目的(更多公司是在for AI的目的?) 01:09:08 Agent就是“baby阶段的AGI” 01:19:56 人类灭绝的n种可能性(人利用AI灭绝人类/AI有意识的灭绝人类/AI无意识的灭绝人类) 01:24:30 人类如何幸福生存下去? 01:26:03 如果AI产品收费模式是付费制,大部分人类会逐渐失去和AI的连接 01:40:21 AGI公司的承诺和制度安排 01:58:48 人类不要逃避危险本身而逃避思考【更多信息】联络我们:微博@张小珺-Benita,小红书@张小珺更多信息欢迎关注公众号:张小珺
    --------  
    2:07:21
  • 92. 和张亚勤院士聊,意识、寿命、机器人、生物智能和物种的延伸
    人人都谈论AGI,但在可见的未来,AGI到底是一幅什么样的画面?针对这个话题,我邀请了清华大学智能产业研究院(AIR)院长、前百度公司总裁张亚勤院士,来聊聊。在他的脑海中,人工智能会按照信息智能〉物理智能〉生物智能的图谱逐步实现AGI。这种构想和信仰之下,AGI呈现的是一个乐观的前景画面。但这不是人们预感AI进化的全部图景,在之后的节目中,我也会推出对AGI的另一种思考与隐忧。我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:) 01:45 在AI冬眠期,微软亚洲研究院成立了 03:57 微软怎么管理亚洲研究院?目标如何设置? 05:53 清华智能产业研究院(AIR)的目标和路径,不做基层通用大模型 10:45 我脑海中的AGI地图:信息智能〉物理智能〉生物智能 12:40 信息智能是大脑的智商,5年内达到AGI水平 14:25 物理智能首先落地是自动驾驶,人形机器人需要10年 15:51 机器人分三类:家庭机器人、工厂机器人、社会机器人 21:05 人形机器人:未来可能每个人有一个你的copy、你的“分身” 22:25 为什么大模型大幅加速了自动驾驶和具身智能的开发速度? 39:38 生物智能:20年实现,人的寿命更长,诞生新物种 45:56 构想10年后的世界 51:27 最后推荐两本书【更多信息】联络我们:微博@张小珺-Benita,小红书@张小珺更多信息欢迎关注公众号:张小珺
    --------  
    53:07
  • 91. 逐篇讲解DeepSeek关键9篇论文及创新点——“勇敢者的游戏”
    2025年这个春节,DeepSeek一举改写了全球AGI大叙事。在万般热闹之际,我们特别想沉下来做一些基础科普工作。在《商业访谈录》89集节目中,我邀请了加州大学伯克利分校人工智能实验室在读博士生潘家怡,为大家对照解读了春节前的DeepSeek-R1-Zero、R1、Kimi发布的K1.5,以及OpenAI更早发布的o1技术报告。这些模型聚焦的都是大模型最新技术范式,RL强化学习,简单来说就是o1路线。今天这集,我邀请的是香港科技大学计算机系助理教授何俊贤。他的研究方向是大模型推理,从很早就开始关注DeepSeek的系列研究。我们会focus在最近引发全球AI届关注的DeepSeek上。何老师将带领大家从DeepSeek的第1篇论文开始,阅读经过挑选的这家公司历史上发布的9篇论文。我们希望帮助大家从一个更延续、更长期、也更技术底层的视角来理解DeepSeek,以及它所做的复现与创新工作;与此同时也希望能让更多人感受到技术之美。(如果如果,你觉得光听还不够刺激,觉得一定要坐在电脑前看着投屏、拿起纸笔学习更有沉浸感…如果你实在是真心想要找虐的话…请前往:含投屏的视频版本。嘿嘿!预祝你学习顺利啦!2025我们和AI共同进步!)我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)03:01 讲解开始前,先提问几个小问题整体风格:Open、Honest、低调、严谨的科学态度DeepSeek基座模型21:00 《DeepSeek LLMScaling Open-Source Language Models with Longtermism》技术讲解45:48 《DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models》技术讲解01:06:40 《DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model》技术讲解01:40:17 《DeepSeek-V3 Technical Report》技术讲解DeepSeek推理模型02:05:03 《DeepSeek-Coder: When the Large Language Model Meets Programming - The Rise of Code Intelligence》技术讲解02:12:16 《DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code Intelligence》技术讲解02:47:18 《DeepSeek-Prover: Advancing Theorem Proving in LLMs through Large-Scale Synthetic Data》和《DeepSeek-Prover-V1.5: Harnessing Proof Assistant Feedback for Reinforcement Learning and Monte-Carlo Tree Search》技术讲解02:52:40 《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》技术讲解03:01:41 9篇论文到这里都讲完啦!最后我们一起强化学习一下!关于强化学习往期节目:AGI范式大转移:和广密预言草莓、OpenAI o1和self-play RL|全球大模型季报4和OpenAI前研究员吴翼解读o1:吹响了开挖第二座金矿的号角王小川返场谈o1与强化学习:摸到了一条从快思考走向慢思考的路逐句讲解DeepSeek-R1、Kimi K1.5、OpenAI o1技术报告——“最优美的算法最干净”开源一场关于DeepSeek的高质量闭门会:一场关于DeepSeek的高质量闭门会:“比技术更重要的是愿景”【更多信息】联络我们:微博@张小珺-Benita,小红书@张小珺更多信息欢迎关注公众号:张小珺
    --------  
    3:20:52

More Technology podcasts

About 张小珺Jùn|商业访谈录

努力做中国最优质的科技、商业访谈。 张小珺:财经作者,曾供职《财经》,现在是腾讯新闻科技主笔 ,写作中国商业深度报道,范围包括AI、科技巨头、风险投资和知名人物,也是播客《张小珺Jùn | 商业访谈录》制作人。 如果我的访谈能陪你走一段孤独的未知的路,也许有一天可以离目的地更近一点,我就很温暖:)
Podcast website

Listen to 张小珺Jùn|商业访谈录, Hard Fork and many other podcasts from around the world with the radio.net app

Get the free radio.net app

  • Stations and podcasts to bookmark
  • Stream via Wi-Fi or Bluetooth
  • Supports Carplay & Android Auto
  • Many other app features
Social
v7.10.0 | © 2007-2025 radio.de GmbH
Generated: 3/9/2025 - 2:23:52 PM