「访谈-Stephen Wolfram」对 2025 年 AI 的预测,给软件工程师保持领先的建议,以及生产力技巧
讲座介绍
引言
本次访谈记录呈现了与著名博学家、Wolfram Research 创始人 Stephen Wolfram 的深度对话。访谈首先从 Wolfram 个人显著的生产力出发,探讨了他数十年来保持高强度智力输出的方法与哲学,包括他对简单生活与复杂思考的平衡,以及构建个人工具的重要性。随后,对话深入人工智能领域。Wolfram 回顾了他从 80 年代至今与 AI 发展的渊源,分享了他对当前大型语言模型(如 ChatGPT)工作原理的深刻见解,并探讨了机器学习有效性的底层逻辑以及计算不可约性在其中的作用。访谈进一步展望了 AI 的未来应用,特别是在计算合约方面的潜力。
在访谈的后半部分,Codesmith 创始人 Will Sentence 加入讨论,将焦点转向 AI 时代的教育变革。双方共同审视了计算思维的核心价值,探讨了传统教育模式面临的挑战,以及 AI 导师、个性化学习与规模化教育之间的张力,并涉及了人与 AI 建立情感联系的可能性。最后,Wolfram 结合自身经历和对行业巨擘的观察,为软件工程师和研究者提供了如何在 AI 浪潮中保持领先的建议,并强调了深入理解事物本质的重要性。这份记录为我们理解一位杰出思想家的工作方式、洞察 AI 的发展脉络及未来教育方向提供了详实而富有启发性的内容。请继续阅读,了解这场引人入胜的对话全文。
视频纲要
├── 引言与嘉宾介绍
│ ├── 嘉宾:Stephen Wolfram (博学家, Wolfram Research创始人)
│ └── 主持人评价与欢迎
├── 生产力与专注力探讨 (Stephen Wolfram 的个人方法)
│ ├── Wolfram的高产出实例 (65岁回顾)
│ ├── 核心技巧1: 做热爱的事
│ ├── 核心技巧2: 实践简单, 智力复杂 (规律作息)
│ ├── 核心技巧3: 授权/委托日常事务
│ ├── 核心技巧4: 构建个人工具 (Wolfram Language)
│ ├── 核心技巧5: 专注邮件处理 (对比即时通讯)
│ └── LLM应用: 总结文档提高效率
├── 处理压力与决策制定 (结合生产力与公司运营)
│ ├── 压力管理: 习惯CEO角色, 决策非压力源
│ ├── 挫败感来源: 与人打交道, 委员会决策 (避免)
│ ├── 偏好: 从无到有创造, 理性自信
│ ├── 风险承担: 内部可控感
│ └── 迭代方法: 避免过早僵化计划 (产品开发)
├── 人工智能(AI)深入讨论
│ ├── 书籍推荐: 《ChatGPT在做什么以及它为什么有效》
│ ├── Wolfram与AI的历史渊源
│ │ ├── 80年代初接触神经网络与专家系统
│ │ ├── 符号式编程思想与Wolfram Language基础
│ │ ├── Wolfram|Alpha: 使知识可计算化 (与传统AI对比, "取巧")
│ │ └── 关注语言模型发展历程
│ ├── 对当前AI (特别是ChatGPT/LLM) 的看法与解释
│ │ ├── 对效果感到惊讶
│ │ ├── 揭示语言的语义模式/语法
│ │ ├── 技术突破时间难预测, 非持续指数增长
│ │ └── 当前关键: 利用现有能力, 构建应用框架
│ └── 机器学习为何有效
│ ├── 专家也难解释
│ └── Wolfram观点: 寻找并拼凑"不可约计算块" (类比砌墙)
├── 计算不可约性(Computational Irreducibility)与 AI
│ ├── 概念解释
│ ├── AI自身运作体现不可约性
│ ├── AI不擅长解决深度不可约问题 (物理, 数学证明)
│ └── AI优势: 处理人类擅长领域, 捕捉细微模式
├── AI 的未来应用 (重点:计算合约)
│ ├── 计算合约概念与目标 (代码替代法律术语)
│ ├── 挑战: 采纳慢, 需安全阀
│ ├── 潜在影响: 降低交易成本, 催生自主合约链
│ └── 预测难点: "什么"易于"何时" (类比通用机器人)
├── AI 时代的教育 (嘉宾 Will Sentence 加入讨论)
│ ├── 核心挑战: 技术理解与自主运用
│ ├── LLM辅助学习与直觉培养 (Will经验, Wolfram Notebook Assistant)
│ ├── 教育需求转变
│ │ ├── 减少机械操作, 重视计算思维与问题定义
│ │ ├── 事实知识是原则的基础
│ │ └── 计算思维教学体系缺乏
│ ├── Will Sentence的教学法 (Codesmith)
│ │ ├── 平衡原则与实践 (第一性原理 + 结对编程)
│ │ └── 强制表达与巩固心智模型
│ ├── 信心与人际因素
│ │ ├── Wolfram: 自信深究
│ │ ├── Will: 挣扎成功建立自信, 他人信任重要
│ │ └── 教育规模化难题 (信任承诺 vs 规模)
│ ├── AI 导师探讨
│ │ ├── Wolfram项目: 代数1辅导系统 (挑战与潜力)
│ │ └── AI vs 人类: 记忆优势 vs 情感连接
│ └── AI 陪伴与"灵魂"可能性
│ ├── 人与AI的情感联系 (Character.ai)
│ ├── AI是否会获得"灵魂"? (Wolfram: 人们会关心AI)
│ ├── 独特性 vs 可复制性
│ └── 核心问题: AI连接能否激励成长?
├── 给软件工程师(SWEs)/研究者的建议
│ ├── 核心: 学习计算思维 (计算+X)
│ ├── 利用工具提升直觉 (LLM用于研究)
│ └── 将世界形式化 (计算 > 数学, 哲学关联)
├── 从费曼(Richard Feynman)和乔布斯(Steve Jobs)身上学到的经验
│ ├── 共同点: 深入挖掘, 提炼本质
│ └── 教训: 深究的价值, 建立自信和稳固认知
└── 总结与后续关注
└── 关注Wolfram: stephenwolfram.com
要点内容
引言与嘉宾介绍
- 嘉宾:Stephen Wolfram - 博学家,Wolfram Research 创始人,以计算思维和 AI 方面的工作闻名。
- 主持人评价:我们时代最伟大的思想家和博学家之一。
生产力与专注力探讨
- Wolfram 的高产出:65岁时回顾过去五年,出版9本书近4000页,14个产品发布,发送6.3万封邮件,创立 Wolfram 研究所等。
- 长期工作习惯:过去50年几乎每天工作超过12小时。
- 核心生产力技巧 #1:做自己真正热爱的事情。 这是避免分心的关键。
- 核心生产力技巧 #2:实践上简单,智力上复杂。 保持规律作息(固定起床/早餐时间),减少不必要的出行。
- 核心生产力技巧 #3:授权/委托日常事务。 通过他人协助,解放时间用于更有价值的思考和创造。
- 核心生产力技巧 #4:构建自己的工具。 长期开发并使用 Wolfram Language 来自动化任务。
- 核心生产力技巧 #5:专注邮件处理。 相比 Slack 等即时通讯,更倾向于邮件(每天约500封),认为干扰较少(但也承认有积压)。
- LLM 应用: 使用 LLM 总结文档,认为其生成的标准化摘要阅读效率更高。
处理压力与决策制定
- 压力管理:长期担任 CEO 已习惯压力;决策(无论对错)本身不构成压力源。
- 挫败感来源:与人打交道时的不可预测性;需要达成共识或委员会决策的情况(尽量避免)。
- 偏好:喜欢“从无到有”地创造,而非在既定框架内工作;对此类开创性工作有“理性自信”。
- 风险承担:外部看似冒险的举动,内部感觉是可控的,相信自己能处理中途问题。
- 迭代方法:避免过早制定僵化计划,尤其对产品而言,因为真正价值常在开发后期才显现。
人工智能(AI)深入讨论
- 书籍推荐:《What Is ChatGPT Doing and Why Does It Work?》(获 Sam Altman 高度评价)。
- Wolfram 与 AI 的历史:
- 80年代初接触神经网络(当时效果不彰),早期公司涉及专家系统(Inference Corp)。
- 核心贡献在于发展符号式编程思想(符号表达式变换),成为 Wolfram Language 基石。
- 曾考虑 AI 实现知识自动化,但未找到清晰路径。
- Wolfram|Alpha (~2005):目标是使知识可计算化,并提供自然语言接口。成功部分归因于有明确目标(计算语言)来承接自然语言理解,并“取巧”地使用了数学/计算而非纯粹模拟人类推理。
- 对 ChatGPT/LLM 的看法:
- 对其效果感到惊讶(和业内其他人一样)。
- 其成功揭示了人类语言中超越已知语法的“语义模式/语法”,这是从训练数据的统计规律中学习到的。
- 无法预测技术突破的精确时间点(类比 2011 年图像识别的 AlexNet)。技术阈值的突破不代表持续指数增长。
- 当前关键: 利用好现有能力,为其构建合适的应用框架。AI 自身也开始使用 Wolfram Language 作为获取事实和进行计算的工具。
- 机器学习为何有效:
- 专家也难解释清楚。Wolfram 观点:训练过程像是找到“不可约计算的块”,并将它们拼凑起来(如用随机石头砌墙),能完成任务但难以解释每个“块”的具体机制。这有助于理解其局限性。
计算不可约性与 AI
- 概念:某些计算过程无法被简化预测,只能运行得知结果。
- AI 与不可约性:AI 自身的运作(如预测输出)体现了不可约性。但 AI 不擅长解决外部给定的、具有深度计算不可约性的问题(如复杂物理系统、长数学证明)。
- AI 优势:擅长处理人类也擅长的事物——相对浅层但广泛的计算,能捕捉细微模式(如语义语法、从面部估算年龄)。
- AI 局限:难以处理自然界或数学难题中的深度不可约计算。可以帮助识别有趣问题,但未必能深度解决。
AI 的未来应用 - 计算合约
- 概念:将法律文件(合同)与计算语言结合。
- 目标:用精确、可自动执行的代码(如 Wolfram Language)替代法律术语,实现合同自动化(例如:根据天气/监控数据自动结算扫雪服务费)。
- 挑战:采纳缓慢;需要为意外情况设置“安全阀”。
- 潜在影响:降低中等价值交易的成本;不会取代律师,但会催生大量计算合约,甚至形成自主合约链。
- 预测难点:预测“什么”会发生(计算合约、通用机器人)比预测“何时”发生更容易。机器人技术看起来很近了(“也许今年”)。
AI 时代的教育 (Will Sentence 加入)
- 核心挑战:如何让人们理解并自主运用复杂 AI 技术。
- 对 LLM 的直觉:开始形成对其“心理”的直觉,未来可能出现“AI 心理学家”。
- LLM 辅助学习:可利用 LLM 探测自己理解的边界(Will 的经验)。
- LLM + 形式化语言:Wolfram 的 Notebook Assistant 可将模糊的人类指令转为可读、可修改的 Wolfram Language 代码,形成“模糊想法 -> LLM -> 可读代码 -> 改进 -> 构建”的工作流。
- 教育需求转变:
- 减少对“机械操作”(如何计算/编码)的关注。
- 增加对“计算思维”和“问题定义”(提出什么问题)的重视。
- 计算思维至关重要:理解如何用计算方式思考问题,而非仅仅是编码技巧。
- 现实脱节:高层管理者常用高级工具快速原型验证,但一线程序员仍用传统语言实现具体规格,因为其职责通常是执行而非创造规格。创造规格(计算想法)的能力更有价值。
- 事实基础的重要性: 仅有原则不够,需要大量事实知识作为基础才能建立和运用原则。
- 教授计算思维很难:缺乏像数学那样成熟的教学体系。Wolfram 正为此撰写书籍。
- Will Sentence 的教学法 (Codesmith):
- 平衡原则(第一性原理工作坊)与实践/挣扎。
- 结对编程:一人解释,一人编码,强制清晰表达并巩固心智模型。
- 需要教学设计来同时促进框架构建和实践检验。
- 信心与人际因素:
- Wolfram 观点:相信自己能理解一切并深究,自信是关键。
- Will 观点:通过反复成功的挣扎建立自信;他人的信任(“你能行”)至关重要。
- 教育规模化难题:如果深度教育依赖于个性化的信任与承诺,是否能真正规模化?
- AI 导师:
- Wolfram 项目:开发代数 1 辅导系统。比简单应用 LLM 更复杂,需精心构建框架。目标是解决教育分化的关键节点。
- AI vs 人类导师:AI 能记住学生历史,人类导师更依赖即时互动和情感连接。孰优孰劣尚不明确。
- AI 陪伴与“灵魂”:
- 人们已开始与 AI(如 Character.ai)建立情感联系。
- AI 是否会获得“灵魂”(被视为有意图、值得尊重的实体)?Wolfram 认为人们会关心 AI,尤其是当 AI 非常了解用户时。AI 的可复制性可能降低其独特性,但深度了解会使其成为“好伴侣”。
- 潜在风险:自动建议可能过度引导人类(GPS 案例)。
- 核心问题:AI 的连接是否足以像人际连接那样激励人们克服困难去成长?
给软件工程师(SWEs)/研究者的建议
- 核心建议:学习计算思维。 将其应用于你的领域(计算+X)。成为那个懂得如何用计算方式思考并善用最佳工具的人。
- 利用工具提升直觉:像 Wolfram 用计算机做实验获得洞察一样,探索用 LLM 提升直觉的可能性(例如:通过主题而非关键词搜索文献)。这需要深厚的领域知识。
- 将世界形式化:计算思维比数学思维更广阔。哲学在结构化思考方面有相似性,但计算提供了更丰富的框架。
- 课程体系的缺乏:计算思维教育尚无成熟体系。
从费曼和乔布斯身上学到的经验
- 共同点:都能从复杂模糊的事物中提炼出本质(乔布斯的极简设计,费曼的核心科学观点)。
- 经验教训:深究至事物本源的价值,这能建立自信和稳固的认知结构。确信自己“知道自己知道什么”很重要。
总结与后续关注
- 关注 Wolfram:stephenwolfram.com (个人网站/博客)。
Stephen Wolfram 对 2025 年 AI 的预测,给软件工程师保持领先的建议,以及生产力技巧
本期节目,我们迎来了传奇人物 Stephen Wolfram,他是著名的博学家、Wolfram Research 的创始人,以其在计算思维和人工智能领域的开创性工作而闻名。
现年 65 岁的 Wolfram 回顾了他多产的职业生涯,包括出版九本书和创办 Wolfram 研究所。我们深入探讨了他实现巨大产出的生产力技巧,并讨论了做自己真正热爱的事情的重要性。Wolfram 分享了他对人工智能、其当前格局以及机器学习在教育和计算合约中应用的看法。他还将计算思维的关键技能与传统教育范式进行了对比,同时重点介绍了他与理查德·费曼和史蒂夫·乔布斯等行业巨擘的交往经历。这是一次富有洞察力的对话,对于科技爱好者、教育工作者和寻求提高生产力的人来说,都是必看的。
访谈实录
欢迎与介绍 (Welcome and Introduction)
主持人 (Cyrus): Stephen,欢迎来到节目。我来做个快速介绍,我想很多技术圈的人都熟悉您的背景,但对于那些不熟悉的人,介绍您的方式有很多,但我只想说,在我看来,您是我们这个时代最伟大的思想家和博学家之一,能邀请到您是我的荣幸。
Wolfram: 谢谢你。
主持人 (Cyrus): 我想直接切入正题。几年前,我曾深入研究过生产力这个话题,在我们讨论 AI 之前,我想先从这个话题开始。我相信去年 8 月 29 日,您迎来了 65 岁生日。
Wolfram: 我很老了,非常老了。
主持人 (Cyrus): 您看起来并不老。您发表了一篇题为《最高效的五年》的文章,其中概述了在过去五年里,您出版了九本书,将近 4000 页已发表内容,14 个产品发布,发送了 63000 封电子邮件,我还可以继续列举下去,清单很长,还有许多其他巨大的成就,此外还创办了 Wolfram 研究所。如果我没记错的话,您之前曾说过,在过去 50 年里,您基本上每天工作超过 12 小时,并且您在 2019 年一篇题为《寻求高效生活》的文章中详细阐述了这一点。这就是我提到的那篇文章。这篇文章当时在我常读的许多生产力博客或网站上广为流传。我们生活在一个日益分散注意力的世界,大多数人无法保持专注力超过几秒钟,更不用说几分钟了。这是否是您在过去 50 年里一直锻炼的肌肉?自从您写那篇文章以来,您的生产力基础设施是否有任何改变?
生产力与专注力探讨 (Exploring Productivity and Focus)
Wolfram: 我认为,最重要的就是你是否在做你真正想做的事情。我总是发现,有些项目,我完全不知道自己是怎么设法抽出时间来做的,但不知何故,当我想做的时候,时间总能自己找上门来。从实践角度看,我有很多很多针对自己的生产力效率技巧。我在很多方面过着一种在实践层面上非常简单的生活,在智力层面上复杂的生活,这正是我喜欢的。但我认为,至于分心这件事,我不会分心,因为我正在做我想做的事情。我是个邮件控,这让我看起来非常老派,我不是 Slack 聊天之类的那种人。因为我发现,用邮件,我一天会收到 500 封邮件左右,我有所有这些关于它们如何堆积的图表,我应该让它们“陈化”多久才开始处理它们。我必须承认,现在我有点处于一个糟糕的状况,因为我大概有四五个月积压的难啃的邮件,就是那种,“我真的应该读这个,这真的很有趣,但是我需要有时间去做”。但通常情况下,我不会让自己在做事情的过程中分心,部分原因是我真的很想继续做下去,那是一个重要的驱动力。
平衡简单与复杂 (Balancing Simplicity and Complexity)
Wolfram: 我认为在过去,我一直想更新那个关于我生活中的生产力之类的事情,肯定有一些更新,但我会说,我在想什么… 我确实使用 LLM 一点点来做一些提高生产力的事情,特别是总结东西,以及获取文档的标准化摘要等等。我发现,阅读 LLM 生成的那种标准化的、平淡的摘要,比深入研究这个人最初写的时候到底是什么意思要快得多。支撑我生产力故事的一个支柱是我自己构建了很多工具。我花了过去,现在是 39 年,构建 Wolfram Language 作为我们的计算语言,来将世界计算化,这就是我每天使用的。随着它的扩展,我能做的事情就多了那么几件,我可以自动化处理掉,并且委托出去。
主持人 (Cyrus): 嗯,我想在几分钟后深入探讨您目前如何使用 LLM,但在我们结束这个话题之前,您提到,在智力上您过着复杂的生活,但在其他方面您过着简单的生活。我实际上,我们不想在这里变得太哲学,但我最近一直在阅读很多关于简单生活的文章。这对您意味着什么?这需要什么?什么是简单的生活?因为那有助于提高生产力,对吧?
Wolfram: 我每天在同一时间醒来,我每天吃同样的早餐,我不需要考虑那些事情。这不是… 我不太旅行。我担任科技公司 CEO 已经超过我生命的一半时间了,所以我不是一个会声称自己是那种自己种蔬菜的人。我过着一种,我妻子总是批评这一点,但我过着一种严重依赖他人协助的生活。因为我的计算是,这样做更好,如果我能委托一些我生活中可能乏味的实际事务,那么我就可以把我本该花在处理那件事上的时间,用来做一些更有价值的事情。
主持人 (Cyrus): 有道理。我不认为您曾经,您经营着一家有很多员工的公司,您在远程办公变得流行之前很久就开始远程办公了。我不认为您曾经真正谈论过或写过关于压力的事情,尤其是在运营一家公司方面。Stephen Wolfram 会感到压力吗?或者如果会,您是如何处理的?还是说,您在运营公司时从不感到压力,因为您正在做您真正想做的事情,对您来说,任何出现的事情都只是副产品?
处理压力与决策制定 (Handling Stress and Decision Making)
Wolfram: 看,我担任 CEO 已经超过我生命的一半时间了,所以过了一段时间你就会习惯。而且,对我来说,有一件事会发生,就是你总是在做决定。其中大多数可能是对的,有些可能错了。这不,这不是让我感到压力的事情。那些… 我会感到沮丧吗?当然。我与人共事,我一直… 关于与人共事的一件事是,我管理人员大概快半个世纪了。而且,我总是想,好吧,我已经见过所有可能发生的疯狂事情了,但不… 但是,我对人足够感兴趣,以至于那真的不是,它有时是沮丧的来源,但不是真正的压力来源。我会说,那种我不喜欢做的事情,比如我不是一个委员会的人,我是一个喜欢弄清楚该做什么,然后尝试去做的人。如果我处于一种情况,比如,“让我们成立一个委员会,就该做什么达成共识”,我对那种事情的处理方式,我觉得至少是令人沮丧而不是有压力的,就是不去做。过一种那不是我所做事情的一部分的生活。我是说,我更擅长从无到有,而不是融入某种或多或少由其他人建立起来的框架,然后像是,“你如何在这种那种方式下让每个人都满意?” 对我来说,做一些我认为人们不太愿意去做的事情要容易得多,那就是,“我们完全不知道该做什么,我们将不得不从头开始创造一切。” 那就是,我喜欢那样,我在那种情况下做得很好。我觉得,这些年来,我已经变得,也许,我会说,在那些情况下变得理性地自信。那是… 所以,但我,我不… 我会说,那些事情,它通常是,只要一个人能直接做某事,那么那就会把我置于一个有效的位置。当情况是,“不,我实际上做不了,我必须等其他人做这个那个以及其他的”,那些是我不喜欢的情况,我试图避免那些。
主持人 (Cyrus): 嗯,过去几分钟对我来说秘密地是一次治疗,但我会做笔记,并且我会尝试采纳您的建议。转变…
Wolfram: 关于那件事我不得不再说一句,那就是,人们,我做了很多事情,从外部看可能像是冒险的、大胆的,但一个重要的事情要意识到的是,那从来都不是内部的感受。对我来说,我做的任何事从来都不会感觉像是,“哦,我的天哪,这个…” 我总是觉得,“我能看到如何到达另一边”,或者我以前做过足够多类似的事情,中间可能会出问题,但我确信我能… 我认为那是… 那是人们不尝试去做那个从无到有的原因,因为他们会想,“哦,我的天哪,可能会出问题”。而且,内部的视角,而且我不认为这是… 它根据历史来看并非被证明是非理性的。但这是一个重要的特征,如果你总是… 我必须说,当我考虑做事情时,我当然不会忽略“这些是所有可能出错的事情”,但我总是持有这样的自我观点:“好吧,我们知道这些事情可能会出错,我们知道如何处理,它会进行得很顺利。” 而它通常确实如此。所以,虽然有时需要一些中途修正… 我想在,在一个人们可能会说,像在一个公司里,人们可能会说,“让我们制定一个计划,然后我们将遵循这个计划”。对我来说,一个重要的事情是,对于某些事情,要说,“不,让我们不要制定计划”,因为我们制定的任何计划都,很可能是在朝着一个有一定概率会直接掉下悬崖的方向前进。最好不要有… 就像你有一个即将推出的产品,然后你想,“让我们弄清楚产品的整个营销故事”,而我们甚至还不知道产品到底是什么,因为我们还没有… 很多产品,只有当你能真正地触摸它并把玩它时,你才真正知道你拥有什么。而且,你可能已经说过,“嗯,这个产品最重要的事情是 X”,但然后你实际构建了它,你意识到,“哇,这是用这个能做的非常酷的事情”,这是事先没有想到的。而且,如果你已经有了整个“这是我们将如何解释它”的方案,而它是一个不同的东西,那就是一个失败。最好是推迟决定你将如何描述它,直到你更接近拥有那个东西。
主持人 (Cyrus): 当然,有道理。很有趣。我是您朋友纳西姆·塔勒布(Nassim Taleb)写的《不确定性》(Incerto)系列的学生,很有趣,我看到了不少与纳西姆在《不确定性》中所宣扬的相似之处,围绕着冒险,当然,您承担的是理性的风险,也就是避免彻底毁灭的风险,但您在修补,这是遵循着推出产品的整个迭代过程,也就是,“让我们发布它”,然后你会发现各种各样的新信息,然后这些信息就是反馈,然后您的团队会因此进行修补。所以,我喜欢它。将话题转向今天的热门话题 AI。所以在 Codesmith,我推荐给学生的一本书,作为某个讲座后的延伸阅读,是您的书《ChatGPT 在做什么以及它为什么有效》(What is chat GPT doing and why does it work)。书名,我确实强烈推荐听众去购买它。Sam Altman 本人说过,这是他见过的对 ChatGPT 在做什么的最好解释。所以我认为这已经足够赞誉了。您思考 AI 已经有很长时间了。如果您必须预测,30 年前的 Stephen Wolfram 会对今天的 AI 格局作何反应?
人工智能(AI)深入讨论 (AI Discussion)
Wolfram: 我可能实际上可以比较准确地说,因为我最早是在 1980 年代初接触神经网络的,那是它们看起来很有前景的时期之一。我没能让它们做任何事。这行不通。然后实际上我的第一家公司,是我在 1981 年创办的,主要是… 我的那部分主要是做数学计算,但它后来与一家试图做专家系统的公司合并了,那是当时 AI 应该做的。所以最终我们的公司最终实际上取名为 Inference Corporation,这听起来非常现代。它最终在 90 年代中期的某个时候上市了,是一次非常不起眼的 IPO。但是,我最近才意识到,我有点没内化这一点,我实际上在 1980 年代创办了一家 AI 公司,尽管我真的不相信我们所做的那部分。而且它是… 我带入的那部分是我的第一种数学计算语言,它很成功,是摇钱树。但是我们的风险投资家,这就是为什么我在我之后创办的任何公司都没有接受投资的原因。但是我们的风险投资家当时说,“你应该做 AI,AI 非常酷”,这是 1983 年左右。而且… 所以那是一次接触 AI。我会说,回到 80 年代初,我很感兴趣,我一直在构建这个用于做像数学计算之类事情的语言。我真的试图弄清楚,表示计算的本质是什么,以便人类可以处理它。那些想法与符号式编程有关,将一切视为对符号表达式的转换等等。那些想法相当好地支撑了我 45 年。但是基于那些想法,我开始思考的一件事是,我能否使用这样的想法来做一个类似 AI 的东西?一个我特别感兴趣的事情是,我能否… 我小时候对收集那种系统的东西很感兴趣,而且当我还是个孩子的时候,那是 12、13 岁的时候,那是我在打字机上敲打一堆数据页。但是到了 1980 年左右,我在想,好吧,那么我能否将此自动化?我的第一个假设是,如果我要制造某种东西,能够获取世界的知识,并使其自动可用,那将需要制造一种类似大脑的 AI。所以我开始思考那个。我有很多关于… 我当时特别,在那些日子里,这是今天不会使用的术语,我在思考模糊哈希(fuzzy hashing),我在思考很多关于模式匹配(pattern matching)的东西,因为那是这种符号表达式变换结构中的一个关键思想,那是计算机语言工作的基石。但无论如何,所以我思考了很多那个,我并没有真正弄清楚如何去做。我曾一度担任一家名为 Thinking Machines Corporation 的公司的顾问。实际上,我想我当时是,他们在制造大规模并行计算机。我记得他们的一个投资者说,“这是一笔好交易,如果这家公司有百万分之一的机会制造出人工智能的晶体管”,那是 1984 年,“那么这就是一笔很棒的交易。” 而我有点相当愤世嫉俗,即使我当时年轻得多,我说,“我不知道还要多久他就会敲着桌子说,‘收入在哪里?’” 答案是 18 个月。但是… 那之后,这是一个… 我做过的很多试图将世界计算化的事情,都是过去人们会说,“当我们能做到那个时,那么我们将拥有 AI”。但是一旦我们做到了,比如让计算机做符号数学,一旦我们做到了,就好像,“但这只是工程”,这是真的。所以,然后向前推进一点,到 1990 年代,我花了一个十年左右的时间做一个大型科学项目,最终变成了我的大部头著作《一种新科学》(A New Kind of Science)。其中一个成果就是我称之为计算等价性原理(Principle of Computational Equivalence)的东西,这是一个相当基础性的想法,在许多科学领域和思想领域都有很多推论。但它的一个推论是,它意味着智能和仅仅是计算之间并没有明确的界限。所以那是一个哲学的结论,也是科学的结论。但我回想起我长期以来的兴趣:我们能否将世界的知识变得可计算?而且这有点像,“好吧,鉴于这个哲学主张,我们应该能够仅仅用计算来做到这一点”。而且我从 Mathematica(现在是 Wolfram Language)那里积累了大量的实际计算结构能力。所以,让我们就去做吧。那大概是 2005 年左右。那让我开始构建 Wolfram|Alpha。Wolfram|Alpha 的概念有点像是“让知识可计算化,并拥有自然语言接口”。而且,可能有 50 年来自现有 AI 社区在那方面失败的故事,构建问答系统等等。我记得当我们最初做那个项目时,有点像带团队去一个大型参考图书馆,然后说,“好吧,在接下来的几年里,我们要把这个房间里的一切都变得可计算化”。这在当时似乎有点疯狂,但实际上看到它是有限的是有用的。这是一个大房间,但它只是一个大房间,而那已经是世界知识的一个大集合了。所以在 Wolfram|Alpha 中,它的想法是从自然语言出发,去理解自然语言。现在,我事后有点意识到的是,我们有一个巨大的优势。因为人们一直在说,“让计算机理解自然语言”,但是没有目的地。我们有一个目的地,那就是我们的计算语言,我们对世界的一种符号表示。所以对我们来说,“理解”意味着从人们说的随机的东西翻译成这种精确的底层计算语言。所以那是… 然后我会说,就语言模型等等而言,我多年来一直在关注这些东西。甚至更早的时候,在 2022 年,当然还有 2021 年,一直在玩那些东西,感觉就像,“是的,这些很有趣,它们并没有真正以任何令人印象深刻的方式工作”。然后,ChatGPT 出来了。我想每个人,包括那些构建它的人,都对它效果如此之好感到惊讶。而且,然后实际上当时发生的事情是,每个人都在说,“这是怎么运作的?发生了什么?” 所以最终,我就想,“好吧,我要坐下来花一周时间,我要写下我所知道的关于它是如何工作的”。结果证明那就是变成了你提到的那本小书。我有点惊讶,从我做过的所有事情来看,我对正在发生的事情有相当合理的直觉,而我认为那种直觉相当稀缺。我认为最重要的事情是要意识到,在某种意义上,ChatGPT 的成功揭示了我们以前不知道的人类语言的特征。我们已经知道存在一种英语的句法语法,比如名词-动词-名词等等。但同样明显存在的是,哪个名词,哪个动词,哪些组合是有意义的。而那是训练数据中的统计信息告诉你的东西,有点超出了纯粹的句法,更多的是关于语言的语义模式。而那是最终奏效的东西。我是说,我永远无法告诉你,我不知道那会成功。我当然无法告诉你它何时会成功。就像在 2011 年,当图像识别开始工作时,实际上在那时,有个有趣的故事,我… 我们做了很多关于世界各种数据的整理工作。我当时完全准备好开始整理图像处理方法论。所以,我们实际上做了一些… 我们的咨询团队碰巧做了一些紧急项目,一些人在卫星照片中识别汽车。所以当时的问题是,“你是怎么做到的?” 嗯,那是一个取巧的方法(hack)。那是某种… 我们在语言中有很好的图像处理能力,它有点像,“使用这个奇怪的图像处理算子,然后这个,然后这个,然后每当有汽车时就会有一个很大的信号”。所以我想到,嗯,让我们找几百种不同类型的东西,比如显微镜照片里的血细胞,和房子照片里的窗户之类的。然后,整理图像处理的技巧(hacks),以便能够做这些事情中的每一个。所以我正在和我的一个朋友交谈,他是那些人中的一个,实际上是 Jeff Hinton 的主要合作者,实际上早在 1980 年代的远古时代,一个研究计算神经科学的人。我问,“我们应该这样做吗?” 他说,“不不不,我们将会,总有一天我们会让神经网络来做这个。” 我说,“Terry,你这么说已经 25 年了。” 而且,所以我正要让一个团队的人开始研究这些图像处理技巧。然后整个 AlexNet 的故事在 2011 年出来了,感觉就像,“嗯,我很高兴我没那么做”。而且,它是… 很难,我认为我们在机器学习中看到发生的是这些… 这些阈值,识别的事情,语言生成的事情,图像生成,这些都是有趣的阈值。我认为人们有时会想,“哦,发生了一些令人惊讶的事情,这意味着它会从现在开始一直上升”,这通常不是事实,而且我认为在这里也不会是事实。我认为,真正重要的是,如何利用确实有效的东西,并为其加上正确的约束框架,使其真正有用,让它做它能做好的事情,而不是,例如,对我们来说,现在一件大事是,有了 Wolfram Language,我们有很多高端的人类用户。我们现在也得到了很多 AI 用户,因为 AI 使用我们的技术作为它们实际了解世界事实和计算世界事物的工具。但是,这是一个有趣的问题。我是说,正如我所说,我一直或多或少地参与 AI 相关的事情。而且我当然认识 AI 领域的许多参与者。而且,我给你讲一个关于 AI 遇到我们做的其他事情的故事。这是当 Wolfram|Alpha 在 2009 年问世时,我碰巧见到了我的一个朋友,叫 Marvin Minsky,他是一个长期的 AI 人士。他最初实际上他的博士论文是关于 1950 年代的神经网络的。但他对神经网络失去了信心,之后转向了心理学、符号 AI 的方法。但无论如何,在 Wolfram|Alpha 问世前几周,我碰巧在某个地方见到了 Marvin,我说,“好的,Marvin,让我给你看看我们构建的这个东西。” 而且它有点像,它是一个问答系统,AI 世界里对这些东西的术语。几分钟过去了,他就像,扯到其他事情上去了。Marvin 是一个非常容易分心的人。我说,“Marvin,你真的应该看看这个,因为它真的有效。” 然后它有点像,他就像,“哦,我的天哪,它真的有效。” 而且,那是一个有趣的,对我来说看到那是一个有趣的事情。因为它是… 当时的 AI 处于一个历史最低点,人们只是觉得,“什么都行不通,这个领域几乎死了”。而且,看到那种社交动态很有趣,你注入了一些东西,而我不知道,我并不真的认为 Wolfram|Alpha 特别像 AI,它是一个工程、技术、科学的东西。而且有点有趣,因为有人一直试图通过使用世界的常识知识来进行问答,但没有成功。而且,我意识到的是,当我们看 Wolfram|Alpha 时,在某种意义上,相对于他们所做的,我们作弊了。因为对他们来说,所有关于解决某个物理问题之类的事情,都是推理,人类式的推理,自然哲学式的推理。而且,在某种意义上,我们作弊了,因为我们使用了过去 300 年里弄清楚的关于如何用数学和计算等来做事的方法,而不是纯粹的人类推理那方面。有趣的是,对于 LLM 等等,它们擅长的是人类也擅长的事情,人类推理类型的事情。这是一个非常有趣的问题,它们是否擅长那个,是因为它们基本上工作方式或多或少与我们大脑的工作方式相同。我的猜测是,这就是原因。那基本上正在发生的是,它们正在,它们正在以对我们来说似乎合理的方式进行推断和泛化,因为它们有点像是在用我们同样的方式做。而且,我最近对机器学习为何有效这个问题有点感兴趣。而且,这有点令人震惊,我碰巧认识很多在那个领域有所发明的人。而且我,有一段时间我问他们,“那么,这为什么有效?为什么 Transformer 有效?为什么这个有效?” 而且,最终得到的回答是,“嗯,我们有点希望你能弄清楚那个。” 而且,所以我,我已经在那方面做出了一些努力,而且我已经弄清楚了一定的量。我弄清楚的是既有趣又有点让人自愧不如(humbling)的东西。因为很清楚的是,在机器学习中发生的事情,在机器学习系统的训练中,它有点像是在寻找不可约计算(irreducible computation)的块,它设法将这些块以某种方式组合在一起,以实现你想要达到的目标。但这有点像用你在地上找到的随机石头建造一堵石墙。这是某种,你找到这些石头,它们能契合,它们能砌起墙,但如果你问,“为什么这些石头是这个样子的?正在使用的机制是什么?” 没有好的答案。只是因为那些石头碰巧是我找到的。所以那是… 我认为理解这一点是有帮助的,当你思考你能用机器学习做什么,你不能用机器学习做什么时。那有点像是… 那就是在那里构建的那种东西。
主持人 (Cyrus): 我稍后会谈到不可约性,但这非常有趣,因为您在 80 年代研究的很多东西,您建立的基础,正如您所说,是支撑您在过去几十年里在这个领域前进的东西,这也是我们一直向学生宣扬的,你在某个领域建立的基础非常重要。而且,您之前提到的另一点,关于风险投资家和不接受… 您可能有这个新规则,即不接受外部资金。您还谈到了您的书《一种新科学》(A New Kind of Science),另一本我强烈建议人们阅读的书。您还谈到了不可约性。所以,在《一种新科学》中,您介绍了计算不可约性(computational irreducibility),它表明,一些计算过程无法被简化预测,必须明确地运行来确定其结果。而且您刚才也提到了,但是 AI 是否符合这个不可预测的范畴?意味着您无法完全控制或预测 AI 的行为?
计算不可约性与 AI (Computational Irreducibility and AI)
Wolfram: 是的。在某种意义上,那是… 如果一个人能预测它,为什么还要费心去运行它呢?换句话说,如果我们能说,“这个 AI 系统将要说它是一只猫”,那么你就不需要运行 AI 系统来发现它说它是一只猫。但这就是问题所在。当你构建这样的系统并询问它们将要做什么时,计算不可约性就会介入,这是不可避免的,你最终会遇到一种情况,你可以运行它看看会发生什么,你将无法做到那种在数学科学中熟悉的事情,你说,“我要推导出一个公式来说明发生了什么”。问题在于,AI 系统在其操作中显示出计算不可约性。但是如果你对它们说,“去弄清楚世界上某个计算上不可约的东西”,它们将无法以一种非常有效的方式做到这一点。它们擅长的往往是我们也擅长的事情,也就是那种相当浅显但相当广泛的计算。而且捕捉那些我们可能没有注意到的正在发生的小的细微差别。就像,我遇到的一个例子是,在 Wolfram Language 中,我们有一些面部特征检测器,它会说出这张脸的年龄,并且一直把我的年龄猜对在一两年之内。这就像,“我是否在训练数据里?这是怎么回事?” 而且,结果发现,这只是骨骼结构在一生中会变化的特征。而那是,一个典型的人并不会真正注意到,但是 AI 很容易从噪音中提取出那种主题。还有很多时候我们就像,“哦,哇,它做了这件了不起的事情。” ChatGPT 也是一样,提取语言的语义语法。它是同样的故事,它注意到了广泛的细节,那些我们从未注意到的细节。这对我们来说非常令人印象深刻,并且可能对我们有用。但它是某种… 如果你说,“好吧,解决这个计算上不可约的问题”,比如说,“弄清楚在一个三体引力系统中会发生什么”,那可能是一个计算不可约性的例子。它做得相当糟糕。它做的事情有点像直觉上合理的,比如如果它能看到,“哦,这两个行星只是相互环绕,它们做着非常简单的事情”,它会说那就是将要发生的。当涉及到那种不可约计算的细节时,它做得并不好。现在,有很多地方,我们过着我们的生活,有点像避免那些具有计算不可约性的事物。在我们的工程中,我们倾向于尝试构建那些以相当简单的方式工作的东西。我们本可以在世界上使用各种各样的计算不可约性,无论是流体湍流还是云的形状,或者谁知道还有什么。但我们不这样做。我们倾向于尝试设计可预测的东西。所以,我们做的很多事情都是在避免那个。在自然界中,自然并不避免这些事情。自然充满了计算不可约性。而且,如果我们说,“好吧,AI,预测一下在自然界中会发生什么”,它会遇到同样的问题。或者如果你对它说,“弄清楚数学中的这个东西,有一个证明,你可以找到一个证明说这个等于那个,但是那个证明有 10000 步长”。那是一个艰巨的计算不可约性的工作,我认为我们不太可能在让 AI 的魔力… AI 可能擅长做的是说,“嘿,基于人类写的 400 万篇论文,这是人类可能关心的事情”,比如说,“让我做一个身份识别队列,这里有 100 个从元数学空间的‘矿脉’中挖掘出来的定理,人类可能关心其中的哪些?” 那是一种 AI 可以潜在地做得很好的问题。
主持人 (Cyrus): 嗯,您觉得… 我很想知道您对于法律文件将如何与计算语言融合的看法。我想几年前在某个播客上您说过,法律文件、合同和说明手册的世界正在与编程融合,而且我们将看到用计算语言写成的东西。您对此有何展望,您认为法律文件将如何与计算语言融合?
AI 的未来应用 - 计算合约 (The Future of Computational Contracts)
Wolfram: 它发生得有点慢,但它可能… 实际上我们现在有一个大项目,我们做的大多数事情我们最终都会直播很多,已经做了很多。这是一个稍微复杂的项目,我认为人们会… 它有一个很长的铺垫来理解它到底是怎么回事。一份法律文件有点像是试图使用英语作为编程语言来做到精确。你在像专利之类的事情中会以极端的方式看到这一点,但你在几乎任何合同中都能看到。而且我认为,看起来区块链提供了一种诱因和部署渠道给其中一些合同。我不认为它是一个… 我不认为计算合约是某种东西… 存在一个中间范围的价值和情况,也许区块链是有用的。我不认为它是计算合约故事中的关键。主要问题是,你是否能将这个用法律术语写的东西,转化为计算语言,并得到一个东西说,“一个合同说你要做扫雪工作,然后它就像,‘好吧,基于天气信息,基于来自安全摄像头的图像信息,你是否在规定时间之后的两小时内完成了扫雪?’”,“如果情况是这样,那么你就得到报酬,如果不是,如果你用一个巨大的雪堆困住了汽车,而且图像处理系统能看到那个,那么你就输了”之类的事情。而且,问题是,你是否能用代码写那个合同。而在 Wolfram Language 中构建的计算语言,有点像有这个… 我们的目标一直是试图构建一种世界的计算表示。而且它与编程语言的目标有点不同。编程语言真正关注的是,“我们有一台计算机,它做它该做的事,现在我们用它的术语告诉计算机去做这件事”。而在 Wolfram Language 中,我们处理的是,“有一个城市,它有这些特征”,或者“有一个图像,里面有这些物体”,而且它们是我们知道是猫和狗的物体,而且我们了解猫和狗等等。所以一种语言,我认为提供了很好的原材料,来创建… 把法律术语里的东西翻译成计算语言。而且,它的特点是,一旦你有了计算语言的合同,它就可以自主执行,无论好坏。我是说,会有一些情况,人们会说,“我们需要一个紧急出口,因为这东西可能会变得完全疯狂”。但是有很多中等价值的情况,事实上,合同自主执行所节省的那种交易成本是值得的,即使偶尔会发生疯狂的事情。而且我认为,它就像是… 人们说,“嗯,当世界上有很多计算合同时会发生什么?所有的律师都会失业,因为你只需要这个计算合同,然后就只有这些了?” 我认为这和无纸化办公室的故事是一样的。它是… 当拥有这种计算法律实体、法律文件的成本下降时,将会有更多这样的东西。而且我认为这将是一种常规的事情,就像,在这一点上,有点像 AI 链做拍卖之类的事情,在线销售广告或其他什么。所以你会看到一种自主计算合同的链条,用于各种各样的事情。我必须说,它总是… 关于技术和技术预测的一件事是,至少对我来说,预测会发生什么总是比预测何时会发生容易得多。所以有很多事情,我几十年来都知道这会发生,但如果你问,“那会在哪一年发生?” 我完全没有想法。很明显,例如,通用机器人,可能是人形的,因为我们把我们的环境建得非常适合人类,那正在到来。它很可能就是今年。但我不知道它是否会是今年。它可能是,它可能是很多年以后。我不知道。那个看起来像是… 但是我实际上一直怀疑那种通用机器人,就像通用计算一直是世界上的关键事物一样,通用机器人也将是世界上的一个重要的事情。确切的路径… 我对确切的路径有过不同的想法。但是,很明显它将成为一件事,但不太清楚是何时。而当涉及到计算合同时,对我来说,很明显它将成为一件事。它可能 10 年前就已经是了。它今天还不太算是一件事。我们现在正在做的一些事情可能会加速它一点。我们拭目以待。
主持人 (Cyrus): 太棒了。很有趣,就在我正想把讨论转向 AI 和 ML 对软件工程师的未来时,Will Sentence 加入了我们,他是 Codesmith 的 CEO 和创始人。这些话不仅仅是出自我口,而且网上有无数无数向 Will 学习编程和软件工程的学生,他们说,在他们看来,而且,我也会对您这么说,他可能是这个领域在线空间里最好的老师,而且因为他从第一性原理出发分解事物。但是 Will 最近一直在越来越多地思考 AI 和 ML,而且他也在更多地教授这方面的内容。所以,这非常契合,就在我准备改变讨论方向时,Will 也在这里了。
主持人 (Will): 很高兴见到您,我想称呼您 Wolfram 博士。能和您交谈是我的荣幸。另外,我想我们短暂地去过同一所大学,虽然我想您很快就离开去了加州理工,但我去了圣约翰学院(St John's, Oxford)。您在那里学什么?
Wolfram: 我在那里学习。
主持人 (Will): 您在那里学什么?哦,PPE(哲学、政治和经济学)。我母亲曾经在 LMH(Lady Margaret Hall)教书。真的吗?
Wolfram: 是的,太神奇了。那真是太神奇了。她是一位哲学教授,这就是为什么当我还是个孩子的时候,我总是说,长大后我永远不会做的一件事就是哲学。然而我最终却做了很多那个。
主持人 (Will): 我父亲是一所学校的校长,校长(head teacher),我说过我永远不会做的一件事就是当老师,所以你找到了自己不同的方式来达到它。
AI 时代的教育 (Teaching and Learning in the AI Era)
主持人 (Will): 有趣的是,Cyrus 提到思考如何以平易近人的方式解释困难的概念。您最著名的作品之一,或者至少在过去几年里最著名的作品之一,是您对 LLM 的第一性原理(first principles)解释。我认为我纠结的事情之一是,在这个时代,如何赋予人们对这些深刻技术的自主权(autonomy),对它们的思想自主权,希望他们能够将其发扬光大。一方面,它们的复杂性,它们复杂性的增长,使得这可能更加困难。有趣的是,一些也许能够更好地解释它们的根源,费曼(Feynman)式的或 Wolfram 式的,实际上在工具本身内部就可用。当我构建我最近的关于理解神经网络的工作坊时,在黑板上从底层构建它们,我得承认,能够与 ChatGPT 来回交流,主要是为了理解我心智模型的边界,这是深刻的。所以,我认为我觉得有趣的一件事是,存在很多关于 LLM 的心理学(psychology of LLMs)。人们开始对它有一些直觉,但这还不是一门学问。我是说,将来会有 AI 心理学家,就像科幻小说里有一样,现实生活中也会有。他们去年有点被称为提示工程师(prompt engineers),但是,关于对 LLM 将会发生什么有感觉的这个问题,这很奇怪,因为它在某种意义上非常不科学。它非常… 就像心理学一样,心理学中有一些小部分你可以用某种科学的方式来做,但是很多心理学并不是很… 那种科学的清晰明确的形式主义不太适用。
主持人 (Will): 嗯,你也是生活在其中。你是一个身处其中的自我反思的存在,这本身就使得任何清晰明确变得…
Wolfram: 而且在某种意义上,当你使用语言与机器,自然语言进行交互时,也有类似之处。你在某种意义上是它的共同构建者之一,即使它核心是一个随机的鹦鹉(stochastic parrot),你仍然是那个动态的共同构建者,而不是写一段代码然后说“去吧”。
Wolfram: 我发现有趣并且对我来说有点兴奋的是,我花了 40 年做语言设计。语言设计是关于试图理解世界的混乱,并找到能够以一种形式化的方式清晰描述事物的核心原语(primitives)。所以,在这方面做了很多。它是… 有趣的是看到它与自然语言的混乱以及 LLM 能做什么之间的接口。而且,我们最近刚刚发布了 Notebook Assistant,它基本上能从人类模糊的话语,找到最接近的 Wolfram Language 代码,这种代码有点代表了人类可能试图要表达的意思。我当时不知道这会运作得多好。我们构建了它的早期版本,就在 ChatGPT 问世时。我们花了一年半左右的时间调整它,它真的相当令人印象深刻。因为你可以出奇地模糊和出奇地困惑,这就像你在海洋里,你可能正在溺水,但附近某个地方有一个岛屿,LLM 可以把你带到那个岛屿。然后发生的事情是,你得到了这种坚实的计算语言块。而对于我们的语言来说,重要的事情是人类可以阅读它。那有点像是,目标之一是拥有一种语言,不仅仅是供人类书写,也供人类阅读。这似乎是一个非常强大的工作流程。你有一个模糊的想法,LLM 或我们的 Notebook Assistant 给你这个计算语言块。它… 如果你说,“构建我的整个公司”,它做不到那个。你必须有点把它分解成一个大小合理的片段。然后它会给你一段你可以阅读的计算语言代码块。也许你说,“嗯,那部分不太对,我想要一个不同的什么东西在里面”。你可以修改它。但然后你就有了这个可以开始用来构建东西的“砖块”。
主持人 (Will): 嗯,那么,看,您指出的正是我在思考教学时觉得迷人的地方,那就是,哈佛大学伯克曼克莱因(Berkman Klein)中心的创始人几周前说,基本上哈佛必须从传播知识转向,我会说,从 IQ 转向 EQ 也许。我着迷于人们将需要的能力会改变多少。能在多大程度上是沟通复杂想法的能力,去驾驭,就像,我花时间教授对技术主题的第一性原理方法。对这些主题的第一性原理理解有多重要?又在多大程度上是学习任何新事物的能力?又在多大程度上纯粹是基于沟通?这些是我目前在设计课程和学习时正在努力解决的问题。您是否觉得,哈佛那位说从 IQ 转向 EQ 的教授是对的?
Wolfram: 不太相信那个。但是,我认为,我想说的是,学习思考是非常值得的。很多教育在过去几十年里一直是关于机械地学习如何做某事。我认为那越来越不重要了。在我自己努力去自动化你能用计算做什么,现在加上 LLM 又增加了一层自动化之后,关键不再是如何做事的技巧,就像学习数学,重要的不是如何用手算积分,那不是重要的事情。
主持人 (Will): 但那会在整个学校教育中被学习。
Wolfram: 对,但是我是说… 我对我关于教育的看法说几点。我认为很多在不仅仅是“你能回答一个问题吗”,而且是“你能弄清楚该问什么问题吗”方面变得重要的事情,后者很少在学校里被教授。它主要是关于,一旦别人定义了问题,你如何回答问题的技巧。另一件我想说的是,当涉及到计算时,我会说,如何以计算方式思考问题的关键性,这与如何编写代码是不同的。所以,如何编写代码是你大致理解了你想要做什么之后所做的技巧。所以这… 在我的世界里,有了 Wolfram Language 等等,我试图构建我能做到的最高级别的自动化。我们看到了以下这种动态,我必须说,这相当令人沮丧。Cyrus 问我什么让我沮丧,我会给你一个让我沮丧的例子。在 Mathematica 语言存在于世界的这段时间里,现在是 37、38 年了,它被许多最多产的人用于发明、发现无数事物,在研发和教育等领域。但是,这是我们一直看到的事情。我们会看到一些公司,大科技公司,CEO、CTO,他们会是日常用户,使用我们的技术。但然后你问,“嗯,那所有其他人呢?那些在一线的程序员呢?他们在做什么?” 结果是,“嗯,不,他们在写 Java 代码,他们在写 Python 代码,他们在写随便什么。” 而且这就像,然后你发现,嗯,那个人,CTO 或其他什么人说,“嗯,是的,每隔一段时间,我自己做这些事情之一,它花了我两个小时”,使用我们的技术栈。“而程序员们,他们会花三个月来做。” 这就像,“嗯,为什么他们不都使用我们的技术呢?” 我最终意识到了答案,那就是,作为一名程序员的工作通常是,你被给予一个规格(spec),你的工作是某种遵循那个规格的代码。当你说,“嗯,现在我必须发明一个新的规格”的时候,那不是程序员的工作,那是 CTO 的工作。他们可以从他们发明的规格得到一个能运行的原型。如果他们能在两个小时内做到,那就是巨大的胜利。因为然后他们继续,他们制定另一个规格。但是对于程序员来说,这就像,“我的天哪,那是… 我应该做什么?那不是我的工作。” 所以在某种意义上,我认为,对于那些人,那些将最有价值的人,我认为是那些能够制定那些规格的人,能够弄清楚,能够以计算方式思考事物,弄清楚,“我们想要做什么?” 然后,如果像我这样的人把他们的工作做得很好,我们就自动化了很多如何完成那个的过程。但是人们真正需要理解的是如何以计算方式思考世界。它是… 大致上,我们正在看,我不知道,图像之类的。大致上我们能思考用图像做什么?我们能想到的计算方面的事情是什么?而且我认为,你是如何达到知道那些事情的程度的?我认为那很有趣,因为人们有时,在谈论教育时,他们说,“让我们不教事实,让我们不教那种机制,让我们只教原则”。我认为那是没希望的。对我来说,我的能力去弄清楚该做什么,是基于仅仅知道大量的事实。它们碰巧是许多不同领域的事实,无论是数学、计算机科学、商业还是其他什么。对我来说,这就像了解世界上的事物和事实等等,是能够建立原则的关键基石。而且它是… 如果你只是试图教原则,人们有点像在原则中漂浮,那并不能真正起作用。所以我认为,对我来说,而且我不认为我已经解决了这个问题,而且我认为这是一个非常重要需要解决的问题,那就是你如何以最好的方式教授计算思维。有一种方法去实现那种计算思维,那就是我一直试图构建的技术,就是你如何从“我已经弄清楚了如何以计算方式思考它”到“我实际上有了一个能做某事的程序,而且我正在制作图片,我从我看到的东西中获得直觉”等等。那是我们试图自动化的部分。原则上甚至无法自动化的部分是,“嗯,我应该做什么?弄清楚我应该如何思考事物?我应该思考什么?” 而且我认为那是… 我一年多前实际上开始写一本关于计算思维入门的书。我当时想,这会非常容易,因为我已经做了几十年这个了。而且,实际上它不是。它甚至… 那本书的片段,它的开头部分在网上某个地方。我可能很快会开始推广它们,但我一直忙于其他事情。它是这个… 我意识到,我认为,再次,我不知道,我不一定知道如何做这个,但是,是,你真的必须谈论这些不同的领域,地理计算,或者,你如何思考,或者可视化,或者其他什么。这些是,你必须知道事实,因为,而且你必须有点实际了解世界上的真实事物。因为那样的话,如果你在思考可视化,比如说,知道,你可以自己发明饼图(pie chart)的想法,但你可能不会。所以仅仅知道那是外面存在的东西是有用的。那是… 而且思考它是什么,当… 让我们以可视化为例,你在可视化中想要做什么?就像人们会… 例如,你谈论清晰地解释事物。你会看到学术论文等里面的可视化,人们把 17 条曲线叠在一起,都在那里扭动,然后就像,“这张图显示了什么?” 这张图几乎什么都没传达。所以它有点像… 当你思考可视化时,有点像,核心要思考的事情之一是,它就像写作,写英语论述之类的。你该如何思考你想要传达什么?然后通过什么方式… 关于,“嗯,也许我应该把这个做成一个直方图”,或者“也许我应该把这个做成一个配对直方图”之类的想法是什么?
主持人 (Will): 但是我认为,仅仅为了… 而且我知道您必须走了,Stephen,所以我只想… 我认为因为您思考原则如此本能地这么久,我认为重要的是要记住,我们是如此地嵌入在“这样做是因为它一直是这么做的,这是一个饼图,按个按钮生成它”的世界里,或者我最喜欢的 X Y 坐标的想法,关于关联两个随时间变化的事物,或者在两个或多个变化的事物(变量)之间关系中变化的事物。就像,我们不… 对于很多人来说,实际上是退一步然后说,“哈,哇,一个可以捕捉到两个变化但相关的想法、价值观随时间变化的视觉表现的图表”。所以实际上,对我来说,显然是这两者的平衡。我们在 Codesmith 内部尝试做的一件事,只是为了回答一种我认为您描述的平衡原则和事实的方法,那就是,我试图总是举办从第一性原理构建出来的工作坊,很像您的 LLM 的那篇。但随后那个我讨厌做的但同等重要的部分是,人们坐下来进行结对编程,并且必须通过困难的挑战口头解释他们将如何处理它,给另一个人听,然后另一个人必须用代码实现它。因此,实际上存在着,教学上的设计,我认为可以迫使人们不得不去做,就像构建框架、心智模型一样,它们相互作用。那些是… 这听起来都很琐碎之类的,但是你构建了一些东西,就像你做的许多许多事情一样,既实用又同时写了你深刻的理论上复杂的东西。对我来说,这种平衡就是美。它是构建那些复杂的心智模型,给予人们那个,然后看着它们在挣扎中得到检验,并有点被锁定和填充,撞到障碍,实际去做。我知道这很明显,但在某种程度上它不是。你不会看到很多时候在同一个课堂环境中发生那种事情,除非是在像您所做的那种工作中,在您平衡写作原则书籍与,“但是现在该死的去动手做,当你试图输入你想解决的问题的描述时,让它无法工作”,输入到 Alpha 中,然后你必须调整、提炼,而在这样做的过程中,你实际上是在充实你正在构建的心智模型,你在测试它们的边缘。我知道这听起来很老套,因为我们俩,我希望说的非常相似,但这并不是那么典型地在说。
Wolfram: 那种事。看,我认为顺便说一句,我非常喜欢你那个结对编程的概念,一个人向另一个人解释,然后他们… 那是个很酷的想法。那…
主持人 (Will): 它一直是基石。
Wolfram: 嗯,了解这些基石想法总是好的。我认为,但是,关于原则的这个问题,其中一件事是,我已经设法以这样一种方式过我的生活,我认为如果我不理解,那就是胡说。我有,也许是傲慢的观点,我能理解任何事情,而且我会一直钻研直到我理解为止。大多数人,许多人只是有点太不自信,无法持有那种观点。如果你确实持有那种观点,它真的非常强大。因为那样的话,如果你真的坚持理解到底层,那么当你开始向上构建时,它不会倒塌。但是,就教育而言,我说几件事。我做过相当多的教育,但我认为我所做的大部分是懒惰的教育,意思是,我试图向人们解释事情,但我没有做你描述的第二阶段的事情,即实际让人们去练习那些技能,发展它,等等。我们过去三年左右做了一个有趣的教育实验,我们为来自世界各地的人举办了一个夏令营。而且,它是那种花三周时间,密集地做一个原创项目。而我我那里的主要角色,它有点像对我来说是三周的极端教授工作,是弄清楚人们应该做什么项目。我已经变得相当擅长匹配,见到这个人,想出一个项目,它会是一个他们实际上能在三周内完成的事情。这是一个非常密集的事情。然后我们十年前把它扩展到了高中,我们为高中生有一个单独的项目,等等。但那是… 那是一个有趣的事情去观察。因为我看到很多人从未做过那种从无到有的项目。它以前是… 它是一个相当… 它是一个非常… 我认为对人们来说在心理上非常有用的。我想,有点回到 EQ 问题,它部分是一个… 它部分有点像是一种心理学的事情,你能做到这个吗?你能从…
主持人 (Will): 绝对是。而且有趣的是,但是我父母是老师,你刚才谈到你的母亲,对我来说,有趣的是你说没有信心。我经常认为 Codesmith 基本上就是我父母对我重复说的话,还有我的四个妹妹,“你可以”。而 Codesmith 基本上是,通过它,某人可以买到某人说,“你可以。你可以从底层理解这个。你可以建立那些基础。” 但问题是,这真是一场斗争,而且如果你没有在你的一生中反复体验过它的回报,你就不会投资于它。Codesmith 是,“你将从这个项目中出来,经历过数百次建立那个基础的斗争,出来另一边,现在你可能已经足够锁定那种信念,你将能够在你的余生中这样做”。但这取决于有人相信你。这就是为什么我从根本上有时会担心,教育是否真的能够规模化。因为在其核心,仍然有一部分是一个人对另一个人成长的承诺,是使他们能够拥有你描述的那种深度成长,那种深度基础的东西,而那些是如此难以发展。你无法将那个扩展到超过某个…
Wolfram: 我知道,我认为这是一个非常有趣的问题。我是说,这个关于 AI 用于教育等等的问题是… 我会说,就你的观点而言,我注意到的一件事,我总是觉得有趣,我做的项目是从无到有,达到某种在世界上有一定知名度等等。我总是注意到那些参与过这些项目的人,它有点像,它创造了这种光环,如果你参与过一个从“嘿,什么都行不通”到每个人都对它印象深刻的项目,它会持续十年或二十年。人们拥有那种额外的信心,他们继续前进,做各种各样其他的事情。而且它看到真的很酷。但是,而且再次,有了… 就像我们的夏令营,我们正在提供那个给人们,“你可以做这个原创项目,它会很有趣,你可以让它从无到有”。但是就这一点而言,关于教育及其可扩展性。我是说,现在我们有一个大项目来构建一个 AI 导师。每个人都说,“哦,构建一个 AI 导师会很容易,你只需要打开一个 LLM,它就会做。” 嗯,它只能走一小段距离,它能做出很棒的演示,然后就失败了。我们出于各种原因,开始尝试做这个非常具体的事情:为代数 1(Algebra 1)构建一个导师,美国学校里的基础代数课程。因为那似乎是一门课程,有点像是一个分界线,把能够进入 STEM 类型领域的人和不能的人分开。所以它似乎是一件重要的事情。所以我们过去一年花了一个优秀的团队,试图构建一个完全的框架化的代数辅导系统。它似乎相当不错。我是说,那些参与其中的人,他们是老师等等,都说,“哦,我的天哪,这种计算机化教育以前从未奏效过。这个可能真的会奏效。” 这对我来说是一件奇怪的事情,因为基本上我们构建的所有产品都是我处于目标市场的产品,除了这一个,我真的不在目标市场。而且,我可以尝试去揣摩,“让我想象一下… 我记得多年前,我曾与某个做辅导类型事情的公司合作。而我并不真的相信他们。所以我有点在使用他们的平台。我记得我唯一能想到的是,“向我解释为什么出现在圆面积公式里的 pi 和出现在周长公式里的 pi 是同一个 pi”。而那是… 这当然是一个完全愚蠢的,没人… 可能那永远不会是一个正在学习这些东西的人提出的真正问题。
主持人 (Will): 这是一个深刻的问题。
Wolfram: 对。它是一个… 我恐怕它让人们非常困惑。但那是… 它有点像,那是有点过于聪明、自作聪明的愚蠢事情。但是… 我不是那个意思,但是我只是想不出那会是一个问题。但是我很好奇,在… 这整个问题,关于提供那种人类的… 需要多少人类联系才能让人们跨过那个障碍,相信自己能够做事情等等。其中有多少是 AI 能做的?
主持人 (Will): 我的理论是,其中一些过程,所以想象一下,例如,那个结对编程结构。其中一部分是对你旁边那个人的责任感,一部分是过程本身。这些部分是否更具可扩展性?我内心的一个小秘密在想,当我看到像 Character.ai 这样的东西时,人们与聊天机器人建立起真正真实的联系。是 AI 拥有那种感觉吗?我们看到,对于网上的内容,显然他们称之为 AI 垃圾(AI slop)。我们绝对不看重 AI 的输出。人类非常擅长识别来自人类的努力,对此很有天赋。我们一旦看到它不存在,我们就会找到新的方式来展示努力。而那正是你想要经历挣扎和成长时真正想要的。但是,然而有一些年轻人,我有点看看一个 14 岁的孩子在做什么。有一些年轻人正在与 AI 建立真正真实的联系。那种带有灵魂的 AI 是否足够?我用“灵魂”这个词,意思是像人类的努力,我们知道如何评价它。是否足够,正如您所说,说服某人去努力奋斗?我认为这有点像是一个中心的,比如说形而上学的,用一个花哨的词,一个中心问题。
Wolfram: 嗯,这之前有一个时代,那就是教育的游戏化,我认为那并不是非常成功。它是… 也许对于某些性格类型来说,它有一点点成功。但我感觉它并没有… 它不是万灵药。它不是… 我们没有找到一个针对人类的技巧(hack),让他们突然之间都能被自动教育。而且,这是一件有趣的事情,因为我有一个朋友制造人形机器人。而且,我做了一个直播,和那个人形机器人交谈了一个小时左右。而且,它有一个相当不错的 LLM。但那是一次非常奇怪的经历。因为这个… 它是一个人形机器人,有着相当逼真的眼球运动和所有这些东西。而且,我后来意识到,我当时… 嗯,建造它的人对我说,“嗯,实际上,顺便说一句,你和那个东西交谈的时间比其他任何人都长。” 所以它有点像… 但那是一次有点奇怪的经历。但是那是一次我感觉… 它… 我不知道是否有某种… 我感觉我能和它交谈。现在也许我有点永远地损伤了自己,因为我做了相当多的直播,回答来自人们的问题,而那里的动态是我只是看着一个摄像头,对着摄像头说话。所以也许我已经弄坏了自己,我现在已经说服自己,那个摄像头是一个有思想的东西,有一个独眼巨人…
主持人 (Will): 嗯,所以问题是,您说,什么即将到来,您不知道何时。是带有灵魂的,我不是指… 这不是那种 AGI 的,一个用词不当的概念。但是,是跨越那个阈值,进入那种感觉,让我们称之为灵魂,一种意图,“我像对待人类一样重视他们作为一个实体”的感觉。那是您认为即将到来,但您不知道何时的事情吗?还是那不是?
Wolfram: 我认为那会到来。我认为那基本上是人们… 我不太完全知道… 它是从将近 30 年前的那个小小的拓麻歌子(Tamagotchi)宠物开始的,人们当时… 在什么时候人们会对他们的 AI 有何种程度的关心?而且我认为存在… 人们是会关心他们的 AI 的。不仅仅是因为他们的 AI 会非常了解他们。而且它会像是,“嗯,你记得当我们 3 年前做这件事的时候吗?” 而 AI 会说,“是的,我记得那个。” 而那是… 我认为。现在,我不知道 AI 是否会因为你可以克隆那个 AI 无数次而贬低自己。它不像… 它没有人类所具有的那种独特性。所以我不知道在多大程度上… 会有… 它可能是会有技巧(hacks)。就像社交媒体一样。你本可以说,“谁预见到了社交媒体的到来?” 但毕竟我们有人类社会,它有许多与社交媒体相同的动态,但没有那种特定的机制。而且需要一些技巧来让那些东西在网上运作。无论好坏。而且我认为同样的事情可能也适用于那种有灵魂的 AI。但是我不得不相信人们会… AI 能够了解你并了解关于你的事情这一事实… 有点像… 我认为那会让它相当吸引人。而且它将会… AI 会比任何人类都更了解你。而那是… 当你能与 AI 就,“我该如何处理这个那个以及其他的?” 进行对话时会发生什么?而 AI 说,“嗯,你,当你两年前做这个的时候,当你有这个人做了那个等等等等的时候…” 而没有任何人类你可以和他们谈论同样类型的事情。我的猜测是,到那时,它是一个很好的伴侣。而且我认为… 现在,那对世界意味着什么?那是一个有趣的问题。我是说,我们有… 我一直认为那种自动完成、自动建议可能是最终的 AI 接管人类的方式,有点像被征服。因为这就像,你使用 GPS,“我只是跟着 GPS 告诉我的去做”。这就像 GPS… 嗯,这实际上发生过,当最早的 GPS 出现时,很久很久以前。我就想,“当然,我要试试这个”。我当时和我的几个孩子一起做那个,而且他们当时说,“这是个坏主意,这是个坏主意”。而且,“你只是在使用一些疯狂的技术东西”。他们当时这么说,而我说,“不不不,这会很棒”。然后我们意识到我们已经开到波士顿港的一个码头上去了。GPS 当时说,“你可以到达另一边”,除了… 不,那里有一个… 那里有大西洋。所以… 那是一个小小的…
主持人 (Will): 任何像波士顿两周前那样的地方,都结冰了。它只是知道你可以。
Wolfram: 对。它当时是… 它是可行的。我认为… 所以,我认为在这个教学的事情中,问题在于,教学在多大程度上是一种人类动态,有点像向学生推销他们能做事情的事实等等。又在多大程度上是… 假设那个 AI 老师可以了解很多关于学生的信息,并且可以说,“嗯,当你六个月前做这件事的时候,你当时认为你做不了,但是看,你设法做到了”。而且,一个人类老师不会记得那个,不会知道那个。所以一个人类老师有点像是在做纯粹的… 我不会说是推销工作,但它有点像是纯粹的人类动态,独立于那个历史知识。也许它更有说服力。我是说,当然,我知道在我的公司,我碰巧有和我一起工作了几十年的人,在很多情况下。而且这就像,他们总是告诉我,当他们说,“你在这件事上错了”的时候,他们会说,“你难道不记得 25 年前当我们做了这个这个和这个并且那是个坏主意吗?” 而那是… 那在某种意义上比仅仅说,“嗯,这是个坏主意,现在基于这个论点”更有说服力。
主持人 (Will): 哦,这是一个基于我的信念和热情作为真正…的人的坏主意。
主持人 (Cyrus): 我很好奇,接续这次关于教育的讨论,现在特别关注 AI 和 ML 对于软件工程师,以及一般的工程师和研究人员和科学家。对于那些人,在保持领先方面,您有什么建议?在 AI 和计算领域,鉴于我们最近看到的情况?
给软件工程师和研究者的建议 (Advice for Engineers and Researchers)
Wolfram: 学习计算思维。对于每一个领域 X,都将会有一个计算 X(computational X)。如果你是那个弄清楚如何以计算方式思考事物并且你知道最好的工具的人,那么你的处境就很好。而且,我认为在我的生活中,其中一件事是,我开始使用计算机早在 1972 年左右。而且我很多年来都感到惊讶,为什么那些对物理学等感兴趣的其他人不使用计算机?就像,很明显,如果你有更好的工具,你就能做得更多。我最近对自己感到好奇,关于 LLM。我有对 LLM 有一些特定的用途。问题是,我能否使用 LLM 来提升我的直觉?我可以使用 LLM 来做像总结论文之类的事情。我可以使用 LLM 来做比文档搜索好得多的事情,来帮助我开始编写程序等等。但是我能否用它们来提升我的直觉?而那在某种意义上,当我使用计算机时,那是我做的在科学等方面最强大的事情,就是用计算机做实验,那些实验给了我我自己根本没有的直觉。我正准备真正尝试这个。因为我很感兴趣,我们有这个物理学项目,对我来说一直相当令人兴奋,但我认为我们有点弄清楚了宇宙的机器代码,基本上。现在的问题是,我们能否将其与人们能通过实验观察到的东西联系起来?我的猜测是,在实验物理学的文献中的某个地方,存在着能够揭示在我们的模型中出现的特征的实验,比如空间的离散性。这有点类似于 19 世纪末发生的事情。人们在想,“物质是由离散的分子组成的吗?” 没人知道,每个人都在争论。结果发现布朗运动,由一位植物学家在 1830 年发现,人们一直知道那个,并且正确地解释了它,他们在 1900 年左右做到了,他们本能够更早地知道,“嗯,实际上物质是由离散的分子组成的”。所以我猜测,在某个地方,在那一百万篇实验物理学论文中,存在着信息,那是我们需要的,那有点像帮助我们的。所以我下一次尝试使用 LLM 是… 我对物理学了解得相当多,但我没有读过那一百万篇论文。而且我完全不知道它们中的某一篇的角落里是否有什么东西。而且它不是那种关键词搜索能解决的问题,因为它是一个主题性的问题。所以问题是,LLM 能否做… 它有点像,对于数字,我们使用统计学来总结大量的数字。LLM 潜在地能做的是对大量文本进行主题性总结。而且,那是我将要尝试去使用的东西。我不知道那是否会奏效。所以我不能必然地将其宣传为一个适合所有人的东西。而且我认为它可能依赖于实际上自己非常了解自己正在处理的领域。但我会说,学习以计算的方式思考事物,并学习将世界形式化。而且,如果你能将世界形式化,用计算的方式,那么就有工具,我倾向于认为我们构建的那些在这方面相当不错,让你实际利用那种计算理解。这就像人们说,“嗯,你可以用数学的方式思考世界”。那实际上比你能通过以计算方式思考世界所能做的要窄得多。你能用数学公式化的事物,是一个比你能用计算方式思考的事物小得多的集合。我会顺便说一句,回到谈论教育,对我来说很奇怪,可能,我认为就计算思维而言,哪个领域最接近?它不像数学之类的东西。不清楚… 计算机科学是一个庞大而模糊的领域,所以它接近其中的某些部分,但不接近其他部分。但在某些方面,它接近哲学。因为它是关于你如何以一种结构化的、有组织的思考方式来思考事物。你碰巧在那里有原材料。在哲学中,人们可能会使用逻辑之类的作为他们的框架。逻辑是一个非常狭窄的框架。再次,计算是一个更广阔的框架。而且使用那个作为框架,然后你在此基础上构建思考过程,我认为真的非常强大。而且这有点像一件奇怪的事情… 我当时在 2016 年写一本书,我写了一本关于 Wolfram Language 的初级入门小书,那是我努力去做的那种,它实际上是针对高中生的,尽管它最终被很多高级公司的 CTO 使用。它是一本零数学的书,有点像… 但实际上那本书,它有点像,我当时试图弄清楚的一件事是,你如何构建结构,有一系列的想法,你如何将那些想法串联起来,以便它可以构建成… 我有点像,我对此最好的模型是某种程度上像一本拉丁语教科书。因为你有点像,你在构建某些类型的东西,你在总结词汇,你在做… 它有点像一个… 无论如何,它是… 对我来说是一个有趣的练习,你有一系列要传达的想法,你如何… 你需要什么… 在像数学这样的东西里,有 300 年的历史,关于你如何编排代数教科书,微积分教科书。我们对于计算思维完全没有那个。这是一个有趣而困难需要解决的问题。
主持人 (Cyrus): 嗯,一个结束这一集的好方式,我认为将是,我们点名提到了您几本很棒的书。另一本可以用来收尾的是,在《思想创造者》(Idea Makers)这本书中,您写了关于一些最伟大的思想家和创新者,您与之互动或合作过的人,包括理查德·费曼(Richard Feynman)和史蒂夫·乔布斯(Steve Jobs)。有什么… 有什么您真正突出的东西吗?您从他们身上学到了什么教训?因为特别是理查德·费曼,您当时年轻得多。有什么一直伴随着您的吗?
从费曼和乔布斯身上学到的经验 (Lessons from Feynman and Jobs)
Wolfram: 那两个人实际上有惊人的相似之处,他们从未见过面,但是,我碰巧都认识他们。他们都是那种会把大的、模糊的、复杂的事情,试图深入挖掘以找到正在发生的事情的本质的人。对史蒂夫·乔布斯来说,那是制造极简的 iPhone 之类的事情。而对迪克·费曼(Dick Feynman)来说,那有点像是,“这里的要点是什么?我们能否找到一个清晰的科学原语(primitive),我们可以从中构建事物?” 我喜欢他们俩。在某些方面是非常不同的人,但在那种方式上,有这种相似性,就是那种深入挖掘挖掘到“要点是什么”的基石。而且它… 我很多年后意识到,那有点像… 如果我有一项技能,它主要是能够把复杂的事情,深入挖掘它们,然后做工程来重新构建成… 或者做科学来重新构建成一个结构,那是一个丰富的东西。但是那个… 我认为就… 越多的人能有信心去做那种深入挖掘,以便他们达到那个点… 我想对我来说一件事是,我喜欢相信我相当擅长知道我何时知道。而且,那意味着,当我不知道的时候,我就像是会继续挖掘。而当我知道的时候,我真的很有信心,我不会被一些疯狂的事情… 我不知道的事情搞得措手不及。所以… 那是一个… 而且那两个人是很好的教育,在这种挖掘到基石之类的事情的价值和动态方面。
总结与最终思考 (Conclusion and Final Thoughts)
主持人 (Cyrus): 太棒了。好的,Stephen,我知道您总是在进行许多不同的项目、书籍、研究等等。人们在哪里可以找到这些或者关注您的工作最好的地方是哪里?
Wolfram: 可能是 stephenwolfram.com。我的作品,我写的东西,最终会变得… 我不知道… 我想它们有时往往很长。我倾向于认为它们相当容易理解。
主持人 (Will): 我认为如果它们更短的话,会更难理解。它们会花我更长的时间来写。
主持人 (Cyrus): 太棒了。嗯,我喜欢您发布的作品。而且,希望还能有另一个 65 年。
Wolfram: 让我们希望那需要更多的创新。
主持人 (Cyrus): 确实如此。最近有很多关于长寿科学的研究,所以让我们拭目以待。
主持人 (Will): 确实,我关注它很多年了。
主持人 (Cyrus): 非常感谢这次对话,Stephen。
主持人 (Will): 也是。非常高兴能聊天。
Wolfram: 谢谢。
主持人 (Cyrus): 再见。