浅友们好~我是史中,我的日常生活是开撩五湖四海的科技大牛,我会尝试用各种姿势,把他们的无边脑洞和温情故事讲给你听。如果你想和我做朋友,不妨加微信(shizhongmax)。
2、人类正经历一场“计算范式迁移”:GPU 不仅会替代 CPU 的“事务性工作”,还会进入 CPU 一直难以胜任的“开创性研究工作”。
3、人类作为一个文明,正(幸运地)处在上升期,对太阳能的利用比率还有大幅度上升空间。未来“太阳能 AI 卫星”会让智能的成本大幅下降。
4、随着“AI+机器人”让生产力飞跃,金钱的重要性会逐步下降,工作将成为一种选择,人类彻底消除贫困。
不得不说,人类(中的梦想家)已经很久没这么昂扬了。好像往日阿波罗登月的辉煌,都只配作脚下时代的序章。
放下手机,我突然想起了王兴那个著名预言:2019 年是过去十年中最差的一年,却可能是未来十年中最好的一年。
2025 走到最后,这句线 年浩荡,已经被(了不起的)我们挺过了 16 年。。。
必须承认,一场始于世纪之初的浓墨重彩的互联网大戏已近尾声,演员再奋力做派,也只能震下楼板的丝丝灰尘。
但作为普通观众,着实无需入戏太深。转回身,一个百倍宏大的新舞台正在布景。
站在 2025 和 2026 的分界点,我有一些关于未来的体验,它们未必是精雕细琢的理论,有些甚至是长久肃立身边的常识,却让我受益良多。
你可以钻研一种叫“股票”的东西,抢先布局南海公司,狠狠割一把牛爵爷的韭菜。
大航海时代和紧随其后的工业革命时代,人类文明狂奔向上再没回头,源于两个因素:
这里有一个值得玩味的历史细节:先有人口增加释放大量*廉价*劳动力,后有一众工程师改良纺纱机、蒸汽机。
1750 年到 1850 年,英国人口从 600 万到达 1800 万,大陆另一端的大清国人口从乾隆年间 1.8 亿激增到道光的 4.3 亿。
我们在工业革命时代标注这个刻度,再把时间轴叠加到当下“刻舟求剑”一下,可以大致推测我们今天所处的位置。
马斯克、黄仁勋这类企业家,就是新世界的“哥伦布”。(可以称他们为探险家,也可以称他们为殖民者。)
由此观之,我们无疑身处“新大航海时代”的开端,新大陆就在那,“奴隶”已经装船,未来几乎锁死。
最终只有 1% 最彪悍的人控制了新增劳动力,成为工厂老板、种植园主、资本家。
三百年后, AI 劳动力爆发几乎是无穷的,它的上限是人类对于太阳能的利用率。
换句线 年,每个人的人生*可能性敞口*开始迅速放大。如同一条船从河面来到了入海口。
没错,我花了很多功夫才意识到“乐观可以是一个决策”,而非无可更改的天性。
每个人都占据了星球上独特的一平米。在每个人的区域,地面高度不同,有的人是山,有的人是谷。
下雨的地点是随机的,但水落到地面以后的方向并不随机,它总会向低洼地带流淌。
物理定律决定了,在这个结构中高海拔的人会不断补贴低海拔的人。也就是K型分化中的“下位”补贴“上位”。
以此观之,想要更多的雨水,不能靠手伸得长。最好的办法是抄起铲子,挖低自己的高度。
但我们有办法提高决策正确的概率,这在某种程度上预示着只要决策数量多到某些特定的程度,正确的决策会占据多数。我们就能确定性地“降低海拔”。
这里当然可以有很多复杂的策略,但我生性愚钝,倾向于使用最简单的办法:用“第一性原理”作为筛子,筛选所有备选决策。
单次来看,做多和做空都可能盈利。但是如果你身处一个长期上涨的市场里,做空亏损的概率更大。做多盈利的概率更大。
我们可以试着从第一性原理出发来判断经济的长期趋势:在 100 年(大概一个人一生)的长期跨度里,世界的经济是会更繁荣还是更萧条?
假设身处 1492年、 1789 年、1900 年,你分别会做出什么样的判断?(真实结果又是如何?)
结论是:过去 500 年,任何100年的周期,终点全部高于起点,没有例外。哪怕是经历了小冰期、三十年战争、明清交替、全球人口停滞的 17 世纪,依然如此。
更幸运的是,站在 2026 年,我们身处“过去几年的谷底”+“新大航海时代的开端”,做出乐观判断几乎比任何一个时间里都要容易。
把*长期乐观*的结论作为筛子,你就可以剔除*所有的*做空决策。只在大概率正确的方向上下注,不仅让你的决策篮子变得更轻,还提高了你的预期收益。
不妨对照一下美国股市的历史,在经历 1929 年大萧条、 1941 年偷袭珍珠港、 1947 年美苏冷战、 1973 年石油危机、 2001 年 9·11、 2008 年次贷危机、 2020 年新冠疫情前后的表现,你很容易发现:
多说一句,巴菲特的第一支股票就是 1942 年 3 月 11 日买的,当时珍珠港刚沦陷,美国被日本爆锤,中途岛海战还没打。
也许有浅友说,我是 20 后,还年轻,也没啥资本积累,我的“乐观”就无法变现了吗?
其实无论对谁来说,金钱都只是狭义的投资。你的注意力、时间才是更广义投资。
你可以在各种决策上使用乐观之筛,例如:把时间用来锻炼而非躺平,把精力用在积极建设而非愤世嫉俗。
而“乐观之筛”,是一个简单又好用的万能扳手(和所有工具都能配合)。它像船上的帆,能给你源源不断地提供朝向同一个方向的力。这种力会逐步让你站在 K型分化的上位。
当然,上位并不应该是优越感,它所带来的稳定的资源流入(例如现金流、新工作机会),应被视作一切爱与自由的前提。
这里我想聚焦“最大公约数”,作为一个普通人,应当如何利用“AI 奴隶”目前最普惠的形式——ChatBot——对世界建模?
在 2025 年剑桥大学的一次交流活动上,主持人问黄仁勋:你是如何在最艰难的阶段保持信心,坚持到底的?
面对如此宽阔的提问,老黄居然猛地使出了十成功力,给出了(在我看来的)标准答案:
你得一步步推回去,回到计算机科学最基本的第一性原理,或者物理学的基础原理……你能抓住什么原理,就抓住什么原理。一直推到最底层的逻辑原点。
一旦你完成了这样的一个过程,用你所掌握的环境信息和一切已有认知,构建起了对未来的理解与信念,那接下来问题就变成了:你是个“说说而已”的人?还是一个会“真的去做点什么”的人?
没错,每个人的“世界模型”(有时也被称为“底层认知”“元认知”)都像一个核反应堆,会在一生的跨度内持续输出能量,那才是你是否会对某件事坚持到底的底层因素。
和 AI 训练类似,在颅内对世界建模也需要大量数据。而数据的平均质量最终决定了这个“核反应堆”的输出功率。
世纪之初,伴随互联网发展,人们对世界建模的高质量数据大多来自“搜索引擎”。(当然网络上的数据良莠不齐,所以“搜商”这个词一度流行。)
在 ChatGPT 出现之后,人们对世界建模的高质量数据将大多数来源于“ChatBot”。
能深度激发“ChatBot”并且获得高质量信息的能力,应该就叫“Chat 商”。
在细说“Chat 商”之前,我想先讨论一个重要问题:ChatBot 和搜索引擎到底有什么区别?
答案是:搜索引擎在“已知内容”里搜索,ChatBot 在“可能性空间”里搜索。
假设我们人类发现的真理就像一个个岛屿。我们已发现了 1 万个岛屿,然后把它们画在地图上。
2、即便正确,也未必准确。也就是它的回答“分辨率”不够。(答案过于笼统,没有指导性)
但 DeepSeek R1 所做的事情却是两步:1)连续 N 次放大地图;2)画岛屿。
原有的 ChatBot 像一个瞭望塔,理论上你能够正常的看到世界的尽头,但实际上远处的细节无法分辨。
现在的 ChatBot 像一艘船,可以开到世界的尽头,在那里无比清晰地调查细节。
这也直接催生了 2025 年最让人兴奋的技术之一:Agentic AI。
在过去的大模型中,训练消耗了绝大多数的算力(训练侧的 Sacling Law);
而在 Agentic AI 上,训练消耗算力占比大幅缩减,慢慢的变多的消耗由推理迭代所消耗。(推理侧的 Scaling Law)
深度学习之父理查德·萨顿在《苦涩的教训》中提出训练 AI 的两个关键技术:学习、搜索
但整个 2025 年,我都在思考万维钢就此给出的衍生方法论:每一个人都应该像 AI 一样去学习和搜索,并且应该在这两件事上花掉*无上限*的功夫。
),所以学习和搜索是不存在边际效益递减的。它能给你的“世界建模”带来线性的新增量。
2、ChatBot 负责处理“可描述的部分”,也就是具体向某个方向划行。
只要你萌发出一个念头,想让 AI 帮你改善某个行为、研究某类技术、推荐特定书籍都没有问题。
念头不用很明确,但一定要抓住它,开始和 ChatBot 讨论,在讨论过程中,你不断思考有没有值得继续探索的方向。
宇宙的底层规则是通行的,所以任何一个构建于其上的领域都全息蕴含着底层真理。没有白走的路,每一步都算数。
比如。。。我用 Chatbot 自学了本地运行 Z-Image 模型,下面是我的作品↓
学习和搜索,让自己的世界模型跟着时间推移慢慢的提升。马斯克认为,为了更深刻地探寻真理,一个把全世界人的意识连接起来的“广场”异常重要。(他指的是 X 平台)
在我看来,ChatBot 也有把人类意识连接起来的功能,仅仅是通过“点对点”的模式:
随着慢慢的变多的人(自觉不自觉)把 ChatBot 作为大脑外挂,人类作为一个整体的世界模型质量将会不可逆地大幅提高。
“新大航海时代”的船需要人机共驾。对 AI 的考验很大,对人的考验也很大。
你可以选择成为那种“哦,我当时也想过这事”“我也说过类似的话”的人,但你并没有真的行动。
而我更倾向于那种人:我会非常认真地去推理和思考,并且一旦形成信念,我会深信不疑。
坦白说,只要我脑海中能清晰地“看见”它,我就几乎当它已经成真了。其余的,都只是细节问题。
1982 年,段永平从浙大毕业后,分配到北京电子管厂,他努力工作却成效甚微,不断往深层分析,发现一个底层桎梏:计划经济的低效。
这才有了南下广东之后“阿段”的传奇故事。(段永平说按照广东的风格应该叫阿平,但听上去像女的,所以改叫阿段。。。)
他发现了每股含现金 2 美元的网易股价居然跌到了 1 美元之下,于是仔细阅读财报、请律师分析潜在风险,还试玩了网易游戏和对手的游戏。
然后他决定把所有闲置资金归集 100 万美元,甚至又破例借了100万美元,用来买网易,最终获利 100 倍。
我敢肯定, 80 年代北京电子管厂也有很多人和段永平有同样的感受,世纪之交也有很多人觉得网易便宜得不真实。
了自己的判断。他用自己的职业生涯押注广东,用所有的闲钱押注了网易。换句话说,他在自己高置信度的方向上下了重注。
如果预期收益很高,却没有匹配相应的筹码,本质上等于你白白浪费了自己的“世界建模”。成为黄仁勋说的“哦,我当时也想过这事”的人。
我私下认为,一个人的智力特别大程度体现为 Ta 是否理解概率, 并且在决策中(自觉或不自觉)应用概率。
如果你认为预期收益是 5,可以投入五个零的资源。如果你觉得预期收益是 8,就可以投入八个零的资源。
如果你发现,面对置信度更高的机会,手中却已经只有少数的资源下更大的注,那就从另一方面代表着你在置信度更低的机会上分散了过多资源,需要动态调整。
当然,只有涉及时间、空间范围足够广的决策才是预期收益更大的决策,你中午吃盖饭还是炸鸡的小决策不可能有很大的预期收益。
把大决策集合在一起,形成一个组合,然后按照权重为这个池子分配手里的资源额度。
如此,就形成了一个稳固的决策池。(你不用花很大的精力每天去维护它,除非当初用以做出某个判断的条件发生了变化)
由此观之,所谓的“All in”或者“All 不 in”,都是很明显的错误操作。(或者只是一种简化的表达方式。)
同一个道理,段永平喜欢用开车打比方:你开车的目标是抵达目的地,不是要快,也不是炫技。所以你不应该开快车,更不应该崇拜开快车的人。
2)全程待在车道中央。(不能因为犯困,或者想炫技,或者任何理由而撞上两侧护栏。)
话说人的大脑设计,根本不是为完成超长时间跨度的任务的。大脑最初只是一个保卫基因传承的生存工具,只要能瞬时帮助生命体摆脱危险,就大功告成了。()
可是跟着社会发展,竞争加剧,生存策略逐渐复杂,大脑被迫在更长的时间里维持策略。
孙悟空去化斋前,给唐僧画了个圈儿,叫他不要出圈儿。但最后红孩儿装成受伤,利用同情心诱骗唐僧出了圈儿。(我也是和 ChatBot 聊过之后才知道“画圈儿”这个戏原著里没有,是电视剧独有桥段。)
套用之前的理论:唐僧去西天就是一个时间跨度很长的决策执行过程,这样的一个过程中充满了未知,稍不留神就会做出与风险不匹配的行动。就像开车撞上护栏。
这样如果有一个人受伤,可以有另一个人原地照护,第三人去求助。最大损失止于受伤。
如果单人徒步,一旦走入没信号的地区,失足跌落无法行动,最大损失就是死亡。
同理,唐僧不出圈,最大的损失就是同情心遭受煎熬,但西天的未来仍在;唐僧出圈,最大的损失就是被妖怪吃,西天的未来就没了。
在已知变量下,你更容易判断出此次犯错受到哪个变量影响,从而能够有明确的目的性地改进策略。
如果你在框架外犯错,本质上你都不知道到底有哪些变量,就更不知道哪些变量与自己此次错误相关。那么你不仅承受了错误带来的损失,这个损失还没换来任何“策略的积累”。
3)“行至西天”才是你的根本目标。为了其他任何“支线任务”而降低接近西天的概率,都是错误的选择。
但客观现实摆在这里,西天路上真是有很多“魔”。。。唐僧出门就上当,当当不一样,他也不想,但就是会打破纪律啊!
我们的思维就像一条河,随着支流不断汇入,逐渐失去的上游的清澈。跟着时间推移,我们打破纪律的可能性在不断上升。
丹尼尔·卡尼曼在《噪声》中提出了一个“决策卫生”的概念。简单说,他主张做重要的决策时一定要*走流程*。
1、走流程会增加你做出决策的成本,从而抑制住过剩想象力引导你做出“轻浮”决定。
卡尼曼把决策中的噪声分为很多类,其中影响最大的是“稳定模式噪声”。这种噪声来源于你的成长经历所塑造的世界观、行为习惯以及思考偏好。
由于生活经历的复杂性,以及多因素之间的纠缠,要描述自己的“稳定模式噪声”非常难,而且几乎不可能。
所以,最好的抑制噪声的方法就是放弃“端到端输出”,转而尊重“分段流程”。(在“端到端
你做一个决策,不能拍脑袋。而是画一张表,它的利弊分别有哪些?列在表上,然后分别对这些利弊打分,然后加起来算总分。
每当你想做一个新决策时,首先要去判断和既有的“大决策组合”是否相冲突。如果冲突,就要重新评估一下大决策组合里相冲突的决策。
段永平走了一个流程:他评估了一下北京户口的“价格”,当时值 1 万人民币左右。然后他计算了一下自己投入市场经济可能带来的收益,应该是远大于 1 万人民币。
正是因为坚持“决策卫生”,巴菲特在很长的时间里一直不投资科技股,现在看来,这个机制让他为错失了非常好的机会,当然也保护他没有撞到护栏。
把自己的行为限定在一个圈子里,在很多时候是违背直觉的,这会带来纯纯的痛苦。
如果你是唐僧,最好老老实实呆在圈儿里,如果你变成了孙悟空,就不用待在这个破圈儿里了(你的圈儿扩大到了如来佛的手掌那么大了。)
之所以每次都要不厌其烦地走“决策卫生”的流程,而不是简单固守之前的决策,主要是因为你走完流程之后真的有可能改变之前的决策。
实际上,每当你使用“新版世界模型”对之前的决策做校验的时候,无论是不是改变策略,你的安全边界其实都是在扩张的。
于是,我们又回到了第三章的内容。你必须通过(和 AI 一起)学习来改进对世界的建模,由此才能扩展安全边界。
反过来说,当你会感觉到痛苦的时候,并不是该“出圈”锻炼胆量的时候,而是该“扩圈”,也是通过输入高质量数据来学习的时候!
巴菲特还有一句名言:我一生中最好的投资不是买了哪只股票,而是不断地投资自己。
。我决定就以上几章的思考和 AI 进行一番探讨,看看我是否能在“AI 奴隶”的帮助下,真正对生活方式做点儿改进。
我问它:对于个人来说,《苦涩的教训》中所揭示的 AI 训练方式在日常生活里有哪些实践方案?
2)用电子表格把所有的行为的时长记录下来——睡眠、运动、阅读、写作、社交,等等。
3)每 2-4 周让 AI 帮你做一次“损失函数评估”,哪些变量和你的核心目标相关性最高?然后减少低相关性的行为,增加高相关性的行为。
你的核心能力变成:定义目标函数 + 提供高质量数据 + 设计奖励机制,而非亲自执行。
例如,把图片制作交给 Midjourney,你来精修;把代码交给 Claude,你来验收;把重复工作交给 Zapier,你只定义触发条件。
让 AI 先做 100个垃圾出来,然后从中挑选 3 个可救的,精修这 3 个。
接受 97% 的产出是垃圾,但剩下 3% 会碾压所有“完美主义者”的 100%。
作为普通人,进入新大航海时代的广阔洋面,大概都要对现有的生活和工作方式来进行巨大改造。而且每个人的改造方式都是个性化的,这在某种程度上预示着巨大的投入、不确定性和不安全感
在我看来,过去 20 年的生活方式塑造了我们太多对“确定性”的执念,它已经没办法适应未来的 20 年。
假设你重复在南美蝴蝶煽动翅膀之后观察到一个飓风,那么你不必搞清中间的传导过程(你也大概率搞不清),而可以直接用模型标定二者的相关性,然后利用相关性达到你的目的。
一个内容在小规模用户群里收到了大量点赞,就直接推给更大的用户群,如果仍然获得高赞,就推给更大的用户群。
从头到尾,抖音完全不用了解这一个视频内容为什么被喜欢,甚至就不用知道视频的内容是什么。(只要它合规,爱是什么是什么。)
正应了“股票大作手”利弗莫尔那句话:看到信号立即采取行动,而不是搞清楚原因再动手。
在一个变幻莫测的大时代:你要训练自己搞不懂“因果”的前提下,可以依赖“相关”继续行事。
这次 AI 浪潮中,美国和中国的科技断崖式地领先于欧洲和日本,在我看来,与这两个国家承继了互联网时代的*工程师思维*紧密关联,那就是:尽可能用“相关性”(How)而非“因果性”(Why)来制造系统。
先不预设立场,允许各种形态的创新生成,让子弹飞一会儿,最终再根据顶层意图进行筛选。(而非从一开始就把所有的发展路径都推导清晰。)
这种利用“不确定性”进行经济治理的方式,不和我们利用 AI 大量生成,然后再做筛选-精修的过程完全一致么?
人类将会利用能源驱动 AI 和机器人对任何目标发动“饱和式攻击”——所有创意都可以被迅速验证、实施。
在这种高效熵增机器的加持下,人类也许将要第一次正式冲击卡尔达肖夫尺度中的 Type1 级文明。
当 AI 顶着生产力拐头向 12 点钟方向行进,大量商品被廉价制造,增发的货币会被稠化,滞涨的天花板被捅破,人类有希望再次进入温和通胀的增长周期。
站在彼处回望,2025 年可能会极为特殊,它是旧剧最后的高潮,新戏锣鼓的初响。
,hth华体会全站app下载