Sam Altman 说,智能就是压缩。 知识是可压缩的 -- 一本书,读了几万字,留下印象的可能就几句话,然后那几句话浓缩成了一个想法,以短短几个字符的大小存在了你的脑子中,改变了你的行为甚至人生。 AI 把海量的数据压缩成参数和模型,再根据提示词返回给人类短短几句话。 上个月 Gemini 2.5 pro 发布,是一个我觉得已经强的可以帮助我阅读的模型。1M token context window 太爽了。而且不像 gpt o1 会过度浓缩偷工减料,g2.5 pro 能够抓取保留很多文本中重要的细节。 AI的精灵早以跑出瓶子漫天飞舞了。下一步就是等时机成熟,邀请他进来。 > Let the genie in. ![[本月读书不只是我的本月读书(1).png|500]] 于是上个月没有本月读书(似乎无人注意),因为在写 prompt 然后试新的阅读方法。 具体工作流: 1. 第一层阅读 -- 私人秘制 prompt 将原书压缩成1万字 Deep Summary 2. 第二层阅读 -- 具体内容有感觉的再去问 AI,或者回原文自己读 3. 出去散个步走一走,做几个俯卧撑 4. 第一层理解 -- 在自己脑海中重构知识框架 5. 第二层理解 -- 让 AI 或自己找 Quote,做原子笔记,填充知识框架,做知识卡片 Deep Summary 个人主观估计,AI 的压缩可以用百分之10到20的文字数量承载百分之60到70的思想。 这太让人兴奋了 -- 一直痛苦于人类大脑的写入速度太慢,这辈子连那些所有重要的书都读不完。以前一个月读3本都撑死了。现在,不管多长的书都可以压缩到1万字的一个 Deep Summary 里。而且即使是让 AI 总结我认真看过的书,读他的 Summary 我也时不时能耳目一新。 问题就在于,压缩的过程中,我们损失了什么?读 Summary 和读原文是完全不一样的感受 -- 我们真的能学到东西吗? 我是觉得无损压缩是不可能的,丢是肯定会丢。但其实一般人读书,没有经过刻意训练,花了大把时间,99% 都是丢了的。用半小时读完平常一个月才能读完的书,得到百分之六七十的内容,完全不亏。 而且从根本上来讲,AI 总结的怎么样不直接引向你的理解 -- 读书最重要的是你主动在大脑中建立理解和重构知识。AI Summary 主要提供框架和思路,具体的内容还是得你自己去问问题(不管是问 AI 还是问原文),去找内容,去形成自己的理解,搭建自己的框架。 不带脑子,原文扫过去也和没读一样;带上脑子,高强度地读 Deep Summary 的效率能比读原文高出10到20倍。 尤其是有些书,说实话是不值得读原文的。这样腾出的时间,才能留给那些真正值得读原文的书。 现在这样,已经不是我一个人在读书和思考了。这是向 co-intelligence 迈出的重要一步。这也是标题的第一层含义:本月读书不只是我的本月读书 -- 是我和 AI 一起的。 本来想再试几个月再和你分享的。但是还是决定从下周 Personal Site 的 April Update 里就开始。 这就引到下个主题:本月读书呈现形式的更新。 且听下回分解。