Sublime
An inspiration engine for ideas
What does DeepSeek R1 & v3 mean for LLM data?
Contrary to some lazy takes I’ve seen, DeepSeek R1 was trained on a shit ton of human-generated data—in fact, the DeepSeek models are setting records for the disclosed amount of post-training data for open-source models:
- 600,000 reasoning data [1]
- 200,000 non-reasoning SFT data [2]
- human prefere... See more
最近研究Elon Musk的第一性原理,发现如果将事物的现象解构,往往能获得全然不同的认知视角。
比如,如果将人们生活中的成就解构,会发现成就是由一个个决策决定的,而将决策解构,会发现是一个计算的过程,思考的结果取决于计算的效率。
由于人脑的计算能力是有限的,要提升计算效率,就需要去寻找可以分担计算负载的高效率工具,将自己大脑的认知过程与这些工具连接起来。
而现在效率最高的工具莫过于AI。
正好不久前读了一本关于人机合体以及认知过程的书,发现这个作者的视角能够很好地解释为什么AI是提升认知水平的重要工具。
书名是《Natural-Born Cyborgs: Minds, Technologies, and the Future of Human Intelligence》,作者是英... See more