Sublime
An inspiration engine for ideas

这位26岁的小伙毕业于哈佛经济学本科,却不工作,睡父母家,专职做股票。
他的x号Gladiator,现在可出名了。
也许有一天成为富翁,也许成为笑话。
他整天泡在X上,只持有BTC和MicroStrategy。
每个推的结尾会说:“You are not bullish enough!”
他去年底接受过WSJ的采访(其实只是一个引用)爆红。
小伙子挺精神的挺可爱的,偶尔会觉得神经兮兮。
因此很多人批评他,赶紧收拾一下,去找份工作。
他振振有词地说,找份工作不值得,每天朝九晚五,还付不起房租买不起房。
他毕业后试着找工作,但想去的公司都没要他。
他将翻身的希望放在BTC和MSTR上。
小伙子还成功地orange pill(转化)了父母,帮父母理财。
美国这样的年轻人很普遍,不想去工作,专职炒股... See more

澄清一些DeepSeek里关于降本增效的概念:
首先,增加训练效率的是MOE,Mixture of Experts,也就是所谓混合专家模型。他指的是模型每一个Transformer Block在最后那一层网络中,仅选择1/k的参数激活进入下一个Block。
这导致对于每一个token来说,一个600B的模型仅需激活了接近37B的权重,相当于每一个token的训练可以节省约80%算力,大大提高了训练速度。
其次,增加推理速度的是MLA,Multihead Latent Attention,多头隐空间注意力机制。名字很玄乎,本质就是通过一些矩阵把注意力机制中最关键的KQV三个矩阵投影到更低维的空间(隐空间)中,以便存在缓存中。这样每次推理的时候就不需要重新计算
大大增加了推理速度
这两... See more