Sublime
An inspiration engine for ideas
Search
All
People
Collections
Articles
Audio
Books
Files
Highlights
Images
Links
Notes
Text
Tweets
Videos
Social
2
2
Subtle blue ☁️ https://t.co/TxBw2OAuJD
Drice
x.com
UI and Brand Design for Bluesky https://t.co/qVN2XBBjj5
Fons Mans
x.com
🚨突发:美国新任能源部长揭露了整个气候骗局 “媒体和政治家从未真正去了解气候变化。” 2万亿美元用于减少2%的化石燃料使用 他们不是在拯救地球‼️ 他们是在抢劫你‼️ https://t.co/rjjt5mxMIg
花岗岩³
x.com
别把我党的底裤脱了 https://t.co/xeyoCJ0Vrm
谷风
x.com
这期视频来教大家用Cursor + NextJS官方模板开发个人的博客页面,Neobrutalism风格真的很不错!完整的视频教程 + 源码获取详见知识库https://t.co/ro7EtifyKX https://t.co/twH1tzk8J8
熠辉 Indie
x.com
年内见分晓 https://t.co/E1ebjucFwu
曹山石
x.com
段永平出手了,大举抄底美港股。今天上午6:09和7:00发文,开始买入(或卖出看跌期权)苹果,英伟达,谷歌,台积电,腾讯。 https://t.co/Yld0L937Hb
美股OK哥
x.com
据说这是巴菲特2025投资者大会流出片段 https://t.co/3PJybtS6ek
美股OK哥
x.com
澄清一些DeepSeek里关于降本增效的概念: 首先,增加训练效率的是MOE,Mixture of Experts,也就是所谓混合专家模型。他指的是模型每一个Transformer Block在最后那一层网络中,仅选择1/k的参数激活进入下一个Block。 这导致对于每一个token来说,一个600B的模型仅需激活了接近37B的权重,相当于每一个token的训练可以节省约80%算力,大大提高了训练速度。 其次,增加推理速度的是MLA,Multihead Latent...
See more
勃勃OC
x.com