Sublime
An inspiration engine for ideas
HEY Email
app.hey.comHEY Email
app.hey.comHEY
hey.com


想彻底解决chatgpt 降智问题?测试 IP 风险值 => 换 IP
一个思路:用 azure 的 IP。微软可是 openai 的金主爸爸,给谁降智都不带给金主爸爸的客户降智的吧。
用新加坡的 azure ip,风险值黄绿,非常稳定,从来没有降智问题。
ip 风险测试网站:ping0 . cc
转给chatgpt 被降智的朋友。欢迎大家在讨论区分享自己解决降智问题的思路和实践效果,群策群力,解决问题。

DeepSeek-R1 八大案例一手实测+深度解析:真的吊打满血版 o1?日常使用好用吗?与其他模型对比如何?技术报告解读 + 实例分析
这几天只做了一件事,就是研究 deepseek。实话说,benchmark 吊打满血 o1,还便宜 50 倍,速度快 5 倍。不敢相信,不明白原理,真的颠覆了 openai 的技术壁垒?对人类学习的启示是什么?高一连 985 都上不了的学生,到高三真的可以上清北?
录了这一支视频,与你分享我这两天的研究和思考。
时间线:
00:01:07 R1大战o1:全面对比
00:04:09 本视频目标:激发你的3个再思考
00:05:18 推理的分类学
00:09:30 目前对R1的态度和观点分3类
00:13:03 案例1:孩子数学考了38分
00:16:0... See more
transformer 是如何“记忆”的?
这是 3Brown1Blue 的一支知识视频,讲 transformer 底层原理,主题是 llm 如何存储事实性知识。
他的 deep learning 系列视频,从 17 年开始,到现在用了 7 年时间,才录了 7 个视频。
但是每一个视频都是经典,值得看 6678 遍,然后还得做笔记,每条笔记里会包括几十条砖块笔记。
可以说,如果搞懂这 7 个视频,那么对深度学习和 gpt 原理,理解绝对到位。比看碎片“干货”好太多太多。
https://t.co/kf44EMcF4o

来自sam altman 7 年前的博客文章的建议,再次强调了专注对生产力的重要性:choose what you work on
生产力不是关于忙忙忙的。整天喊着忙忙忙的人,对真正的生产力一无所知;
不要光顾着忙;在忙具体的事情前,要先独立思考,深入思考,对努力的方向形成自己的判断;
用俗气的说法:先找对事,再用对力。
身体和心态的维护,前提是不要瞎忙,是努力有方向。瞎忙的人,不但会搞垮自己的身体和心态,还会搞坏家庭,搞坏生活。甚至,连社会、大环境,都是被这样的笨蛋搞坏了。越努力,越失败。
在想清楚 what you work on 的前提下,才能在复利效应下收获巨大成功。




3-mini 和 deepseek-R1 都“死记硬背”了这一题。
点出题目不是你刷过的原题后,一个模型悟了,另一个模型裂了。🥴
没想到,这个测试是一个极好的例子,展示了模型的过拟合现象,语言和推理能力都泛化现象。 https://t.co/WzuIjr8URe