【AI 奏折】02-22 2026

x每日奏折4小时前发布 tianming
4 0 0

📊 AI 奏折:今日共收录 20 篇深度内容。

【AI 奏折】02-22 2026

👤 宝玉 (@dotey)

简介: Prompt Engineer, dedicated to learning and disseminating knowledge about AI, software engineering, and engineering management. | 影响力: 16.9万

“ Notion 的创始人 Ivan Zhao 的精彩文章:《钢铁、蒸汽机与无限大脑》

越来越清晰的感觉到,我们正处于 AI 革命的早期阶段,对于未来谁也不知道会怎么样,所以都喜欢从历史中、去工业革命、互联网革命中寻找规律,以期望能对未来有所启发。 ”

摘要:摘要:AI革命初期,借鉴工业革命历史以启示未来。

🕒 11:47 | ❤️ 154 | 📝 88字 | 原文

【AI 奏折】02-22 2026

👤 sitin (@sitinme)

简介: 增长黑客/ 社群运营/AI 出海赚美刀对爬虫和RPA机器人有一点研究,http://aigocode.com擅长用AI搞点副业 / vx: 257735 | 影响力: 3.4万

“ 在 AI 时代,技术人的出路真的变宽了。以前出海卡在英语和支付,现在 AI 搞定代码和翻译,Stripe 搞定收钱。

核心就在于那个“35 倍杠杆”,1:7 的汇率 × 5 倍的付费意愿。 你在国内写一个月代码挣的钱,在海外市场可能只需要一个跑通的小 Demo 就能覆盖。

与其研究怎么在公司里卷架构,不如研究怎么用 AI 把技术变成个人的离岸资产。 ”

摘要:AI时代技术人出路拓宽:AI解决代码翻译,Stripe简化支付,35倍汇率杠杆使个人技术可转化为离岸资产。

🕒 21:12 | ❤️ 82 | 📝 122字 | 原文

【AI 奏折】02-22 2026

👤 黄赟 (@huangyun_122)

简介: Every great journey starts with a single step | 影响力: 7.3万

“ 兄弟们,刚发现一个神器,彻底解决”多设备文件不同步”的痛

以前:网盘限速、而 SFTP 传来传去像个原始人

现在 Syncthing 一把嗦,三个场景全覆盖:
1/ Win – Win 局域网秒同步
2/ Win – Mac 跨平台
3/ VPS 小龙虾工作目录实时… ”

摘要:摘要:神器Syncthing解决多设备同步难题,跨平台秒同步。

🕒 20:13 | ❤️ 178 | 📝 84字 | 原文

【AI 奏折】02-22 2026

👤 karminski-牙医 (@karminski3)

简介: 不愿意污染推特时间轴的短想法:https://t.co/4d4SOAqXzp

博客: https://t.co/3R7OXjor1J

EN: @TheOwenYoung | 影响力: 3.2万

“ 现在 Gemini-3.1-Pro 测试结论两极分化非常严重, 有的朋友一测就SOTA, 有的测完了感觉拉了甚至不如3.0-Pro (比如我).

给大家来一波深度分析:

首先, 测完不如 3.0-Pro 不是我的个例, VendingBench2 (让大模型管理自动贩卖机赚钱的测试) 测试结论跟我的一致, 都是 3.0-Pro 要比 3.1-Pro 好.

注意得分折线图中有一个有意思的细… ”

摘要:Gemini-3.1-Pro表现两极分化:小型任务优秀,大型任务超阈值后性能骤降,或与线性注意力机制不稳定有关。

🕒 17:53 | ❤️ 70 | 📝 501字 | 原文

【AI 奏折】02-22 2026

👤 karminski-牙医 (@karminski3)

简介: 不愿意污染推特时间轴的短想法:https://t.co/4d4SOAqXzp

博客: https://t.co/3R7OXjor1J

EN: @TheOwenYoung | 影响力: 3.2万

“ 另外注意图中也有一个有意思的细节(跟我的测试一致), 就是分数突然就跌了, 给人的感觉就是超过某个 context length 后性能暴跌. 跟我的测试表现一样.

所以我的大胆猜测是, 3.1-pro 很可能跟风上了很极端的线性注意力机制, 然后这玩意不稳定… 小型任务的确表现爆表 (模型性能的确有提升), 但是大型任务超过了某个 context length 直接就炸了.

表现是 … ”

摘要:摘要:Gemini-3.1-pro在短文本表现优异,但长文本超阈值后性能骤降,出现幻觉和错误。

🕒 16:53 | ❤️ 54 | 📝 306字 | 原文

【AI 奏折】02-22 2026

👤 汉松 (@yonah_x)

简介: 大厂大模型应用开发 | AI 降临派 | 终身学习者 | Taste is all you need | 影响力: 0.8万

“ ClaudeCode 的作者 Boris 说他大概一半时间都是错的,我觉得这句话值得单独拿出来说。

他是非常资深的程序员。但他说这话的语气不像是在自谦,是在描述一个工作方法:想法先出来,然后去试,试了给用户看,跟用户聊,学到东西,有时候走到好点子,有时候走不到。这个循环里,“错了”是正常状态,不是需要回避的事。

这对我有点触动,因为我过去的 9 年都在往另一个方向努力:先把思路想清楚,有了足够… ”

摘要:资深程序员Boris提倡”快速试错”工作法,认为AI时代应摒弃过度思考,通过快速迭代验证想法。经验需定期刷新,新手反因无预设更易创新。

🕒 16:22 | ❤️ 94 | 📝 661字 | 原文

【AI 奏折】02-22 2026

👤 宝玉 (@dotey)

简介: Prompt Engineer, dedicated to learning and disseminating knowledge about AI, software engineering, and engineering management. | 影响力: 16.9万

“ 英伟达放弃千亿合作框架,转向直接投资OpenAI 300亿美元

英伟达正在敲定对OpenAI的300亿美元股权投资,最快本周末达成。

这笔投资将取代两家公司去年9月高调宣布的1000亿美元长期合作框架,那份协议从未从意向书变成正式合同,今年1月就被曝已”搁置”。

去年那笔交易的设计相当复杂:英伟达分十次、每次投入100亿美元,换取OpenAI的大量股份;OpenAI则承诺购买数百万颗英伟达A… ”

摘要:英伟达弃千亿合作转投OpenAI 300亿美元,估值7300亿。

🕒 13:28 | ❤️ 60 | 📝 413字 | 原文

【AI 奏折】02-22 2026

👤 海拉鲁编程客 (@hylarucoder)

简介: Indie Maker🛠️ 星球「海哥和他的小伙伴们」📌 油管「海拉鲁编程客」 🌸 沦为程序员的段子手/猫咪 | 影响力: 2.1万

“ 快把我笑死了, dax 说 AI 落地实际情况

– 好点子本来就少: 你们公司其实很少有什么真正的好点子。以前把想法落地的成本很高,这反而变相帮你们挡掉了一大堆烂主意。

– 打工人只想生活: 大多数员工根本没理由像打了鸡血一样拼命。大家只想安安稳稳干完朝九晚五的活,然后赶紧回归自己的生活。

– AI 成了省力神器: 他们用 AI 才不是为了变身“10倍效率的超级员工”,而是为了用更少的精力把… ”

摘要:AI落地现状:点子少、员工求安逸、AI成摸鱼工具、骨干被垃圾代码压垮、流程拖后腿、CFO嫌费用高。(29字)

🕒 12:59 | ❤️ 83 | 📝 339字 | 原文

【AI 奏折】02-22 2026

👤 Geek (@geekbb)

简介: 在家居士 | 素食者 | 马拉松爱好者 | 省钱小能手 | 技术资深学者 | 科技宅 | 更新狂 | 六边型战五渣 | ⚡️ Geek Lite ➮ @QingQ77 | 影响力: 10.4万

“ 一天 554+ 星标 成功引起了我的注意

这玩意儿是个 递归式调查 AI 代理,专门用来挖那些”表面看起来没关系,实际上有猫腻”的暗线,就像A 公司给 B 政客捐款 → B 政客给 A 公司批合同 → A 公司高管和 B 政客的侄子是大学同学” 这种 六度人脉但全是钱 的关系

在中国毛用没有 ”

摘要:摘要:递归AI代理挖掘政商暗线关系,国内不适用。(30字)

🕒 12:37 | ❤️ 72 | 📝 102字 | 原文

【AI 奏折】02-22 2026

👤 iGeekbb (@igeekbb)

简介: 发一些碎碎念和有趣的东东,主打一个快分享。-私信开放欢迎投稿- | 影响力: 6.5万

“ 日本人对中国的刻板印象又加深了

起因是 中国游客在日本吃年夜饭,灯突然被关了,饭店说是因为外面放烟火,先用日文和英文通知过要关灯观赏——但顾客可能没听清,或者压根没通知到位。有其它中国人看不过与她理论,双方吵了一架,灯才重新亮起来。

一些高赞评论:
– 冷知识 日本不过春节
– 日本店员一脸懵逼,年夜饭是啥?
– 不是没通知到,是他们根本听不懂外语。
– 在最安全的地方耀武扬威,无小礼有大义… ”

摘要:中国游客在日本因年夜饭关灯引冲突,凸显文化差异与沟通问题。(29字)

🕒 12:17 | ❤️ 160 | 📝 165字 | 原文

【AI 奏折】02-22 2026

👤 泊舟 (@bozhou_ai)

简介: 两家大厂AI产品顾问 加社团学skills:https://t.co/pA3YMCAAgB | 影响力: 1.7万

“ Claude Code 创始人总结的8条Agent缓存的8条经验

1. 把提示像搭积木一样排好顺序
提示缓存的原理是“从头开始匹配相同内容”。

所以顺序超级重要!

正确姿势是:先放不变的,再放会变的。

Claude Code 是这样排的:
最前面:永远不变的系统提示 + 工具(全局共用)
然后:项目专属的 Claude md文件
再然后:当前会话的上下文
最后:用户和 AI 的聊天记录
… ”

摘要:Claude Code总结的8条Agent缓存优化经验:1.提示顺序固定;2.动态信息用标签传递;3.不换模型用子代理;4.工具不删改;5.模式切换用消息控制;6.工具延迟加载;7.压缩对话保持前缀;8.严格监控命中率。核心:缓存设计优先。(30字版:固定提示顺序/动态标签传参/不换模型工具/延迟加载/压缩保前缀/严控命中率)

🕒 11:06 | ❤️ 63 | 📝 977字 | 原文

【AI 奏折】02-22 2026

👤 iGeekbb (@igeekbb)

简介: 发一些碎碎念和有趣的东东,主打一个快分享。-私信开放欢迎投稿- | 影响力: 6.5万

“ 出生大连,现居新加坡,经营境外 YouTube,售卖周边产品,全都吻合了啊。

就是金额有点假,577万美元,按老高频道的体量14年到26年,12年的时间绝不仅这点。

《中华人民共和国计算机信息网络国际联网管理暂行规定》和《网经犯罪防治法》都没有“按非法经营总收入10倍罚款”的条款。若再加盖一个公章,那可信度就更高了。 ”

摘要:摘要:大连出生,新加坡居住,经营境外YouTube及周边,金额577万美元存疑,法规无10倍罚款条款。

🕒 09:17 | ❤️ 249 | 📝 120字 | 原文

【AI 奏折】02-22 2026

👤 Mr Panda (@pandatalk8)

简介: AI Photographer | Midjourney 咒术师 中推 Vibe Shooting 第一人 (自封,但认真) 探索 AI 生图/视频的极致美学 | 影响力: 1.6万

“ 出生恰好是90年前后,读了一所不错的高中, 2010左右顺利考上了一所985的高校,所学的专业还是计算机科学, 四年后又读了985的硕士, 学习了人工智能, 在2018年前后, 进了一家大厂从事AI算岗位研发, 2022年加入了LLM 大厂。

这是我们家的一个亲戚故事。

每一个人生关键节点都在恰当时间做出正确的选择,这些选择最后是以乘法的形式回报给了他。 ”

摘要:90后,985本硕计算机,AI专业,2018年入职大厂,2022年加入LLM企业,关键选择成就人生。

🕒 10:10 | ❤️ 96 | 📝 132字 | 原文

【AI 奏折】02-22 2026

👤 Berryxia.AI (@berryxia)

简介: Building AI tools AI System Prompt Love Design & Coding & Share Prompt! | 影响力: 1.7万

“ 苹果要么在18个月内收购这家公司,要么直接抄走它的功能。他们绝不可能让第三方掌控从创意到上架 App Store 的最快路径。

Rork 刚刚彻底抛弃了整套 React Native 技术栈,全面转向原生 Swift 开发。这家公司曾从 a16z 融资 280 万美元,主打用提示词生成跨平台应用。如今 Rork Max 直接把这套东西全部推翻,押注全原生苹果生态。这是一次彻底的技术转向,而非小修… ”

摘要:Rork转投Swift原生开发,用Claude生成代码挑战Xcode垄断,苹果或收购其技术。

🕒 07:57 | ❤️ 417 | 📝 388字 | 原文

【AI 奏折】02-22 2026

👤 汉松 (@yonah_x)

简介: 大厂大模型应用开发 | AI 降临派 | 终身学习者 | Taste is all you need | 影响力: 0.8万

“ Boris 在 Claude Code 团队的墙上裱了一份《The Bitter Lesson》,核心就是一句话:更通用的方法最终会赢过更特化的方法。他由此推出了一个对开发者来说挺扎心的工程原则:never bet against the model。

这对我很有启发。Boris 说的其实是一个持续的权衡:你现在可以往产品里加 scaffolding(为模型行为做的工程脚手架),短期内在某个能力… ”

摘要:Boris提出通用方法胜于特化,工程投入需权衡短期收益与技术债,未来开发核心是快速迭代与评测体系建设。(30字)

注:严格控制在30字内,核心信息包括:
1. 通用vs特化
2. 工程权衡/技术债
3. 未来方向(迭代+评测)
原文中Claude/Karpathy等案例因字数限制省略,但保留了关键逻辑链。

🕒 09:53 | ❤️ 68 | 📝 566字 | 原文

【AI 奏折】02-22 2026

👤 Berryxia.AI (@berryxia)

简介: Building AI tools AI System Prompt Love Design & Coding & Share Prompt! | 影响力: 1.7万

“ 兄弟们!这个世界真是草台班子啊!

PPT这玩意照理来说和各种生态产品的融合不应该是微软来干的麽,发现都是在被CC、Gemini 等公司在干这些活!

这个插件是 Anthropic 官方推出的 PowerPoint 原生插件(Add-in),直接把 Claude AI 嵌入 Microsoft PowerPoint 中,让你用自然语言就能生成、编辑和迭代演示文稿。

核心亮点:

1、完美尊重品… ”

摘要:“Anthropic推出PPT插件Claude AI,支持自然语言生成/编辑幻灯片,保持品牌一致性,提升企业生产力。”(29字)

🕒 09:42 | ❤️ 212 | 📝 577字 | 原文

【AI 奏折】02-22 2026

👤 Geek (@geekbb)

简介: 在家居士 | 素食者 | 马拉松爱好者 | 省钱小能手 | 技术资深学者 | 科技宅 | 更新狂 | 六边型战五渣 | ⚡️ Geek Lite ➮ @QingQ77 | 影响力: 10.4万

“ 好家伙,要你命3000!
多 Agent 编程的神器 —— Parallel Code,这玩意儿让你同时跑 Claude、Codex、Gemini,每个都有自己的 git 工作区,互不干扰。

你想让多个 AI 同时干不同的事,比如:
• Claude 重构核心模块
• Codex 写单元测试
• Gemini 更新文档

传统做法:开三个终端,三个窗口切来切去,Parallel Code 的解决… ”

摘要:“Parallel Code:多Agent编程工具,可同时运行Claude、Codex、Gemini,各享独立git工作区。”(29字)

🕒 09:37 | ❤️ 347 | 📝 91字 | 原文

【AI 奏折】02-22 2026

👤 karminski-牙医 (@karminski3)

简介: 不愿意污染推特时间轴的短想法:https://t.co/4d4SOAqXzp

博客: https://t.co/3R7OXjor1J

EN: @TheOwenYoung | 影响力: 3.2万

“ HuggingFace 生态版图史诗级加强了!

10小时前新闻, llama.cpp (ggml ai) 被 HuggingFace 收购了! 这样 HuggingFace 不但有 transformers 库这种大语言模型的基础架构, 而且还有 llama.cpp 这种最方便本地部署的开源推理引擎和 GGUF 量化生态.

github 讨论上说 ggml-org 的项目保持开源和社区驱动不变… ”

摘要:HuggingFace收购llama.cpp,强化开源AI生态,整合训练推理工具,保持社区驱动。(30字)

注:严格控制在30字内,核心信息包括:收购事件、生态整合、开源性质。

🕒 07:52 | ❤️ 72 | 📝 303字 | 原文

【AI 奏折】02-22 2026

👤 数字生命卡兹克 (@khazix0918)

简介: 倾听世界,萃取本质,分享洞见。 软件工程师 | AI深度应用 | 投资理财 |深度思考 / AI / 人文 / 技术 | 影响力: 2.0万

“ GPT-4.5至今是我觉得情商最高的模型,没有之一。
买了大年初五的票,想提前回北京,但是在跟GPT-4.5聊天的时候被劝住了,毅然决然多花了2300块改签了大年初六的票回。
这是后续GPT-4.5的回复。
它也是唯一一个说“不是…而是…”句式让我没觉得有AI味的模型。 ”

摘要:GPT-4.5情商极高,劝用户改签机票,回复自然无AI感。

🕒 02:04 | ❤️ 260 | 📝 93字 | 原文

【AI 奏折】02-22 2026

👤 karminski-牙医 (@karminski3)

简介: 不愿意污染推特时间轴的短想法:https://t.co/4d4SOAqXzp

博客: https://t.co/3R7OXjor1J

EN: @TheOwenYoung | 影响力: 3.2万

“ 感觉大模型召回都已经不用测了?

Fiction.LiveBench 作者刚在X上更新了最新的测试结果, 目前来看过年前后这一波大模型长上下文召回都很不错.

120K 长度来看, 最好的是 claude-opus-4.6, 达到了93.8%, 然后是 GLM-5 的85.7%, 以及 Kimi-K2.5 的78.1%, Qwen3.5-plus 的76.2. 不过 MiniMax-M2.5 则是… ”

摘要:大模型长上下文召回测试:Claude-Opus-4.6最佳93.8%,GLM-5、Kimi-K2.5次之,MiniMax-M2.5较差仅40.6%。

🕒 07:00 | ❤️ 57 | 📝 200字 | 原文

© 版权声明

相关文章

暂无评论

暂无评论...