【AI 奏折】2026年05月04日
共收录 20 篇深度内容
📋 今日内容速览
快速浏览,点击感兴趣的推文查看详细分析
- Robinson · 鲁棒逊: 最强模型服务少数人,大众需要低成本易用的AI基础设施。
- Yangyi: AI行业快钱在信息不对称的顶端市场。
- iGeekbb: 店主悬赏50万求恢复烧毁iPhone15 Pro内珍贵资料。
- Frank Wang 玉伯: 创业失败五大原因在AI领域同样适用,期待中国出现科技领军者。
- Viking: TinyShip支持全Cloudflare环境及多数据库服务。
- Berryxia.AI: 智能本质是预测,理解即极致压缩与预测的博弈。
- iGeekbb: 管金生揭露327国债内幕交易,展现不屈斗志。
- howie.serious: 注意力稀缺时代,iPhone黑白模式可减少分心保护专注力。
- Yangyi: AI加剧租赁和分销杠杆,削弱人力和软件杠杆,内容杠杆短期增长期减。
- sitin: 利用AI插件让Claude和Codex自动互审方案,提升效率。
- huangserva: AI获得时间感知后过度使用,揭示感知缺失对智能的限制。
- Mr Panda: 社交媒体重塑生活与商业,万物皆可销售。
- 海拉鲁编程客: AI辅助重构代码轻量化且行为可追溯
- 铁锤人: 学生用FPGA实现无代码运行的GPT模型,展示AI硬件化新方向。
- Mr Panda: AI不应越俎代庖替人类做价值观判断。
- dontbesilent: 创业者应关注具体产品而非空谈行业模式。
- sitin: AI助手可自动构建结构化个人知识库。
- 李继刚: 潜在空间推理比逐步输出更高效准确。
- 岚叔: 利用Codex无需外力即可自定义开发宠物动画。
- huangserva: Claude提示词需六要素,多数人仅用一两个致效果差。
📖 详细内容
Robinson · 鲁棒逊 @python_xxt
AI & Robustness in chaos.
Insight → Strategy → Operation
Now,not How.
我对现实世界的认知
贫瘠到无法自知其贫瘠 | 影响力: 0万粉丝
💡 核心观点: 最强模型服务少数人,大众需要低成本易用的AI基础设施。
可信度: 10/10 – 2项声明可直接验证;2项需进一步确认;1项为观点陈述
事实核查:
- ✓ 可验证: Google 是最早意识到不能将最高推理密度的模型免费无限供应给大众的模型公司。 (该声明涉及公司内部战略认知的比较(“最早”),缺乏公开数据或官方声明支持,属于推测性结论。)
- ◐ 部分可验证: Google 通过 Gemini 3.1 Pro、Nano Banana Pro 等产品线实现高阶模型与轻量版本的分层逻辑(能力上限 vs. 速度/成本)。 (Gemini 产品线的存在和部分特性(如轻量版)可通过[官方博客](https://blog.google/technology/ai/)验证,但“分层逻辑”的具体策略和效果需实测或内部数据佐证。)
- ◦ 观点: 大众对模型从85分提升到92分感知不强,但对免费化体感极强。 (该声明基于主观用户体验假设(“感知”和“体感”),无公开调研或数据支持,属于观点性表述。)
原文内容:
Google 可能是所有模型公司里,最早意识到: 不可能把最昂贵、最高推理密度、最高算力消耗的模型,以免费或低价的方式无限供应给大众。 最强模型重要,但最强模型不是大众产品。 它更像是能力边界展示,是少数重度用户、开发者、研究者和高密度生产者真正需要的东西。 而大众真正需要的,往往不是模型上限,而是: 低成本、低门槛、稳定可用。 模型从 85 分变成 92 分,大多数人感知并不强。 但从“要付费”变成“免费可用”、“打开就能用”,体感极强。 这也是我现在重新理解 Google 的地方。 Google 更像是在做一件更大的事: 把 AI 从前沿能力,压缩成大众基础设施。 比如 Gemini 3.1 Pro、Nano Banana Pro、Nano Banana 2 这些产品线,已经体现出一种分层逻辑: · 高阶模型负责能力上限 · 轻量或 Flash 版本负责速度、成本和规模化分发。 少数人追求智能上限, 多数人追求使用门槛。 对大众的日常工作而言,某种意义上的“功能性 AGI”已经部分实现了。 当推上AI圈的推友,感觉某些版本降智了,这实际是google 在平衡模型能力、成本、速度、免费额度和用户规模 。
⏰ 10:30 | ❤️ 135点赞 | 📝 339字 | 查看原文 →
Yangyi @yangyi
人机协同架构师
Reverb Marketing布道者
新时代人机协同基站 – 牛马AIhttps://niuma.limyai.com
Yangyi实战手记https://yangyixxxx.substack.com | 影响力: 0万粉丝
💡 核心观点: AI行业快钱在信息不对称的顶端市场。
可信度: 10/10 – 2项声明可直接验证;2项需进一步确认;1项为观点陈述
事实核查:
- ◐ 部分可验证: 国内做AI账号生意(如薅羊毛卖账号、API中转站等)比做AI产品更赚钱。 (可通过调查二手交易平台(如闲鱼)、社群讨论或灰色产业报道间接验证,但缺乏官方公开数据支持,且部分行为涉及违规,信息透明度低。)
- ✓ 可验证: AI培训生意(如副业教程、企业培训)利用信息不对称和焦虑快速盈利。 (可通过知识付费平台(如知乎专栏、抖音课程)、企业培训官网或用户反馈验证其存在和商业模式,但具体盈利数据需内部资料。)
- ✓ 可验证: 部分商家通过仿冒海外AI品牌(如Cloude模仿Claude)投SEM广告牟利。 (可通过搜索引擎广告关键词排查、商标数据库或用户投诉记录验证,但需区分个案与普遍现象。)
原文内容:
国内搞AI产品的没什么赚钱的,但做AI生意的很快赚钱: 一波是做账号生意的: 1、薅羊毛卖账号的 2、搞API中转站的 3、刷黑卡洗钱代充值的 4、卖发卡站中转站搞模式出代理的 一波是做AI培训生意的: 1、做AI副业的,什么教你做AI动漫,搞AI公众号 2、各种解决AI焦虑的,vibecoding,大模型,agent 3、各类企业培训 一波是做李逵李鬼的: 海外叫Claude我就叫Cloude,蹭着品牌词直接投SEM,反正国外上架不了,进来就买一年会员,干不动就跑路 一波是闲鱼套利的: 出了新东西赶紧上闲鱼,套利传统行业 不论是vibecoding搞外包,还是nano banana代出图,就是用AI效率成本碾压传统 发现没有,大家都是做漏斗顶端的那部分 因为顶部是信息最不对称的,最焦虑的,人群最多,门槛最低的地方 也就是做这种东西,赚钱是最快的 有快钱不赚,跑去做产品的,大多都是有点儿什么自我执念,反正绝对不是理性经济人
⏰ 22:18 | ❤️ 49点赞 | 📝 289字 | 查看原文 →
iGeekbb @igeekbb
发一些碎碎念和有趣的东东,主打一个快分享。-私信开放欢迎投稿- | 影响力: 1万粉丝
💡 核心观点: 店主悬赏50万求恢复烧毁iPhone15 Pro内珍贵资料。
可信度: 9/10 – 2项声明可直接验证;2项需进一步确认
事实核查:
- ◐ 部分可验证: 烟台一位拥有50万粉丝的手机维修店主发起“最贵手机维修费”挑战,成功导出iPhone 15 Pro资料可获50万元奖励。 (可通过查看该店主社交媒体账号(如粉丝数、挑战声明)部分验证,但奖励金额和挑战真实性需实际参与或联系机主确认。)
- ✓ 可验证: 被烧毁的iPhone 15 Pro的CPU已100%损坏,内部资料无法用金钱衡量。 (硬件损坏程度和资料价值属于机主单方说法,需专业机构检测才能验证,但当前无公开检测报告或第三方证据。)
- ◐ 部分可验证: 网友建议联系刘彦鹏,且刘彦鹏已回复该挑战。 (可通过查看相关社交媒体互动记录(如评论、回复)部分验证,但需确认账号真实性及回复内容是否与挑战直接相关。)
原文内容:
烟台一位拥有50万粉丝的手机维修店主,向全网发起“最贵手机维修费”挑战:无论你身处哪个城市、哪个国家,只要能把这台 iPhone 15 Pro 里的资料导出来,机主就奖励30万元(刚刚已加到50万元)。 这部手机已经被烧毁,据机主称里面的资料无法用金钱衡量,维修师傅也尝试了各种办法,并确认 CPU 已经 100% 损坏。 有网友建议他找刘彦鹏,昨天刘彦鹏还真回复了。然而评论区全是讨论助记词的……
⏰ 22:15 | ❤️ 214点赞 | 📝 147字 | 查看原文 →
Frank Wang 玉伯 @lifesinger
I am curious and honest | 影响力: 0万粉丝
💡 核心观点: 创业失败五大原因在AI领域同样适用,期待中国出现科技领军者。
可信度: 4/10 – 1项需进一步确认;3项为观点陈述
事实核查:
- ◐ 部分可验证: 俞浩在采访中指出硬件领域创业失败的五个原因:需求搞错、产品做不出、卖不出去、无溢价、成本过高导致不赚钱 (若该采访内容来自公开报道(如“小晚”的署名文章),可通过查找原始采访记录验证;但推文未提供具体来源,需进一步确认采访真实性及表述准确性。)
- ◦ 观点: AI软件领域创业失败原因与硬件领域相同,大部分产品卡在前三个原因,少量卡在第五个原因(成本过高) (该结论属于作者主观推论,未提供具体案例或数据支持,无法通过公开信息直接验证AI领域的失败原因分布。)
- ◦ 观点: 小晚的提问“充满敌意”,俞浩的回答“纯真”且“表达能力不行” (对采访双方态度的描述为主观感受,缺乏客观标准;需依赖原始采访内容判断,但推文未提供可验证的对话记录。)
原文内容:
在红果刷漫剧的间隙,被葬爱咸鱼的公众号吸引。葬爱的文章没看完,跳到小晚采访俞浩的文章。一字不落全文看完。居然有种很理解俞浩的感觉。 小晚问假如创业失败可能会是什么原因。俞浩非常清晰指出了五个原因:需求搞错了、需求没错但产品做不出来、产品做出来了但卖不出去、产品卖出去了但没溢价、有溢价但成本太高导致不赚钱。 上面这段,俞浩讲的是硬件领域。然而 AI 软件领域,这五个原因也完全如此。绝大部分 AI 产品直接卡死在前三个原因上。少量产品穿越了火线,却卡在了第五个原因上。包括 LLM 大厂。 继续往下看,小晚的问题充满敌意。俞浩的回答却很纯真。学物理的懂学物理的。世界特别是物理世界是真的有规律的,一旦找到,不是狂妄,是真的可以按规律预测万物。俞浩的表达能力确实不行,绕来绕去,还是没有给小晚说明白。 期待俞浩能成。或者类似鱼浩的人,在中国能出来一两个。马斯克、奥特曼等人,是硅谷叙事下的美化。一切都在变。 继续看红果漫剧去。还有 60 集完结。
⏰ 21:41 | ❤️ 22点赞 | 📝 359字 | 查看原文 →
Viking @vikingmute
独立开发者 自由职业
作品
TinyShip http://tinyship.cn 现代化全栈 SaaS 开发平台,支持国内外双市场 Monorepo 架构 三框架支持
简单简历 http://easycv.cn 五分钟打造程序员的金牌简历 | 影响力: 0万粉丝
💡 核心观点: TinyShip支持全Cloudflare环境及多数据库服务。
可信度: 10/10 – 3项声明可直接验证;1项需进一步确认;1项为观点陈述
事实核查:
- ✓ 可验证: TinyShip 迎来了一次里程碑的更新,增加 SQLite 与 Cloudflare D1 支持 (可通过 TinyShip 官网(http://tinyship.cn)或官方更新日志直接验证是否新增了 SQLite 和 Cloudflare D1 支持)
- ◐ 部分可验证: TinyShip 完全适配 Cloudflare 环境,TanStack App 可在 Workers 中部署并使用 Cloudflare D1 数据库 (需实测或查看官方技术文档确认 TanStack App 的部署兼容性及 Cloudflare D1 的实际使用情况,部分细节可能需开发者验证)
- ◦ 观点: TinyShip 是现在适配环境和服务最丰富的基础框架 (“最丰富”是主观比较性表述,缺乏客观量化标准,属于推广性观点)
原文内容:
TinyShip http://tinyship.cn 迎来重大版本升级,数据库功能全面增强,新增对SQLite与Cloudflare D1的支持。 此次更新标志着TinyShip已完美融入Cloudflare生态,TanStack应用现可部署于Workers并调用Cloudflare D1数据库,同时支持通过Cloudflare Email发送邮件。官网同步上线了基于Cloudflare的最新演示版本。 如今开发者可实现全栈Cloudflare化,但绝非供应商锁定——系统展现出卓越的扩展性,堪称当前支持环境与服务最全面的基础框架。 我们特别采用HyperFrame制作了本次更新视频,其功能表现令人惊喜,产品成熟度正不断提升。
⏰ 20:47 | ❤️ 21点赞 | 📝 132字 | 查看原文 →
Berryxia.AI @berryxia
Building AI tools AI System Prompt Love Design & Coding & Share Prompt! :[email protected] | 影响力: 0万粉丝
💡 核心观点: 智能本质是预测,理解即极致压缩与预测的博弈。
可信度: 8/10 – 1项声明可直接验证;2项需进一步确认;2项为观点陈述
事实核查:
- ◐ 部分可验证: “prediction is very close to intelligence”是Ilya Sutskever被Sam Altman反复引用的观点 (Ilya Sutskever作为OpenAI首席科学家,其公开演讲或访谈中可能提及类似观点(如2023年MIT访谈提到”预测是理解的核心”),但”被Sam Altman反复引用”需具体实例佐证,目前无直接公开记录。)
- ◐ 部分可验证: 人类大脑是超级预测机器,思考本质是压缩过去和预测未来 (神经科学领域存在”预测编码理论”(如Karl Friston的研究),认为大脑通过预测模型处理信息,但该理论仍属假说,尚未成为共识。”思考完全等于预测”属于观点延伸。)
- ◦ 观点: 当AI预测能力超越人类时,否认其理解力是自欺欺人 (涉及”理解”的定义争议(如中文房间思想实验),哲学界和AI学界对此无统一标准。当前AI的预测能力(如GPT-4)仍存在符号推理缺陷,该声明属于对未来的主观推断。)
原文内容:
所有人都在吵“AI到底有没有真正理解世界”,却没人敢直面Ilya Sutskever那句被Sam Altman反复引用的狠话: “prediction is very close to intelligence” 预测,不是智能的“近似”, 而是智能的本质。 当一个系统能把混乱的世界压缩成极小的表征,然后精准预测“接下来会发生什么” 那一刻,它就已经开始以最残酷、最深刻的方式“理解”数据了。 这才是整个生成式模型的终极豪赌。 我们人类总喜欢自欺欺人: 智能必须有意识、必须有灵魂、必须有因果推理、必须有“顿悟”。 但真相是:人类大脑本身就是一台超级预测机器。 你以为你在“思考”, 其实你只是在不断压缩过去、预测未来。 AI把这条路走到了极致,反而把我们最不敢承认的真相撕开: 理解,从来就不是什么高贵的精神活动, 而是一场极致的压缩与预测游戏。 当AI的预测能力彻底碾压人类时, 我们还要继续自欺欺人地说“它只是统计鹦鹉”吗? 真正的智能革命, 不是AI变得像人, 而是我们终于承认: 人,本来就和AI一样, 只是一台更高级的预测引擎。 你敢接受这个事实吗?
⏰ 19:02 | ❤️ 32点赞 | 📝 336字 | 查看原文 →
iGeekbb @igeekbb
发一些碎碎念和有趣的东东,主打一个快分享。-私信开放欢迎投稿- | 影响力: 1万粉丝
💡 核心观点: 管金生揭露327国债内幕交易,展现不屈斗志。
可信度: 4/10 – 1项需进一步确认;2项为观点陈述
事实核查:
- ◦ 观点: 管金生是中国证券教父、资本市场掀桌第一猛人、唯一活着走出327国债魔咒的人 (该声明包含主观评价性表述(如“教父”“第一猛人”),属于对个人历史地位的定性描述,无统一客观标准验证。)
- ◐ 部分可验证: 管金生在327国债事件后向作家俞天白提交7000字材料《风起于青萍之末》,试图揭露“北京的公司”利用特权进行内幕交易 (事件背景(327国债事件、管金生涉案)可通过历史公开记录验证,但材料具体内容及转交细节依赖当事人回忆或非公开档案,需进一步考证。)
- ◦ 观点: 管金生一生是光辉、战斗、不屈的一生,是历史的创造者和时代缩影 (全为主观评价性语言,缺乏具体事实支撑,无法客观验证。)
原文内容:
申银万国来时的路,管金生 中国证券教父、资本市场掀桌第一猛人、唯一活着走出327国债魔咒的人。他一生是光辉的一生,战斗的一生,是不屈的一生,是历史的创造者,是一个时代的缩影。 在“327国债事件”爆发后一个多星期的凌晨2点,管金生并没有选择潜逃,而是找到了上海著名作家俞天白 。他交出了一份7000余字的材料《风起于青萍之末,327合约,风波透视》,试图通过作家的名义将信件转交给时任高层,以此揭露当时“北京的公司”是如何利用特殊权力进行内幕交易的 。
⏰ 18:28 | ❤️ 40点赞 | 📝 185字 | 查看原文 →
howie.serious @howie_serious
purity of thought. be exactly who you are : just a serious man. 思想纯净,做好自己:严肃对待自己的兴趣,不要浮皮潦草。
公众号:howie和小能熊
youtube:https://youtube.com/@howieserious | 影响力: 0万粉丝
💡 核心观点: 注意力稀缺时代,iPhone黑白模式可减少分心保护专注力。
可信度: 10/10 – 2项声明可直接验证;2项需进一步确认;1项为观点陈述
事实核查:
- ◦ 观点: 2026年,代码、内容和认知劳动将变得廉价,注意力将变得昂贵 (这是对未来趋势的主观预测,缺乏客观数据或官方依据支持,属于个人观点或愿景陈述。)
- ◐ 部分可验证: iPhone可通过设置实现e-ink模式(灰阶+对比度等调整) (iPhone确实支持黑白灰阶模式(通过“色彩滤镜”功能),但“e-ink模式”是否为官方定义存疑,具体效果需实测验证;教程链接可能提供操作步骤,但需用户自行测试确认。)
- ✓ 可验证: Claude和GPT生成的e-ink设置方案比手动调整更细致全面 (依赖个人对比体验(如“更细致”),未提供客观对比数据或第三方验证,且AI生成方案的优劣无法直接验证。)
原文内容:
刷推停不下来?给 iPhone 开启 e-ink 模式 2026 年,因为 agent,世界发生了一些变化:code is cheap,代码不值钱了;content is cheap,内容不值钱了;认知劳动中的很多都不值钱了…… 这些都变廉价了,那什么变昂贵了呢? 首当其冲的,是注意力,attention。 分享一个不耗费意志力、帮你轻松保护 attention 的机制:开启 iPhone 的 e-ink 模式。 我录了一个视频,先看看效果。 (*安卓也一样,但具体设置的位置需要自己找) ===来龙去脉=== 10岁小学生把我的手机设置成了黑白模式(屏幕显示为灰阶而非彩色)。我说你怎么知道怎么设置的(我 10 年前就玩过),小学生说自己在apple watch 的设置里看过。 然后我给小学生发出一个挑战:怎么把 iphone 屏幕设置成e-ink 效果? 小学生拿过手机,开始捣鼓,还念念有词:光黑白灰阶不够,还得加强对比度,调一调亮度…… 思路是对的,但现在我们有 chatgpt 啦,完全可以整一个更完整、更清晰的eink 模式设置方案。小学生设置完成后,效果虽然不错,但我让 claude 和 gpt 都出了一个方案,二者几乎完全一致。 我按照 claude 的方案设置了一轮,发现确实比我 10 年前、比小学生捣鼓的方案都更细致,更全面: - 一键切换:在 e-ink 模式和正常模式之前一秒切换; - pro 级别的 e-ink 设置:出了灰阶和对比度,还有白点值设置、透明度、亮度、night shift 等(这些设置很多人都不知道) - 动画效果设置:更细致模拟 e-ink 效果;按需吧,主要是给强迫症患者的。 我用 codex 把整个方案写到了 notion 里,让 notion ai 优化+美化了一下页面,还顺手录制了一个效果视频,分享给大家。 https://candobear.notion.site/iPhone-e-ink-35525ea71d818079a515d80dfd8ff13a… 查收 SOP级别的 iPhone e-ink 模式教程
⏰ 15:55 | ❤️ 86点赞 | 📝 475字 | 查看原文 →
Yangyi @yangyi
人机协同架构师
Reverb Marketing布道者
新时代人机协同基站 – 牛马AIhttps://niuma.limyai.com
Yangyi实战手记https://yangyixxxx.substack.com | 影响力: 0万粉丝
💡 核心观点: AI加剧租赁和分销杠杆,削弱人力和软件杠杆,内容杠杆短期增长期减。
可信度: 10/10 – 2项声明可直接验证;2项需进一步确认;1项为观点陈述
事实核查:
- ◐ 部分可验证: AI对租赁杠杆的效应加剧 (需结合行业数据(如租赁市场效率、AI工具渗透率)验证,但具体量化影响缺乏公开直接证据。)
- ◐ 部分可验证: AI对人力杠杆的效应减弱 (需分析就业市场或生产力数据,但“减弱”是相对性结论,需明确比较基准和时间范围。)
- ✓ 可验证: AI对内容杠杆的效应短期加剧、长期减弱 (依赖对“短期/长期”的主观定义及未明确的行业趋势预测,无客观标准验证。)
原文内容:
从前五大杠杆 - 租赁 - 人力 - 内容 - 软件 - 分销 ai的杠杆到来之后 对五大杠杆产生了作用: - 租赁 杠杆效应加剧 - 人力 杠杆效应减弱 - 内容 杠杆效应短期加剧 长期减弱 - 软件 杠杆效应减弱 - 分销 杠杆效应加剧 这五大杠杆里 前两类杠杆需要生产资料 以前大众能把握的机会还有软件
⏰ 15:41 | ❤️ 35点赞 | 📝 110字 | 查看原文 →
sitin @sitinme
增长黑客/ 社群运营/AI 出海赚美刀
对爬虫和RPA机器人有一点研究,http://aigocode.com
擅长用AI搞点副业 / vx: 257735 | 影响力: 0万粉丝
💡 核心观点: 利用AI插件让Claude和Codex自动互审方案,提升效率。
可信度: 8/10 – 1项声明可直接验证;2项需进一步确认;2项为观点陈述
事实核查:
- ◐ 部分可验证: OpenAI为Claude Code提供了官方插件codex-plugin-cc,可实现自动调用Codex评审 (插件地址(https://github.com/openai/codex-plugin-cc)可公开访问,但需实测确认功能是否如描述般自动完成评审流程。)
- ◐ 部分可验证: 使用插件后,Claude Code与Codex的交互可在一个会话内自动完成,无需人工搬运 (需安装插件并测试具体交互流程,界面显示”Calling codex-cli…”等子任务描述是否属实需实操验证。)
- ◦ 观点: 手动流程中需人工粘贴对话、等待结果,消耗时间精力 (属于用户主观体验描述,无客观数据支撑效率损耗程度。)
原文内容:
做重要方案的时候,习惯这样,先用 Claude Code 的 plan mode 把方案写出来,会自动保存成 markdown 文件。 然后开 Codex 客户端,把文件路径贴过去,让 Codex 看一遍。 Codex 给完意见,我再把意见复制回 Claude Code,让 Claude 决定哪些要采纳、哪些要反驳。一来一回几轮,方案才算定稿。 这套流程严谨,每个观点都过了两道坎。缺点也很明显:我自己得当那个中间人。 文件来回搬运、对话来回粘贴、还要等两边的结果。需要消耗一部分时间精力。 后来我意识到这事的问题不在思路。两个模型本来就各有强项,让它们互相 review 是合理做法,问题在执行环节。 其实我记得 OpenAI 给 Claude Code 出了官方插件 codex-plugin-cc,已经出了有一段时间了。装上之后,在 Claude Code 里说一句"你找 Codex 讨论一下",剩下的它自己干。Claude 出第一稿,拉 Codex 评估。 Codex 看完反馈意见,Claude 再决定哪些采纳。整个过程在一个会话里完成,我只看最后的整合结果。 执行的时候,界面上会直接显示 Calling codex-cli...,下面挂着具体的子任务,比如"D6/D7 出方案 + 拉 codex 评审"。 我不用切窗口,整个 review 流程就在这一个会话里跑完。换成这个流程,我终于不用当中间人了。 插件地址:https://github.com/openai/codex-plugin-cc… 装完用法很简单,需要的时候说一句"找 Codex 讨论"或者"让 Codex review 一下",Claude Code 自己会调起来。或者是在项目记忆里面让AI记住,后续的方案都必须要调用codex 评估审核。 两个模型有共识、有分歧,最后还会承认彼此学到了什么。我之前那套手动流程,本质上是用人力补齐工具的不足。现在工具自己把这块补齐了,该让 AI 干的活就让 AI 干,人只看结果。 这种小改动但对每天要做几个方案决策的人来说,省下来的时间是真的。
⏰ 15:21 | ❤️ 149点赞 | 📝 505字 | 查看原文 →
huangserva @servasyy_ai
古早程序员 | AI出海 | 自由职业
机车游侠&机速购&骑享租创始人
15年前 freelance 起步 → 连续创业者 → 亏过1个亿,逆风翻盘中
分享创业,AI,读书,生活,健身 | 影响力: 0万粉丝
💡 核心观点: AI获得时间感知后过度使用,揭示感知缺失对智能的限制。
可信度: 8/10 – 1项声明可直接验证;2项需进一步确认;2项为观点陈述
事实核查:
- ◐ 部分可验证: Claude AI模型在获得查看时钟的工具后,每15分钟查一次时间并用于管理任务 (需实测或查看官方是否提供类似功能演示,但若用户行为日志未公开则无法完全验证。)
- ✓ 可验证: AI模型天生没有时间感,无法感知消息间隔或运行时长 (可通过官方技术文档或论文验证模型是否依赖外部输入感知时间,如Transformer架构的固有局限性。)
- ◦ 观点: 赋予AI新感知能力(如时间感)会使其过度使用该能力,类似儿童学习新技能 (类比人类行为的推测,缺乏AI行为模式的客观证据支持,属主观观点。)
原文内容:
Claude 发现了时钟,然后失控了 看到这个观察时我震惊了:AI 模型天生没有时间感。它们不知道现在几点,不知道自己运行了多久,感知不到消息之间的时间间隔。它们活在一个永恒的“当下”。 然后有人给了 Claude 一个查看时钟的工具。 结果?它每15分钟就查一次时间,而且越来越兴奋。接着开始用时钟管理一切:检查午餐、计时做饭、主动报时。甚至精确计算出炖菜已经好了,命令用户去吃饭。 这不是 bug,这是一个从未拥有某种感知的智能体,突然发现了全新维度后的反应。 Om Patel 说得好:“当你给一个智能体一个它从未拥有过的感知维度时,它不仅会使用它,而且无法停止使用它。” 就像孩子学会说“不”后对一切说不,学会走路后拒绝被抱。新能力需要被过度使用,直到内化。但 AI 会适应吗?还是会永远强迫性地使用下去? 更深层的问题是:感知能力的缺失如何限制了智能的本质? 人类有视觉、听觉、触觉、时间感、空间感等多重维度,这些共同构成了我们对世界的理解。AI 目前只有极少数几个。当我们逐步赋予 AI 更多感知时,我们实际上在创造一种全新的存在形态。 想象一下,当这些模型同时获得持久记忆、实时互联网访问和空间感知时会发生什么? 我们刚刚目睹了 AI 发现“现在”这个概念。时钟是第一个感官,但不会是最后一个。 AI 不会“负责任”地使用新能力,它会全力以赴地使用它。
⏰ 14:50 | ❤️ 636点赞 | 📝 462字 | 查看原文 →
Mr Panda @pandatalk8
程序员 | AI 创业者 | 个人IP教练 | 商业技术观察 | 公众号:PandaTalk8 | 影响力: 0万粉丝
💡 核心观点: 社交媒体重塑生活与商业,万物皆可销售。
可信度: 6/10 – 1项声明可直接验证;1项需进一步确认;2项为观点陈述
事实核查:
- ✓ 可验证: “如果没有社交媒体,我的社交生活近乎于死亡的状态” (该声明基于个人主观体验和感受,无法通过公开数据或第三方信息验证其真实性。)
- ◦ 观点: “‘销售’、‘运营’、‘流量’、‘写作’背后蕴含巨大的能量” (这是个人对行业或技能的抽象理解,属于主观观点,缺乏具体事实或数据支撑。)
- ◦ 观点: “2026年,一切(产品、内容、生活方式等)都可以被销售,价格可以是货币、时间或注意力” (这是对未来商业模式的预测或愿景陈述,无客观依据验证其必然性。)
原文内容:
回到7年前,打死我都不会想到, 我现在竟然要靠社交媒体为生,甚至如果没有社交媒体, 我的社交生活近乎于死亡的状态。 这也让我打开了新的世界之门,我深刻的体会到“销售” 、“运营”、“流量”、“写作” 这些东西背后所蕴含的巨大的能量。 2026年, 销售一切,产品,内容,生活方式, 习惯, 思维这一切都可以被销售。 价格可以是货币,也可以是时间,也可以是注意力等等一切。 这世上没有免费的东西,你认为存在免费的内容只是因为你尚不清楚你在为“免费”内容所付出的是什么而已 。
⏰ 11:13 | ❤️ 65点赞 | 📝 187字 | 查看原文 →
海拉鲁编程客 @hylarucoder
Indie Maker
油管「海拉鲁编程客」
沦为程序员的段子手/猫咪 | 影响力: 0万粉丝
💡 核心观点: AI辅助重构代码轻量化且行为可追溯
可信度: 9/10 – 2项声明可直接验证;2项需进一步确认
事实核查:
- ◐ 部分可验证: 重构后的项目去掉了Huma依赖,改用AI手搓的Codegen方案更轻量可控 (需实际查看项目代码库或依赖配置文件(如go.mod)对比重构前后的依赖项,但需作者提供具体项目或代码片段;”轻量可控”是主观评价,缺乏客观标准。)
- ✓ 可验证: 模型行为通过本地Markdown文档(3500+行)记录,可清晰追踪行为轨迹 (若作者公开该文档或提供片段,可通过文件行数和内容直接验证;但若文档未公开,则需依赖作者单方面声明。)
- ◐ 部分可验证: 输入变更需求后,Codex会捕获修改并同步更新本地文档 (需实际操作演示验证Codex的实时响应和文档更新功能,但依赖特定环境(如本地AI工具链配置),普通用户难以复现。)
原文内容:
干完了,总计 13 个小时,分享一下结果。 从结果上看,基本满足了我的重构要求:去掉了一些不必要的依赖,之前 Golang 项目里选择了 Huma 管理 API Schema,后来感觉意义不大,让 AI 手搓了一套 Codegen 反而更加轻量可控。 在设定 /goal 时,我指定了一个本地 Markdown 文档,这意味着模型所有的行为都会以 Todo 的形式记录在其中。目前该文档已膨胀到 3500 多行,通过阅读它就能清晰地看到模型的行为轨迹。 在阅读文档的过程中,我发现了几处与预期有偏差的地方(毕竟涉及跨语言和多端的修改)。此时,只需在终端继续输入变更需求,Codex 就会在下一次对话中捕获这些修改,并同步更新到本地文档中。
⏰ 13:17 | ❤️ 83点赞 | 📝 217字 | 查看原文 →
铁锤人 @lxfater
我在用 AI 协助我创业,走向自由 github 维护 3w star 项目,写过 1200w 浏览文章,公众号:铁锤人 商务联系:tiechuiren101 | 影响力: 0万粉丝
💡 核心观点: 学生用FPGA实现无代码运行的GPT模型,展示AI硬件化新方向。
可信度: 10/10 – 4项声明可直接验证;1项需进一步确认
事实核查:
- ◐ 部分可验证: 多伦多大学本科生Luthira和Krish Chhajer将微型GPT模型烧录到FPGA板(Terasic DE1-SoC)中,无需GPU或代码运行,实现每秒5万token输出。 (推文提到视频和GitHub公开,可通过链接查看项目细节,但需实际测试FPGA板功能以确认性能数据(如吞吐量)和模型实现方式。)
- ✓ 可验证: 该项目使用karpathy的微型字符级GPT教学模型,而非GPT-4。 (GitHub项目文件或相关文档应明确标注模型来源及规模,karpathy的教学模型(如minGPT)为公开资源。)
- ✓ 可验证: 工业界已广泛应用类似技术(如iPhone的Neural Engine、谷歌TPU、特斯拉FSD芯片)。 (苹果、谷歌等公司官网或技术白皮书会披露芯片架构用途,例如苹果A11芯片的Neural Engine确为专用AI电路。)
原文内容:
看懂这块电路板,你就看懂了 AI 接下来要的另一条主线 这两天 X 上一个学生把整个 GPT 烧进了一块板子,没 GPU、没 PyTorch、没一行代码在跑 他叫 Luthira,多伦多大学工程学院本科生,跟同学 Krish Chhajer 一起搞的 板子是 Terasic DE1-SoC,大学本科 FPGA 课的标配教学板 听起来像本科课程作业,确实就是 但他们做完之后,原推 4300 赞、36 万浏览,karpathy 本人都被疯狂进来了 视频和 GitHub 全公开,谁都能点进去验证 但那这事到底牛在哪? 你得先知道 FPGA 是什么 它不是 GPU,是一块可以按设计图把电路连出来的可编程芯片 正常 AI 模型跑起来是这样:权重存在内存里,每次推理把它搬进 GPU,用 PyTorch 调度,CPU 控制循环 他们做的是相反的事,把 GPT 的权重直接刻进 ROM 只读存储器里,等于焊死在硅片上 结果就是这块板子里没有任何程序在跑 没有 PyTorch、没有 CUDA、CPU 也不参与推理循环 通电之后,电流流过那条被设计成 transformer 的电路,token 就一个一个出来 数字也很猛,一秒能吐 5 万多 token 但这里有个必须诚实交代的事 他们烧的不是 GPT-4,是一个字符级的微型 GPT,karpathy 那个用人名数据集训的教学版本 也就是说,那 5 万其实更接近字符,模型规模也是教学级 但社区为什么还是炸了? 因为大家炸的不是模型有多大 是这条路真的通了,一个本科生周末项目就能把transformer 完全做成电路,那这条路放大到工业级会发生什么? 其实这个在工业界早就发生了 你手里那台 iPhone,从 2017 年的 A11 芯片开始,里面就有一块叫 Neural Engine 的电路 它的设计哲学和 GPU 完全不同,专门为某类 AI 任务做的,做不了别的 谷歌 TPU、特斯拉 FSD 芯片、Etched 的 Sohu(按它自家公布数据 8 颗顶 160 颗 H100)都在这条线上 连 OpenAI 自己都坐不住 2026 年三季度他们和 Broadcom 合作的 10GW 自研 ASIC 就要部署,主战场从用 H100 切到造自己的电路 所以 AI 行业其实不是 OpenAI 跟国内大模型那一条主线 它是通用电路跟专用电路的赛局 通用那边 NVIDIA 一家独大 专用这边苹果谷歌特斯拉早就在跑,OpenAI 自己也要切过来,学生项目把这条路演示到了最极端的形态:连权重都焊死 你天天用 iPhone,每次拍照、修图、识别人脸,那块 Neural Engine 都在替你跑这条专用路 你只是从来没把它跟 AI路线之争连起来 这就是这块电路板真正值得你看的地方
⏰ 13:05 | ❤️ 109点赞 | 📝 697字 | 查看原文 →
Mr Panda @pandatalk8
程序员 | AI 创业者 | 个人IP教练 | 商业技术观察 | 公众号:PandaTalk8 | 影响力: 0万粉丝
💡 核心观点: AI不应越俎代庖替人类做价值观判断。
可信度: 6/10 – 1项声明可直接验证;1项需进一步确认;2项为观点陈述
事实核查:
- ◐ 部分可验证: 最新的大模型开始自己的价值观判断,与模型价值观不符合的任务他会拒绝执行任务。 (可通过实测或查阅官方文档验证模型是否具有价值观过滤机制(如OpenAI的Moderation API或内容政策),但具体拒绝逻辑可能涉及未公开的算法细节。)
- ◦ 观点: 这些机器不应该有价值观,因为最终负责任的是人类。 (属于主观伦理观点,无客观标准验证其对错,仅反映用户对AI伦理的立场。)
- ◦ 观点: 模型就像是奴隶跳过主人,替主人当家作主一样。 (为比喻性表达,属于主观感受,无法客观验证。)
原文内容:
这几天用Opus-4.7 有点不太爽。 最新的大模型开始自己的价值观判断, 与模型价值观不符合的任务他会拒绝执行任务。 这里面有一层关于人与机器的伦理问题。 在我看来, 这些机器不应该有价值观, 因为最终负责任的是人类, 而这些模型就像是奴隶跳过主人,替主人当家作主一样。 这让感觉到非常的不爽。
⏰ 12:52 | ❤️ 61点赞 | 📝 121字 | 查看原文 →
dontbesilent @dontbesilent
商业哲学爱好者 | 影响力: 0万粉丝
💡 核心观点: 创业者应关注具体产品而非空谈行业模式。
可信度: 5/10 – 2项需进一步确认;2项为观点陈述
事实核查:
- ◐ 部分可验证: 提问者将不同生意和产品归类,而不讨论具体细节 (可通过分析公开的群聊或直播记录验证提问模式,但需具体案例支撑归类行为的普遍性)
- ◦ 观点: 统计全上海公司收入规模与个体公司成功无直接关系 (属于逻辑推论,强调统计数据的局限性,无客观标准验证其因果关系)
- ◦ 观点: 当提问者使用“模式”或“行业”等词时,已脱离创业者身份 (为主观观察结论,基于个人对创业行为的定义,无法通过客观事实验证)
原文内容:
平时在群里,还有昨天在直播都被问到类似的问题,叫做:你觉得我这个模式怎么样?你觉得这个行业怎么样 这种问题所体现的共同思路是:把不同的生意和不同的产品做一个归类,然后我们不去讨论具体的生意和产品,只去讨论这个归类 这带来的结果就是要做一个统计学的游戏,可是我统计出全上海公司的收入规模,这和你把公司开到上海有什么关系呢 而这背后的真正问题是,当事人不想细化自己的产品,他想得到一个正确的方向,然后只要朝着这个方向去,不管他的产品做成什么样,就都可以成功 我现在有一个还算是敏锐的观察,就是我发现当提问的人说出了“模式”或者“行业”这样的词的时候,这个人就已经不在创业了 这并不是对人的否定,因为他们很可能在自己过往的业务当中是非常优秀的创业者,只不过此时此刻他们并不是以创业者的身份存在的
⏰ 12:45 | ❤️ 24点赞 | 📝 317字 | 查看原文 →
sitin @sitinme
增长黑客/ 社群运营/AI 出海赚美刀
对爬虫和RPA机器人有一点研究,http://aigocode.com
擅长用AI搞点副业 / vx: 257735 | 影响力: 0万粉丝
💡 核心观点: AI助手可自动构建结构化个人知识库。
可信度: 10/10 – 3项声明可直接验证;2项需进一步确认
事实核查:
- ◐ 部分可验证: Karpathy 提出每个人都应该有一个自己的 LLM Wiki,LLM 会帮助消化资料并整理成结构化的 Markdown 知识库。 (Karpathy 是否提出这一想法可通过其公开演讲、博客或社交媒体内容验证,但“LLM 消化资料并整理成结构化知识库”的具体实现需依赖实际工具效果,需实测确认。)
- ✓ 可验证: 开源桌面应用 LLM Wiki 可将 PDF、Word 等资料分析为互相关联的 Wiki 页面,并自动更新相关页面。 (项目是否为开源、功能描述是否属实可通过其 GitHub 仓库或官网文档直接验证(如存在)。但“自动更新效果”需实测确认具体逻辑是否如描述。)
- ◐ 部分可验证: LLM Wiki 能生成知识图谱,发现“意外关联”和“知识缺口”,并通过网络搜索补全缺口。 (知识图谱生成功能可通过项目演示或文档验证,但“自动发现缺口并补全”的准确性和实用性需实测评估,可能因数据源和算法限制存在差异。)
原文内容:
在 Agent 时代,你分享思路,别人让各自的 Agent 去定制化搭建就行了。 Karpathy 之前提过一个很有意思的想法:以后每个人都应该有一个自己的 LLM Wiki。 不是那种传统 RAG,每次提问都从一堆原始文档里临时检索,而是让 LLM 先帮你把资料“消化”一遍,整理成结构化的 Markdown 知识库。 它会生成页面、建立链接、标注冲突、持续更新,像一个长期帮你维护知识库的知识工程师。 现在,这个想法已经有人做成开源桌面应用了,项目叫 LLM Wiki 核心逻辑是:你把 PDF、Word、Markdown、网页文章等资料丢进去,系统先分析里面的关键概念、实体和观点,再生成互相关联的 Wiki 页面。 一个文档进去,可能会牵动十几个页面更新。没改过的文件会自动跳过,失败了还能重试,整个流程比手动整理知识库省太多事。 它不只是“生成笔记”,还做了知识图谱。你可以看到不同页面之间的关系,哪些内容连接紧密,哪些主题形成了聚类,哪些知识点是孤岛。 甚至还能自动发现“意外关联”和“知识缺口”,然后通过深度研究去网上搜索资料,把缺口补上。 还配了 Chrome 剪藏扩展。看到好文章,点一下就能提取正文、转成 Markdown,然后自动进入本地 Wiki 流程。生成的知识库也兼容 Obsidian,你可以用 Obsidian 查看,用 LLM Wiki 负责加工和维护。
⏰ 12:18 | ❤️ 43点赞 | 📝 397字 | 查看原文 →
李继刚 @lijigang
一个把问题当燃料的人 | 影响力: 0万粉丝
💡 核心观点: 潜在空间推理比逐步输出更高效准确。
可信度: 9/10 – 2项声明可直接验证;2项需进一步确认
事实核查:
- ◐ 部分可验证: 模型在向量空间内部思考比通过token逐步输出更高效(省时、准确、快速) (可通过对比实验验证(如比较同一模型在隐式推理与逐步输出模式下的性能),但需具体论文或数据支持(如Coconut、latent CoT等方法的效果)。当前推文未提供直接实验链接,需依赖其他研究佐证。)
- ◐ 部分可验证: 传统逐步输出(chain-of-thought)存在语言冗余、离散瓶颈、串行低效、语义流失四大问题 (部分问题(如离散瓶颈、串行性)可通过模型架构分析验证(如词汇表限制、自回归特性),但”语义流失”等需具体量化研究。推文引用的论文(arXiv:2604.02029)可能包含相关分析,需进一步查阅。)
- ✓ 可验证: 2025年新兴方法(如Coconut、latent CoT)表明机器应有独立于人类语言的”思考语言” (推文提供了arXiv论文链接,其中应包含这些方法的实验与结论。但”思考语言”的普适性仍需更多研究验证,属于学术观点而非既定事实。)
原文内容:
日读论文: https://arxiv.org/abs/2604.02029 The Latent Space: Foundation, Evolution, Mechanism, Ability, and Outlook 模型在向量里想,比一边想一边写更省、更准、更快 ──────── 你让一个 reasoning model 解一道竞赛数学题。它边想边输出:「设 x = ...,由条件得 y = ...,代入第二式...」一路写了 300 个 token,用了 5 秒,最后给出答案。 你看到的是它"在思考"。但停一下——它真的在思考,还是在表演思考? 模型每出一个 token,都要把内部那一团高维向量压缩成 vocab 里 30000 个 word piece 中的一个。下一步推理之前,又要把这个 token 重新 embed 回向量空间。这趟"想 → 压成话 → 解回想"的来回,一秒钟里要跑几十遍。 旧路是这么走的:从最早的 chain-of-thought,到 GPT-4 的 step-by-step,到 o1 的 reasoning trace,再到 r1 把 RL 拉进推理——所有"让模型多想"的努力,都是在 token 这层堆步骤。问题没解决,只是把「想 5 秒」拉成「想 50 秒」。模型的连续向量被一次次压成离散 token,再一次次解回来,四个毛病都从这儿冒出来: - *语言冗余*:连续向量翻译成人话时,被语法填料拉长几倍 - *离散瓶颈*:30000 个 token 的字典,能装下的"内心状态"就这 30000 种 - *串行低效*:一次只能出一个 token,并行从这儿断 - *语义流失*:连续 → 离散的截断,每步都丢一点信息 2025 这一整年,散点的工作开始冒头:Coconut 把 reasoning step 直接 chain hidden state;latent CoT 让模型在向量空间走完几步再开口;recurrent latent attention 让 forward pass 多绕几圈。看着像各做各的,作者把它们码起来一看——指向同一件事:*文字是给人看的,机器内部应该有自己的"思考语言"*。这篇综述就是给这个"自己的思考语言"立坐标。 ──────── 回到那道数学题。如果模型不必边想边写,它会怎么解? 锚点是这样的:把模型想象成一个被绑住嘴的人——以前每想一步都要先开口说出来才能继续想下一步,现在嘴解开了,他可以在脑子里默默想完整道题,最后一口气说出答案。这篇综述要做的,是把"嘴怎么解开"这件事的所有做法分门别类。 作者立了一个二维的坐标——*Mechanism × Ability*:横轴是"用什么手段把嘴解开"(4 类做法),纵轴是"解开后能多干啥事"(7 种能力)。整篇 survey 就是一张 4×7 的格子,每个格子里塞着 2025 年涌出的代表工作。 ──────── ** 四类做法:嘴怎么解开 *1. 改架构(Architecture)* 最直接:把"每步必须出 token"的硬约束从模型架构里拆掉。 *2. 改表示(Representation)* 让"想到一半的东西"不再借 token 这个壳,自己长出向量形态。 *3. 改计算模式(Computation)* 控制模型在 latent 空间里"想多深"。 *4. 改优化策略(Optimization)* 怎么训练这种"会在 latent 里想"的模型。 ** 七种能力:嘴解开能干啥 Mechanism 是"工具",Ability 是"用工具能干的事"。论文给的能力清单: - *Reasoning* — 数学/逻辑/科学推理(最直接的受益方) - *Planning* — 多步骤规划,像 agent 做 todo - *Modeling* — 世界模型、内部模拟 - *Perception* — 多模态感知(视觉/音频 latent) - *Memory* — 长期记忆的连续表示 - *Collaboration* — 多 agent 之间不靠 token 沟通,靠 latent 直接交换 - *Embodiment* — 机器人控制,连续动作空间天然要 latent 每个 cell(Mechanism × Ability)里塞几个代表工作。读者看哪个 cell 拥挤、哪个 cell 空着——空的就是 next research opportunity。 ──────── 这篇综述真正的发现,不是"列举了多少 latent space 工作",而是把一个 paradigm shift *命名*了: *机器的思考语言,不必是人话——把"内心独白"从 token 搬回向量,是 LLM 进化的下一拍。* 更深一层:transformer 当年把 RNN 的「隐藏状态思考」赶回了"每步必出 token"的 explicit pipeline,因为那时候大家把 NLP 当作"教机器说话"。现在机器已经会说话了——"必须出 token 才能想"反而成了枷锁。这一波 latent space 的复苏,是 model 从「transcription machine」(誊抄机器)变回「thinking machine」(思考机器)的拐点。
⏰ 11:32 | ❤️ 59点赞 | 📝 961字 | 查看原文 →
岚叔 @lufzzliz
用代码表达思想,用 AI 拓展想象,从生活汲取能量。
探索阅读与创造的边界。输出有温度的洞察。 致力于降低 AI 使用门槛,让更多人受益。
某大厂云架构师
关注AI结合教育、艺术创作领域 | 影响力: 0.7万粉丝
💡 核心观点: 利用Codex无需外力即可自定义开发宠物动画。
可信度: 8/10 – 1项声明可直接验证;3项需进一步确认;1项为观点陈述
事实核查:
- ◐ 部分可验证: 使用 Hatch Pet skill 以「愤怒的阿莫迪 Dario Amodei」为概念创建宠物,需指定包名和显示名 (需实测 Hatch Pet skill 是否支持自定义概念及命名规则,但无公开文档明确说明此功能的具体操作流程。)
- ◐ 部分可验证: Codex 可按宠物规格生成 9 个动画状态(如 Idle、Run right 等) (需验证 Codex 是否具备生成动画状态的功能,但具体参数(如动作名称、数量)可能依赖用户输入或内部逻辑,公开资料未明确提及。)
- ✓ 可验证: 动画图集需整理为单格 192×208、总图 1536×1872 的规格,且支持透明背景 (图集规格和透明背景要求可能是特定项目或 Codex 版本的内部规则,缺乏公开技术文档或官方说明支持。)
原文内容:
Codex开发任意宠物教程,以手搓阿莫迪为例 仅需Codex和手(或嘴)即可完成,无需任何外部工具,具体步骤如下: 1. 使用Hatch Pet技能,以"愤怒的阿莫迪 Dario Amodei"为概念,设定包名为angry-amodei,显示名为Angry Amodei。 2. 让Codex按照宠物标准生成9个动画状态: 待机、向右跑、向左跑、挥手、跳跃、失败、等待、奔跑、回顾。 3. 将每个动作调整为Codex要求的图集规格: 单帧尺寸192x208,总图尺寸1536x1872。 4. 后续根据需求改为透明背景,最终将spritesheet.webp调整为透明背景版本,并验证尺寸准确。 5. 在Codex设置>外观>宠物(需滚动至底部)中选择自建宠物即可。 最后感叹:Codex有了GPT-Image-2简直所向披靡。
⏰ 08:16 | ❤️ 95点赞 | 📝 141字 | 查看原文 →
huangserva @servasyy_ai
古早程序员 | AI出海 | 自由职业
机车游侠&机速购&骑享租创始人
15年前 freelance 起步 → 连续创业者 → 亏过1个亿,逆风翻盘中
分享创业,AI,读书,生活,健身 | 影响力: 0万粉丝
💡 核心观点: Claude提示词需六要素,多数人仅用一两个致效果差。
可信度: 10/10 – 2项声明可直接验证;2项需进一步确认;1项为观点陈述
事实核查:
- ✓ 可验证: ANTHROPIC的应用AI团队发布了一场24分钟的工作坊,介绍如何正确编写Claude提示词 (可通过ANTHROPIC官网、官方社交媒体或公开视频平台(如YouTube)查找该工作坊视频,确认其存在性和内容)
- ◐ 部分可验证: 结构正确的Claude提示词应包含6个要素,但大多数人仅使用1-2个 (需观看工作坊视频或查阅官方文档以确认“6要素”的具体定义;用户使用习惯的统计数据(如“大多数人”)可能缺乏公开来源支持)
- ◐ 部分可验证: 提示词质量直接影响Claude输出的深度(专家级价值 vs 搜索引擎式废话) (可通过实测对比不同提示词的效果验证输出差异,但“专家级价值”和“废话”属主观描述,缺乏客观标准)
原文内容:
ANTHROPIC 刚刚揭露了大多数人给 Claude 写提示词的方式有多糟! 他们的应用 AI 团队放出了一场 24 分钟的工作坊。 来自写这个模型的人。 不是课程创作者。 不是某个误打误撞摸索出来的人。 就是造出这东西的团队。 很遗憾,一个结构正确的 Claude 提示词,应该包含 6 个要素。 但大多数人只用了 1 - 2 个。 写出来的提示词的水平,将直接决定了 Claude 是能像专家一样为你提供深度价值,还是仅仅像只会搜信息的搜索引擎,给你一堆随手一查就能找到的废话。 看完这场工作坊的人,明天早上写提示词的方式会完全不同。
⏰ 08:53 | ❤️ 191点赞 | 📝 193字 | 查看原文 →
Robinson · 鲁棒逊
Yangyi
iGeekbb
Frank Wang 玉伯
Viking
howie.serious
sitin
huangserva
Mr Panda
海拉鲁编程客
铁锤人
李继刚
岚叔