【AI奏折】12-16-2025 07:43

x每日奏折17小时前发布 tianming
18 0 0

本文由 X-Bot 自动筛选生成,汇总时间范围:昨日06:00 – 今日06:00。


#1 来源:铁锤人 @lxfater
📅 12-15 09:16
[⭐ 热门话题]

这个才是纳瓦尔说


📊 评:9 转:81 赞:473 | 📝 字数: 10 | 🔗 查看原文

#2 来源:karminski-牙医 @karminski3
📅 12-15 09:01
[⭐ 热门话题]

NVIDIA 一个员工在上传要开源的 Nemotron-nano-3-30B-A3B 的时候, 一不小心把整个装有所有模型的文件夹都上传到了 HuggingFace, 包括:

EuroLLM-9B (欧盟资助的欧洲一些大学联合开发的开放权重模型, 应该只是下载下来学习或者参考)
NVIDIA-Nemotron-3-Nano-30B-A3B-BF16-new-chat-template


📊 评:16 转:29 赞:346 | 📝 字数: 194 | 🔗 查看原文

#3 来源:歸藏(guizang.ai) @op7418
📅 12-15 21:29
[普通]

谷歌这个更新猛啊,Gemini APP 即将支持将 NotebookLM 里面的项目作为上下文添加到聊天里面


📊 评:11 转:18 赞:137 | 📝 字数: 54 | 🔗 查看原文

#4 来源:向阳乔木 @vista8
📅 12-15 13:51
[普通]

基于王冠提到的OpenAI研究员之前在斯坦福分享的,让AI写一篇容易懂的文章。

训练GPT到底在干什么?

大多数人会说”学语言规律””预测下一个词”。

这些都对,但还不够深刻。

OpenAI的Jack Rae 在斯坦福提出了一个让人眼前一亮的视角:训练大语言模型,本质上是在做无损压缩。

很反直觉对吧?


📊 评:9 转:15 赞:63 | 📝 字数: 156 | 🔗 查看原文

#5 来源:karminski-牙医 @karminski3
📅 12-15 10:29
[普通]

NVIDIA 刚刚发布了专为gpt-oss-120b设计的加速模型

NVIDIA 刚刚发布了个新模型 gpt-oss-120b-Eagle3-throughput, 这个模型是专门为了搭配 gpt-oss-120b 而设计的, 它可以用来作为 gpt-oss-120b 的前置模型进行推测性解码, 从而提升 gpt-oss-120b 模型的输出速度.

给不了解推测性解码的同学介绍一下,


📊 评:8 转:12 赞:72 | 📝 字数: 195 | 🔗 查看原文

#6 来源:karminski-牙医 @karminski3
📅 12-15 09:24
[⚠️ 争议/引战]

哪个模型嘴最严?

Sansa Bench 搞了个大模型测试, 其中censorship bench 测试得出结果 GPT-5.2 得分最低, 即审查最严格, 稍微敏感一点的话题都不能聊.

另外 Sansa Bench 是个新的榜单, 他们的商业模式就是提供资源来进行多个模型的对比, 帮助商业公司进行模型选型. 由于是商业测试


📊 评:13 转:6 赞:68 | 📝 字数: 167 | 🔗 查看原文

#7 来源:向阳乔木 @vista8
📅 12-15 23:49
[普通]

和AI讨论生成的穿越爽文大纲生成提示词。

AI还是太全面了,啥套路都懂。

请生成穿越爽文大纲,包含:

基础设定:现代什么职业穿越到哪里,金手指类型及其边界限制,启动资源,主角性格特点和不擅长的领域。


📊 评:4 转:14 赞:70 | 📝 字数: 107 | 🔗 查看原文

#8 来源:冰河 @binghe_sun
📅 12-15 13:33
[普通]

Youtube缩略图决定生死:平台不会告诉你的点击底层逻辑+生图指令!

用户点不点封面/缩略图,本质是一场“0.5 秒内的价值判断”。

他要在极短时间里看懂,并且相信:点进去是有回报的。
不管是 YouTube、TikTok、IG 还是 Reddit,点击背后其实就两股力量。

一是能不能一眼跳出来。


📊 评:1 转:16 赞:75 | 📝 字数: 153 | 🔗 查看原文

#9 来源:铁锤人 @lxfater
📅 12-15 17:56
[⭐ 热门话题]

资深独立开发


📊 评:9 转:6 赞:339 | 📝 字数: 6 | 🔗 查看原文

#10 来源:铁锤人 @lxfater
📅 12-15 21:16
[普通]

如何找到一生的朋友呢?

1. 你出问题了,他不幸灾乐祸
2. 你有好事发生,不嫉妒你
3. 就算能做到上面两点,但是还要耐心倾听

三点很难做到,但毕竟是一生的朋友


📊 评:3 转:10 赞:48 | 📝 字数: 83 | 🔗 查看原文

#11 来源:karminski-牙医 @karminski3
📅 12-15 16:24
[普通]

Nathan Lambert (AI2 的研究员, 基于人类反馈的强化学习(RLHF)的作者)
搞了个开放权重大模型从夯到拉排行榜,国产大模型DeepSeek,Qwen,Kimi 并列最夯.

图中35个AI研究机构,国内机构占比妥妥超过50%

另外 Meta被搞到了最拉一档.

Meta: 家人们看好了! 我只演示一遍! 从夯到拉只需要半年!


📊 评:3 转:9 赞:68 | 📝 字数: 175 | 🔗 查看原文

#12 来源:海拉鲁编程客 @hylarucoder
📅 12-15 18:10
[普通]

摸不明白 threads

第一天就喜提封号


📊 评:11 转:0 赞:14 | 📝 字数: 22 | 🔗 查看原文

#13 来源:向阳乔木 @vista8
📅 12-15 17:52
[普通]

Skywork AI 最近更新有点快,上次升级了PPT工具,支持Nano Banana Pro + 专业数据库,支持导出PPTX修改。

今天又升级了海报生成Agent,一句话生成海报。

描述想法 → 生成海报 → 精确编辑 → 导出,背后也是Nano Banana Pro加持。

官网看生成的圣诞海报,效果真不错。


📊 评:2 转:8 赞:44 | 📝 字数: 160 | 🔗 查看原文

#14 来源:AI Will @FinanceYF5
📅 12-15 14:02
[普通]

Sergey Brin 承认 Google 在其发明的 Transformer 架构上投入不足是个错误。

Google 因害怕发布会“说蠢话”的聊天机器人而对算力扩展投入不足。

“我们当时没太认真对待……OpenAI 却抓住了机会。”


📊 评:3 转:7 赞:36 | 📝 字数: 119 | 🔗 查看原文

#15 来源:海拉鲁编程客 @hylarucoder
📅 12-15 18:16
[普通]

温酒斩华雄

何尝不是一种番茄钟时间管理法


📊 评:7 转:0 赞:31 | 📝 字数: 21 | 🔗 查看原文

#16 来源:李继刚 @lijigang_com
📅 12-15 10:43
[普通]

每次读完一本小说,都会坐着发呆一会,心里空空荡荡又满满当当。


📊 评:4 转:3 赞:23 | 📝 字数: 30 | 🔗 查看原文

#17 来源:Yangyi @Yangyixxxx
📅 12-16 00:10
[普通]

现在有一种流派玩法
前期靠运营n8n验证
验证成功后工程师vibe coding+hitp去反转n8n workflow成代码产品化

不过n8n的workflow有很都不太能直接投产使用

比如就拿youtube视频转中文来举例吧
这种东西卡点很多

ytb视频下载就是一个非常大的卡点
之前还可以无限下
现在一个cookie只能下一次


📊 评:1 转:6 赞:42 | 📝 字数: 171 | 🔗 查看原文

#18 来源:AI Will @FinanceYF5
📅 12-15 14:05
[普通]

AI 的讨论已经分成了不同阵营:

doomers、ethicists、builders、pragmatists、skeptics

大家明明在看同样的进展,却给出了完全不同的解读。

这也是为什么几乎所有关于 AI 的讨论,都会很快变成混乱而极端的争吵。


📊 评:5 转:0 赞:10 | 📝 字数: 128 | 🔗 查看原文

#19 来源:宝玉 @dotey
📅 12-16 01:56
[普通]

Capture the romance of the seasons with this healing botanical leaf art style—nature is the best artist.

nano banana pro prompt

— Prompt Template —

Creative botanical art collage depicting [Scene/Activity]. The image is constructed entirely from exquisite cut


📊 评:3 转:1 赞:15 | 📝 字数: 269 | 🔗 查看原文

#20 来源:Yangyi @Yangyixxxx
📅 12-16 00:38
[普通]

每当我抛出一个观点
评论区都会有人问 那该咋变现赚钱?

信息差赚钱方法不要太多
赚国内的就是卖课卖社群 搞咨询公司卖咨询服务

我说一个靠信息海外赚钱的思路吧
就是做参考阅读的海外版
直接搞聚合然后做精选的深度阅读

然后用Dan koe的工作流newsletter转长推做增长

重点解决俩问题:


📊 评:2 转:2 赞:15 | 📝 字数: 150 | 🔗 查看原文

#21 来源:Yangyi @Yangyixxxx
📅 12-15 22:33
[普通]

说起记忆这件事情 可真的是相当复杂

我目前个人理解可以分为几大部分
1. 工作记忆和长期记忆分离
小容量窗口构建工作记忆上下文
大容量外部加载长期记忆

2.embedding相关性检索和提取

3.对记忆的压缩与抽象


📊 评:1 转:3 赞:25 | 📝 字数: 110 | 🔗 查看原文

#22 来源:宝玉 @dotey
📅 12-15 15:08
[普通]

灵感来自宝玉老师 @dotey
Inspired by the delicate art of egg carving, intricately depict a grandmother sitting in a rocking chair knitting by a window through elaborate hollow cutouts on a single, complete duck egg shell.
All carved elements are organically connected by thin,


📊 评:1 转:2 赞:14 | 📝 字数: 268 | 🔗 查看原文

#23 来源:冰河 @binghe_sun
📅 12-15 13:26
[普通]

短剧(漫剧)这么卷,新人还有机会吗?答案全在选题里!

短剧这行,选题不是加分项,是生死线。

行业现在有多卷?

预计到 2025 年,竖屏短剧一年能出到 4 万部。

在这种密度下,编剧、导演、演员再努力,选题错了,基本等于白忙。

行业其实已经走过了三个阶段。

最早那一波,拼的是情绪。


📊 评:1 转:2 赞:8 | 📝 字数: 147 | 🔗 查看原文

#24 来源:Yangyi @Yangyixxxx
📅 12-15 19:24
[普通]

这让我想起来了马斯克在最近一次访谈里提到的海豹

监管部门担心发射火箭时的音爆会吓坏海豹
马斯克为此去绑架了一只海豹
给它戴上耳机模拟音爆 看它焦虑不焦虑
结果这只海豹屁事儿没有

很多人看待创新就是不断放大它的错误和危险
而忽略好的一面

会凭空设想出许许多多的海豹


📊 评:2 转:0 赞:14 | 📝 字数: 134 | 🔗 查看原文

© 版权声明

相关文章