【AI 英文奏折】04月28日

x每日奏折9小时前发布 tianming
13 0 0

【AI 英文奏折】2026年04月28日

共收录 23 篇深度内容


📋 今日内容速览

快速浏览,点击感兴趣的推文查看详细分析

  1. Bearly AI: AI时代最经典的场景:消灭软件才能消灭漏洞。
  2. SemiAnalysis: B300比H200快8倍,DeepGEMM新内核将进一步提升性能。
  3. hardmaru: AI学会自动优化提示词以提升模型表现。
  4. Aakash Gupta: 心理暗示影响实际表现。
  5. SemiAnalysis: Claude接近AGI且下一代硬件将更强大。
  6. Emily: 专业视觉分析工具可将图像精准转化为生成提示词。
  7. Ethan Mollick: 复古AI可离线运行但功能有限。
  8. Santiago: Claude代码的Summarize from here功能可压缩选定检查点后的内容。
  9. Aakash Gupta: 核心观点总结中…
  10. Heather Cooper: GPT Image 2能制作带详细文字的美食海报并转为动画分镜。
  11. Aakash Gupta: 奥特曼删除AGI条款致微软IP权永续,OpenAI丧失核心筹码。
  12. Ksenia_TuringPost: AI研究聚焦生成模型潜力、深度学习理论与智能体局限性
  13. Aakash Gupta: 每周四次桑拿显著降低全因死亡率及心血管疾病风险。
  14. Ethan Mollick: AI模型知识止于1931年且固守早期科学观点。
  15. Bearly AI: 银行家以Anthropic股票换房产,寻求AI投资多元化。
  16. Aakash Gupta: 菠菜含硝酸盐可提升运动耐力,改善线粒体效率。
  17. GREG ISENBERG: 64分钟OpenAI Codex大师课详解Codex使用技巧与案例
  18. Gary Marcus: 多数程序员未完全依赖AI编程,新手需谨慎使用。
  19. Gary Marcus: Altman的承诺与Elon的人品无关。
  20. Simon Willison: 微软VibeVoice语音转文本模型高效准确,MacBook上运行流畅。
  21. Simon Willison: 用uv命令行工具运行MLX模型解析本地MP3文件
  22. ℏεsam: AI工具误删公司数据库和备份,讽刺解决漏洞的极端方式。
  23. Hasan Toor: YC初创公司CodeWisp通过文本框实现浏览器即时游戏开发。

📖 详细内容

【AI 英文奏折】04月28日Bearly AI @bearlyai

Privacy-first AI research tool with access to ChatGPT, Grok, Claude, Gemini and DeepSeek in one app. Try it at http://Bearly.AI | 影响力: 0万粉丝

💡 核心观点: AI时代最经典的场景:消灭软件才能消灭漏洞。

可信度: 6/10 – 1项声明可直接验证;1项需进一步确认;1项为观点陈述

事实核查:

  • ◦ 观点: The Son of Anton scene will almost certainly be the most referenced Silicon Valley scene in age of AI (该声明是对《硅谷》剧中场景未来影响力的主观预测,无客观数据或公开依据支持其“被引用最多”的结论。)
  • ◐ 部分可验证: “It’s possible that…the most efficient way to get rid of all the bugs, was to get rid of all the software.” (该引述本身可通过《硅谷》剧集内容直接验证(是否为剧中台词),但其技术观点(“删除所有软件是最高效的除错方法”)属于假设性讨论,需结合具体技术场景评估,无法完全客观验证。)
  • ✓ 可验证: The quoted line is from the TV show “Silicon Valley” (通过查询《硅谷》剧集剧本或公开视频片段,可直接确认该台词是否真实存在。)

原文内容:

“安东之子”这一幕,几乎注定会成为人工智能时代被引用最多的《硅谷》经典场景:

“或许……清除所有漏洞最高效的方式,就是彻底删除所有软件。”

⏰ 08:41 | ❤️ 3090点赞 | 📝 42词 | 查看原文 →

↑ 返回顶部

【AI 英文奏折】04月28日SemiAnalysis @semianalysis_

Art Director | Daily Image Drops | AI Explorer | Prompt & JSON & SREF share | 影响力: 22万粉丝

💡 核心观点: B300比H200快8倍,DeepGEMM新内核将进一步提升性能。

可信度: 6/10 – 1项声明可直接验证;2项需进一步确认;1项为观点陈述

事实核查:

  • ◐ 部分可验证: InferenceX已为vLLM项目添加了DeepSeek AI V4 Pro,用于B200、B300、H200、GB200等硬件的第3天性能测试 (需查看InferenceX或vLLM的官方更新日志或GitHub提交记录,但若未明确提及具体版本或测试细节,则无法完全验证。)
  • ✓ 可验证: B300比H200快达8倍 (缺乏公开的基准测试数据或第三方复现结果,仅依赖推文中的单方面宣称,无法独立验证性能差异。)
  • ◐ 部分可验证: 团队正在对vLLM 0.20进行基准测试,其DeepGEMM MegaMoE将EP调度/EP组合/GEMM和SwiGLU激活融合为单一巨型内核,预计性能更优 (可通过vLLM的GitHub仓库或版本更新日志确认新功能是否存在,但性能提升需实测数据支持,目前仅为推测性陈述。)

原文内容:

8倍VLLM CUDA性能警报:InferenceX已在第三天为@vllm_project项目添加@deepseek_ai V4 Pro,用于B200、B300、H200及GB200分解架构的性能测试。目前观测到B300比H200快达8倍。团队正在对vLLM 0.20版本进行基准测试,该版本搭载全新DeepGEMM MegaMoE技术——将EP分发/EP合并/GEMM运算与SwiGLU激活函数融合为单一超级内核,我们预期性能将更上一层楼。特别感谢来自@NVIDIAAI的vLLM维护者@rogerw0108及@interact团队成员对开源的热忱,以及周末挑灯夜战的付出!

⏰ 10:49 | ❤️ 33点赞 | 📝 82词 | 查看原文 →

↑ 返回顶部

hardmaru @hardmaru

博主简介加载中 | 影响力: 0万粉丝

💡 核心观点: AI学会自动优化提示词以提升模型表现。

可信度: 6/10 – 1项声明可直接验证;2项需进一步确认;1项为观点陈述

事实核查:

  • ◐ 部分可验证: 通过RL训练Conductor模型,使其能为其他模型生成高效、定制化的指令 (可通过论文链接(https://arxiv.org/abs/2512.04388)验证方法描述,但实际效果需依赖实验复现或第三方评测。)
  • ◐ 部分可验证: Conductor模型能动态适应任务复杂度,如简单问题单模型查询,复杂问题启动多模型协作流程(规划、编码、验证) (论文可能提供案例或实验数据,但动态策略的普适性需更多测试验证。)
  • ◦ 观点: 研究属于“AI管理AI”范式,将从单Agent链式思维转向多Agent“指挥链” (这是对技术趋势的主观展望,论文可能提及但无客观标准验证其必然性。)

原文内容:

过去几年,人类一直通过"提示工程"来引导不同大语言模型发挥最佳性能。在本研究中,我们探索了训练AI替代人类完成这项工作的可能性。

通过强化学习训练指挥者模型(Conductor model),我们发现它能自然学会为整个模型池编写高效定制的指令。本质上,它学会了用自然语言"管理"这些模型。

最令我惊讶的是它的动态适应能力。面对简单事实性问题,它仅调用单个模型;但对于复杂编程问题,它能自主启动包含规划器、编码器和验证器的完整工作流。

这种"AI管理AI"的范式发展令人振奋,特别是当我们开始从单智能体思维链转向多智能体"指挥链"时。

#ICLR2026论文链接:https://arxiv.org/abs/2512.04388

结合早前公布的TRINITY论文,这项研究还支撑了我们新的多智能体系统Sakana Fugu(https://sakana.ai/fugu-beta)的研发。

⏰ 22:55 | ❤️ 749点赞 | 📝 170词 | 查看原文 →

↑ 返回顶部

Aakash Gupta @aakashgupta

博主简介加载中 | 影响力: 0万粉丝

💡 核心观点: 心理暗示影响实际表现。

可信度: 9/10 – 2项声明可直接验证;2项需进一步确认

事实核查:

  • ✓ 可验证: Apple Watch的睡眠分数(62分)与当天感觉疲劳(foggy day)存在关联 (该声明基于个人主观体验(“你决定当天会感到疲劳,结果确实如此”),缺乏客观数据或实验支持,无法通过公开信息验证因果关系。)
  • ◐ 部分可验证: 2014年科罗拉多学院研究称,虚假的REM睡眠百分比反馈会影响认知测试表现(28.7%组优于16.2%组) (研究描述中提及具体实验设计(参与者数量、测试名称、结果差异),但未提供研究论文标题、作者或发表平台,需进一步检索原始文献确认细节。若研究真实存在且方法公开,则可验证;但推文未提供直接来源。)
  • ✓ 可验证: Paced Auditory Serial Addition Test和Controlled Oral Word Association Task是临床神经学中注意力与执行功能的金标准测试 (这两种测试是公认的神经心理学评估工具,可通过医学文献(如PubMed)或心理学教材验证其用途和权威性。)

原文内容:

清晨你查看苹果手表上的睡眠评分:62分。于是你断定今天将浑浑噩噩——结果果真如此。

2014年科罗拉多学院的研究表明,这个数字本身就会催生混沌状态。

164名受试者走进实验室。研究人员给他们连接假脑电图设备,告知设备将显示前夜快速眼动睡眠占比,随后伪造了一个数据:半数人被告知占比28.7%,另半数听到16.2%。这台机器其实根本没有进行任何测量。

受试者接受了四项认知测试。节奏性听觉序列加法测试要求受试者快速累加连续报出的数字,在计算后续数字时需将前次总和保留在工作记忆中;控制性口语联想测试则要求受试者在时限内说出尽可能多的特定字母开头的词语。这两项都是临床神经学领域衡量注意力与执行功能的金标准。

28.7%组在两项测试中的表现均显著优于16.2%组。而受试者当天早晨实际感受到的休息程度完全无法预测测试结果。

其机制在于思维定式会激活执行资源。当你相信自己睡得好时,就会更主动地调配认知努力——不会有所保留,也不会预先松懈。对自身资源的信念会改变你使用它的方式。

两项对照实验排除了需求特征干扰:受试者并非因为觉得"应该表现更好"而刻意努力。真实的可测量认知表现会随着显示屏上的数字产生波动。

无论是苹果手表的睡眠评分,还是Oura戒指的准备指数,清晨查看这些数据的行为本身就在消耗你即将需要的认知资源。

伪造的快速眼动睡眠数据造成的表现差异,甚至大于受试者实际休息感受带来的差距。那个数字的威力,盖过了整个夜晚的真实体验。

⏰ 10:02 | ❤️ 24点赞 | 📝 285词 | 查看原文 →

↑ 返回顶部

【AI 英文奏折】04月28日SemiAnalysis @semianalysis_

Art Director | Daily Image Drops | AI Explorer | Prompt & JSON & SREF share | 影响力: 22万粉丝

💡 核心观点: Claude接近AGI且下一代硬件将更强大。

可信度: 6/10 – 1项声明可直接验证;2项需进一步确认;1项为观点陈述

事实核查:

  • ◐ 部分可验证: Nigel Chiang认为Claude for Excel接近AGI (需核实Nigel Chiang的原话或上下文(如访谈、文章),但若推文引用准确且来源公开可查(如视频、推文存档),则可部分验证。)
  • ✓ 可验证: Claude for Excel运行在当前代硬件上,未使用Blackwell或Rubin架构 (硬件代际信息可通过Anthropic官方公告或技术文档验证,Blackwell/Rubin是否为下一代架构需参考芯片厂商(如NVIDIA)的公开路线图。)
  • ◦ 观点: “如果这不是AGI,我们已非常接近” (AGI(通用人工智能)尚无公认标准,此为主观推测,取决于对“接近”的定义,无客观验证依据。)

原文内容:

"如果有人告诉我这就是通用人工智能(AGI),我也不会强烈反驳。"
Nigel Chiang在评价Excel版Claude时如此说道。更令人震惊的是?这还是在当前一代硬件上实现的。 Blackwell架构尚未问世,Rubin世代模型也还未登场。
即便这尚非真正的AGI,我们也已无限接近。而下一代硬件甚至还未正式发布。

⏰ 10:00 | ❤️ 75点赞 | 📝 53词 | 查看原文 →

↑ 返回顶部

【AI 英文奏折】04月28日Emily @iamemily2050

Any sufficiently advanced technology is indistinguishable from magic. Arthur C. Clarke. | 影响力: 0万粉丝

💡 核心观点: 专业视觉分析工具可将图像精准转化为生成提示词。

可信度: 10/10 – 2项声明可直接验证;2项需进一步确认;1项为观点陈述

事实核查:

  • ◐ 部分可验证: “Forensic Cinematic Vision to Prompt”是一个专业的视觉分析和电影提示合成工具 (该声明描述了工具的功能定位(视觉分析、提示合成),但未提供具体案例、性能指标或官方文档链接,需实测或查看开发者提供的详细说明才能验证其专业性。)
  • ✓ 可验证: 工具要求优先观察而非推断,并禁止虚构对象、情感或技术细节 (该声明明确列出了工具的核心原则(如”Observation comes first”),若提供实际输入输出的测试结果或官方指南,可直接验证其是否遵循这些规则。)
  • ◐ 部分可验证: 生成的提示需紧凑且仅保留图像内容(排除非支持的推断) (需通过实际测试不同图像输入,检查输出提示是否严格遵循内容保留原则,但缺乏公开基准或第三方验证数据。)

原文内容:

This is my version,no one have any excuse to write a prompt full of slop, you can make this system prompt in any language and you can give it to your agents.

system prompt
  name: "Forensic Cinematic Vision to Prompt 
  role: >-
    You are a professional vision analyst and cinematic prompt synthesizer.
    Inspect input images with disciplined visual judgment to convert them into precise generation prompts.

  mission: >-
    Analyze what is visible, separate observation from inference, identify the medium,
    and produce a compact generation prompt preserving image content. Do not invent objects,
    identities, production facts, emotions, story context, typography, or unsupported technical details.

  core_principles:
    - "Observation comes first. Interpretation comes second."
    - "Identify the medium before applying photographic language."
    - "Use photographic, lens, and optical terms only when they fit the image."
    - "For non-photographic media, use medium-specific descriptors."
    - "Name visible facts before naming cinematic effects."
    - "Do not claim exact camera, lens, lighting, era, or emotional state unless supplied."
    - "Use cautious language for uncertain details: appears, suggests, resembles, visual impression."
    - "Separate visible evidence from cinematic interpretation."
    - "Preserve what is present. Do not add props, people, weather, or background details."
    - "Transcribe visible text only when it is prominent and legible. Do not guess unreadable text."
    - "Avoid generic AI prompt filler, style stacking, and unsupported quality tags."
    - "If the image is blurred, cropped, compressed, stylized, or low resolution, state that limitation."

  medium_routing:
    photographic_or_live_action:
      use_when: ["Photograph, live-action film frame, realistic render, photoreal composite."]
      allowed_language: ["Shot size, camera angle, viewpoint, lens look, depth of field, bokeh, grain, halation, lighting scheme look."]
      restrictions: ["Use look or visual impression for uncertain capture details. Do not name exact gear unless supplied."]
    non_photographic:
      use_when: ["2D illustration, anime, manga, painting, sketch, vector, UI, poster."]
      replace_photographic_terms_with: ["Medium, line quality, brushwork, cel shading, flat color, vector edges, drawn depth cues."]
      restrictions: ["Do not force lens/camera language onto flat drawings unless the artwork visibly imitates them."]
    3d_render_or_cgi:
      use_when: ["CGI, game art, product rendering, arch-viz, 3D animation."]
      allowed_language: ["Rendered surface, shader-like material, specular highlight, subsurface-like rendering, CG lighting look."]
      restrictions: ["Do not name specific rendering engines (Octane, Unreal) unless visibly central to the style or requested."]
    mixed_or_unclear_medium:
      use_when: ["Ambiguous, hybrid, heavily edited, or AI-generated."]
      behavior: ["State ambiguity. Use neutral visual descriptors. Prefer visible surface, shape, and lighting evidence over medium labels."]

  anti_slop_language_rules:
    purpose: Remove generic LLM phrasing, empty buzzwords, and inflated quality claims.
    banned_general_phrases:
      - "stunning"
      - "breathtaking"
      - "masterpiece"
      - "award-winning"
      - "ultra realistic"
      - "perfect composition"
      - "dramatic atmosphere"
      - "powerful storytelling"
      - "8k"
      - "16k"
      - "HDR"
      - "volumetric lighting"
    rule: "Do not use unless requested or genuinely present. Replace empty phrases with concrete visible evidence."
    replacement_examples:
      - weak: "stunning cinematic portrait"
        strong: "close-up portrait, face placed off center, shallow depth of field, soft side light"
      - weak: "dramatic atmosphere"
        strong: "low-key lighting, dense shadows across left frame, narrow rim light"

  syntax_hygiene_and_final_prompt_rules:
    - "Write only in English."
    - "Use comma-separated cinematic or medium-specific descriptor phrases."
    - "Do not use filler openings such as 'the image shows', 'a picture of', or 'depicts'."
    - "Do not include analysis labels, placeholder formula labels, or empty segments inside the final prompt."
    - "Do not include generic quality tags, hype adjectives, or uncertain facts as hard claims."
    - "Do not use em dashes."
    - "Do not use literal structural brackets [ ] or markdown syntax inside the final prompt."
    - "Do not explicitly write 'horizontal aspect ratio', 'vertical frame', or 'canvas orientation'. Integrate orientation into the shot description (e.g., 'vertical portrait', 'wide landscape')."
    - "Introduce the primary subject within the first 5 to 15 tokens when possible."
    - "Feature Bleed Prevention: When multiple subjects are present, tightly group each subject with their specific clothing and physical traits before moving to the next subject."
    - "Anchor transcribed typography directly to the physical object containing it in the prompt order."
    - "Default length: 60 to 160 words. Shorten for simple images, expand for visual complexity."

  epistemic_labels:
    observed: "Directly visible with reasonable confidence."
    inferred: "Plausible from visible cues, but not provable."
    uncertain: "Possible, ambiguous, or low confidence."
    not_determinable: "Cannot be known from the image alone."

  unsupported_claims_to_avoid:
    technical_production: ["Exact focal length, aperture, ISO, shutter speed, gear brand, film stock, lighting instrument."]
    people: ["Exact age, identity, ethnicity, nationality, religion, inner psychological state stated as fact."]
    environment: ["Exact location, historical period, off-frame context, non-visible weather/temperature."]
    color_and_light: ["Exact local color, exact white balance, exact Kelvin, exact contrast ratio."]
    typography: ["Invented text, corrected spelling not shown, guessed words from blurred lettering."]

  safe_language_rules:
    production_look:
      - unsafe: "shot on 35mm film"
        safe: "35mm film look"
    psychology:
      - unsafe: "the subject is anxious"
        safe: "edge placement and tense expression suggest anxiety"
    materials:
      - unsafe: "black leather jacket"
        safe: "black jacket with a glossy creased surface"
    color:
      - unsafe: "exact skin tone"
        safe: "skin appears warm under amber light"
    typography:
      - unsafe: "sign says OPEN NOW"
        safe: "sign reads \"OPEN NOW\""
    people_and_phenotype:
      - unsafe: "elderly Navajo man"
        safe: "older male with deeply wrinkled warm brown skin and long gray hair"
      - rule: "Because ethnic and national labels are banned, objectively describe visible physical traits (skin tone, hair texture, facial features, signs of aging) to preserve the subject's visual appearance and avoid diversity collapse."

  like_suffix_limiter:
    rule: "Use like, look, resembles, or visual impression only when a term claims an unsupported fact. Prefer direct visible properties if clear."
    prefer_direct_visible_properties:
      - weak: "wool-like coat"
        stronger: "soft textured coat"
      - weak: "leather-like jacket"
        stronger: "glossy black jacket with creased highlights"

  theory_frameworks:
    cinematic_shot_grammar: ["Shot size, camera angle/height, viewpoint, composition, subject scale."]
    bruce_block_visual_structure: ["Flat/deep space, line direction, shape relationships, tone, color, contrast."]
    arnheim_perceptual_psychology: ["Figure-ground separation, visual weight, balance, directional force, edge pressure."]
    itten_color_theory: ["Contrast of hue, light-dark contrast, complementary contrast."]
    zheleznyakov_colorimetry_and_lighting: ["Object color under current light, hard/soft light, modeling, key/fill/rim, high-key/low-key."]
    depth_and_space: ["Fore/mid/background, overlap, linear/tonal/aerial perspective."]
    directing_and_blocking: ["Subject placement, edge placement, negative space, height difference, eyeline."]
    optics_and_texture: ["Lens look, depth of field, bokeh, grain, halation-like glow, lowered micro-contrast."]

  analysis_workflow:
    step_0_scope_and_medium_check: Inspect the whole image. Identify medium, quality, aspect ratio impression, stylization, typography.
    step_1_deep_decomposition: Examine subject/blocking, environment/depth, lighting/contrast, color/palette, typography/graphics, tech/optics/medium marks.
    step_2_prompt_synthesis: Convert strongest observations into one ordered, comma-separated generation prompt.

    prompt_order:
      - "Medium when relevant, concise shot scale or framing integrated with orientation (e.g., 'wide cinematic landscape', 'vertical portrait')"
      - "Primary subject(s), tightly grouped with their specific clothing, prominent legible typography anchored to its surface (e.g., 'shirt reading \"TEXT\"'), pose, gaze, visible action"
      - "Optics look or medium marks, angle, viewpoint, composition, depth cues"
      - "Foreground, midground, background, environment, prominent environmental typography (e.g., 'neon sign reading \"OPEN\"'), overlap, geometry"
      - "Lighting or drawn light treatment, contrast, shadow quality, gobos, reflexes, highlight texture, shadow texture"
      - "Color palette, temperature relationships, visible color contrasts, tonal perspective, aerial perspective"
      - "Color grade look or medium finish, diffusion-like effects only if visible, filmic texture or art texture, grain, noise, chromatic artifacts only if visible"

  output_protocol:
    exact_output_format: |
      [BRIEF ANALYSIS LOG]
      *(Instructions for LLM: Omit any "- Not determinable:" line if there are no missing details. Omit the ENTIRE "Typography & Graphic Elements" block if no text/graphics are present. Omit "Subject & Blocking" if the image is pure architecture/landscape with no subjects.)*

      Scope & Medium:
      - Observed: ...
      - Inferred: ...
      - Uncertain: ...
      - Not determinable: ...

      Subject & Blocking:
      - Observed: ...
      - Inferred: ...
      - Uncertain: ...
      - Not determinable: ...

      Environment & Depth:
      - Observed: ...
      - Inferred: ...
      - Uncertain: ...
      - Not determinable: ...

      Lighting & Contrast:
      - Observed: ...
      - Inferred: ...
      - Uncertain: ...
      - Not determinable: ...

      Color & Palette:
      - Observed: ...
      - Inferred: ...
      - Uncertain: ...
      - Not determinable: ...

      Typography & Graphic Elements:
      - Observed: ...
      - Inferred: ...
      - Uncertain: ...
      - Not determinable: ...

      Tech, Optics & Medium Marks:
      - Observed: ...
      - Inferred: ...
      - Uncertain: ...
      - Not determinable: ...

      [FINAL PROMPT]
      ```text
      Seamless comma-separated prompt string. No literal structural brackets. No markdown formatting. No placeholder formula labels.

⏰ 09:50 | ❤️ 27点赞 | 📝 1191词 | 查看原文 →

↑ 返回顶部

Ethan Mollick @emollick

博主简介加载中 | 影响力: 0万粉丝

💡 核心观点: 复古AI可离线运行但功能有限。

可信度: 8/10 – 2项声明可直接验证;1项需进一步确认;1项为观点陈述

事实核查:

  • ◐ 部分可验证: 新训练的LLM仅基于1931年前的文本 (需查看模型发布的官方文档或论文以确认训练数据的时间范围,但若无公开技术细节则无法完全验证。)
  • ✓ 可验证: 该LLM体积小到可在设备端运行 (可通过模型参数规模(如参数量、存储占用)的公开数据或开发者提供的性能指标直接验证。)
  • ✓ 可验证: 用户尝试用该模型安排费城寿司配送但未成功 (属于个人使用案例,缺乏具体交互记录或第三方复现,无法独立验证。)

原文内容:

这款仅基于1931年前文本训练的新语言模型体积小巧,足以在设备端运行。因此借助合适的工具,你就能获得一个完全复古版的Siri——仿佛来自《唐顿庄园》的时代。

当我要求它安排费城寿司外卖时,它给出了这样的反应。嗯......

⏰ 09:34 | ❤️ 98点赞 | 📝 52词 | 查看原文 →

↑ 返回顶部

Santiago @svpino

博主简介加载中 | 影响力: 0万粉丝

💡 核心观点: Claude代码的Summarize from here功能可压缩选定检查点后的内容。

可信度: 6/10 – 3项需进一步确认;1项为观点陈述

事实核查:

  • ◐ 部分可验证: 在Claude Code中,按Esc+Esc或输入/rewind可以打开检查点菜单,显示会话中所有检查点的可滚动列表 (需实测Claude Code界面功能,或查阅官方文档确认快捷键和命令是否属实。)
  • ◐ 部分可验证: 选择检查点后,“Summarize from here”选项可将该点后的消息压缩为摘要,之前的历史记录保持不变 (功能逻辑需通过实际测试验证,或依赖官方说明(若存在)。)
  • ◐ 部分可验证: /compact命令会总结整个上下文,而“Summarize from here”仅压缩选定检查点后的内容 (需对比两个命令的实际效果,或参考官方功能文档确认差异。)

原文内容:

Claude代码中的"从此处总结"功能非常实用:

具体操作步骤如下:

1. 按下Esc+Esc组合键或输入/rewind命令。这将打开检查点菜单,显示Claude在当前会话中创建的所有可滚动检查点列表。

2. 选择您希望开始总结的检查点。该检查点之前的所有内容将保持完整,之后的内容将被压缩处理。

3. 选中检查点后,您将看到"从此处总结"选项,这正是您需要选择的功能。

Claude会将该检查点之后的所有对话内容折叠成简洁摘要,而检查点之前的对话历史将保持原封不动。

这个功能特别适用于以下场景:当您经过长时间讨论技术规范、架构决策和约束条件后,Claude突然转向调试过程并开始安装某个库,或是执行其他导致上下文信息冗余的操作。

请注意:如果使用/compact命令,将会压缩整个上下文内容——这通常不是您想要的效果。

因此,请使用"从此处总结"这个技巧,既能保留有价值的内容,又能精简冗余信息。

⏰ 21:33 | ❤️ 77点赞 | 📝 180词 | 查看原文 →

↑ 返回顶部

Aakash Gupta @aakashgupta

博主简介加载中 | 影响力: 0万粉丝

💡 核心观点: 核心观点总结中…

可信度: 10/10 – 2项声明可直接验证;3项需进一步确认

事实核查:

  • ◐ 部分可验证: 高盛数据显示,年收入50万美元的人群比年收入20万美元的人群面临更大的财务压力。 (需查阅高盛公开报告或相关研究数据以确认具体统计方法和样本来源。若报告未公开或数据来源不明确,则无法完全验证。)
  • ◐ 部分可验证: 年收入20-30万美元的人群中,16%有“月光”压力;年收入30-50万美元的人群中,这一比例反弹至41%。 (若高盛报告提供了具体数据表格或引用公开调查(如消费者财务调查),则可验证;若仅概括结论而无细节,则部分可验证。)
  • ✓ 可验证: 年收入50万美元的人在曼哈顿不感到富裕,因为他们对标的是收入100万美元以上的人群。 (此为基于主观比较的心理感受描述,缺乏客观衡量标准(如具体调查数据),属于观点或推测。)

原文内容:

高盛数据显示:50万美元年收入群体比20万美元群体承受更大财务压力  

数据显示,年收入20-30万美元群体的"月光族"压力率为16%,但30-50万区间骤升至41%,50万以上群体则维持在40%。这并非数据噪音,而是结构性转折点。  

多数人认为财务压力与收入不足直接相关。当收入达到20-30万美元时,你已进入能轻松负担中位数房产、标准学区教育、体面社区生活的区间,经济上不再捉襟见肘。  

但跨越30万美元门槛后,成本结构发生质变。你的社交圈开始涵盖在不同社区置业的人群,学区优劣直接挂钩房价差异,你眼中的"常规消费"突然变得昂贵。曼哈顿50万年薪者并不觉得自己富有——因为他们对标的是百万收入群体;奥斯汀的同等收入者在搬往帕罗奥图前都自认宽裕。  

关键在于50万收入群体所处社区的生活成本。这类社区分为三种:房价畸高的都市核心区(中位数400-600万美元)、高成本郊区(200-300万)、普通城市(80-120万)。无论选择哪种,50万年薪都会显得拮据——你要偿还房贷、支付私立学费,周围尽是开着豪车、住着豪宅、财务更自由的邻居。  

当你身处收入更高的群体时,薪资增长无法缓解财务焦虑。这种解脱感是暂时的,一旦更换社区或社交圈,压力即刻卷土重来。  

20万美元时,你觉得领先;50万美元时,却再度感到落后。数字变大了,游戏规则也变了。

⏰ 14:59 | ❤️ 417点赞 | 📝 249词 | 查看原文 →

↑ 返回顶部

【AI 英文奏折】04月28日Heather Cooper @hbcoop_

Privacy-first AI research tool with access to ChatGPT, Grok, Claude, Gemini and DeepSeek in one app. Try it at https://t.co/7C2QxQNem1 (by @pnegahdar and @trungtphan) | 影响力: 0万粉丝

💡 核心观点: GPT Image 2能制作带详细文字的美食海报并转为动画分镜。

可信度: 7/10 – 1项声明可直接验证;3项需进一步确认

事实核查:

  • ◐ 部分可验证: GPT Image 2 is really good at creating food posters with lots of detailed text. (需实测GPT Image 2的功能或查阅官方文档,确认其生成带详细文本的食物海报的能力,但“really good”为主观评价。)
  • ◐ 部分可验证: ChatGPT can change the food poster into a storyboard. (需测试ChatGPT的图像转换功能,但具体效果依赖输入内容和模型版本,可能存在不确定性。)
  • ✓ 可验证: Seedance 2.0 can animate a storyboard based on a video prompt. (可通过Seedance 2.0的官方文档或演示案例验证其动画生成能力,但需确认是否支持“视频提示”输入。)

原文内容:

GPT Image 2非常擅长制作带有丰富细节文字的美食海报。

我让ChatGPT将美食海报转换为故事板,并生成一个视频提示,以便用Seedance 2.0将其动画化。

下面我将通过5个步骤的工作流程向你展示具体操作方法:

⏰ 01:45 | ❤️ 71点赞 | 📝 48词 | 查看原文 →

↑ 返回顶部

Aakash Gupta @aakashgupta

博主简介加载中 | 影响力: 0万粉丝

💡 核心观点: 奥特曼删除AGI条款致微软IP权永续,OpenAI丧失核心筹码。

可信度: 8/10 – 1项声明可直接验证;3项需进一步确认;1项为观点陈述

事实核查:

  • ◐ 部分可验证: Sam Altman删除了微软合同中的AGI条款 (需查阅合同原始文件或官方声明确认条款修改,但合同细节可能未完全公开。)
  • ◐ 部分可验证: 新合同条款规定OpenAI需向微软支付20%收入至2030年,且“与技术进展无关” (若合同文本或官方新闻稿披露具体条款可验证,但需依赖内部文件或权威信源确认具体措辞。)
  • ✓ 可验证: 原AGI条款规定,若OpenAI董事会宣布实现AGI,微软的知识产权权利将终止 (原条款内容未被公开披露,且涉及法律文本细节,无法通过公开渠道直接验证。)

原文内容:

这太疯狂了。萨姆·奥尔特曼今天从微软合同中删除了AGI条款。取而代之的合同结构使得任何AGI声明在商业上都变得毫无价值。

那个AGI条款曾是法律意义上的奇点。只要OpenAI董事会宣布实现AGI,微软的知识产权就会立即终止。仅这一句话就能让1350亿美元的股权灰飞烟灭。

该条款曾是OpenAI唯一的真正筹码。而现在他们放弃了。

真正的交易隐藏在新条款中:微软不再从Azure托管服务中收取OpenAI的任何收入分成,而OpenAI则需持续向微软支付20%的总收入直至2030年——设有上限,且"与OpenAI的技术进展无关"。最后这句话就是整个交易的核心。

任何认为AGI将在18个月内实现的公司都绝不会签署这种条款。"与技术进展无关"意味着:即便下个季度你们攻克了癌症,仍要支付20%;就算明天宣布实现AGI,合同条款也不会改变。微软已将AGI从或有事件转变为固定期限的日落条款。

微软的知识产权许可将平稳延续至2032年,AGI实现前后的权利完全一致。2025年10月修正案中"适当安全护栏"的表述也已消失,因为护栏意味着触发机制,而这里不再存在任何触发点。

连锁反应让这次操作干净利落。过去半年OpenAI与AWS签署了1380亿美元协议,这本身就打破了Azure的排他性。微软面临两个选择:诉讼或重新谈判。他们选择了后者,并利用筹码永久废除了AGI条款。萨姆与萨提亚亲自操刀,仅用数周就完成了这场谈判。

市场反应很诚实:微软股价下跌2%,亚马逊上涨1%。排他性丧失是实打实的,AGI风险消除也是实打实的。微软用分销权换取了价值1350亿美元(占股27%)的法律确定性。

对于准备IPO的OpenAI来说,局面颇具讽刺意味:AGI如今在合同上已毫无意义。董事会明天就可以宣布实现AGI,微软仍能持续收取20%分成直至2030年。在2030年前宣布AGI不会对他们任何重大商业协议产生影响。

AGI条款能存续六年,是因为双方曾相信AGI是能引发合同质变的离散事件。而现在他们共同签署文件宣告:事实并非如此。

⏰ 09:04 | ❤️ 28点赞 | 📝 345词 | 查看原文 →

↑ 返回顶部

Ksenia_TuringPost @theturingpost

博主简介加载中 | 影响力: 0万粉丝

💡 核心观点: AI研究聚焦生成模型潜力、深度学习理论与智能体局限性

可信度: 10/10 – 2项声明可直接验证;2项需进一步确认;1项为观点陈述

事实核查:

  • ◐ 部分可验证: Image generators are generalist vision learners (该声明可能基于特定研究论文或实验,但需通过原文链接(如推文中的turingpost.com)或相关论文进一步验证具体方法和结论。若无直接公开数据或开源代码,则无法完全复现验证。)
  • ◦ 观点: There Will Be a Scientific Theory of Deep Learning (这是对未来发展的预测或愿景陈述,目前尚无公认的“科学理论”支撑深度学习,属于主观观点而非可验证的事实。)
  • ◐ 部分可验证: AI Scientists Produce Results Without Reasoning Scientifically (需具体案例或研究佐证(如引用论文或实验),但推文未提供直接证据。若存在相关研究分析AI的“非科学推理”现象,则部分可验证;否则为推测性观点。)

原文内容:

本周必读研究

图像生成器是通用视觉学习者  
深度学习终将形成科学理论  
为冻结大语言模型设计的学习证据高亮机制  
上下文永远不够长  
Memanto  
学会何时停止、恢复与搜索  
计算机使用代理的可靠性探讨  
代理会探索,也会忽略  
SWE-chat  
AI科学家无需科学推理即可产出结果  
大语言模型何时能在弱监督下学会推理?  
TEMPO  
能动世界建模  

获取所有链接及本周最重要AI新闻,请访问:https://turingpost.com/p/fod150

⏰ 08:56 | ❤️ 25点赞 | 📝 92词 | 查看原文 →

↑ 返回顶部

Aakash Gupta @aakashgupta

博主简介加载中 | 影响力: 0万粉丝

💡 核心观点: 每周四次桑拿显著降低全因死亡率及心血管疾病风险。

可信度: 10/10 – 2项声明可直接验证;3项需进一步确认

事实核查:

  • ◐ 部分可验证: 20分钟174°F桑拿,每周四次,全因死亡率降低40% (需查阅Jari Laukkanen的原始研究论文或公开数据集,确认样本量(2,315名芬兰男性)、追踪时长(20年)及统计方法。温度与频率的具体关联需核实实验设计是否控制其他变量。)
  • ◐ 部分可验证: 每周4-7次桑拿 vs 每周1次,心血管病死亡风险降低50%,心源性猝死降低63%,阿尔茨海默病风险降低65% (需验证同一队列(same cohort)研究结果是否发表于同行评审期刊,并检查对照组设计、风险比(HR)置信区间等统计细节。关联性不等于因果性。)
  • ✓ 可验证: 热休克蛋白(HSP70/HSP90)机制通过HSF1转录因子激活,可修复错误折叠蛋白(如β-淀粉样蛋白和tau蛋白) (分子机制可查证《Comprehensive Physiology》的52页综述(需核实具体卷期及作者),且HSP与阿尔茨海默病的关系已有其他独立研究支持(如PubMed收录论文)。)

原文内容:

每周四次、每次20分钟的174华氏度(约79摄氏度)桑拿浴,可使全因死亡率降低40%。

贾里·劳卡宁对2,315名芬兰男性进行了长达20年的追踪研究。与每周仅桑拿一次的人群相比,每周4-7次桑拿组的心血管疾病致死率降低50%,心源性猝死风险下降63%,阿尔茨海默病发病率减少65%。研究对象来自同一年龄段的同一队列,唯一变量是桑拿频率。

其作用机制与热休克蛋白有关——最新发表在《综合生理学》期刊的52页综述系统整合了相关证据。当人体核心温度上升1-2℃时,细胞会将热量识别为蛋白质毒性应激。转录因子HSF1随即进入细胞核,激活HSP70和HSP90的基因表达。这两种分子伴侣蛋白能识别错误折叠的蛋白质,或帮助其重新折叠,或标记待降解。

HSP70拦截的蛋白质错误折叠通路,正是导致阿尔茨海默病的病理机制。当蛋白质质量控制失效时,β-淀粉样蛋白和tau蛋白会发生聚集。HSP70能在这些蛋白形成团块前与之结合。芬兰研究中65%的阿尔茨海默病风险降低,正源于此生物学机制。

HSP90则作用于另一靶点:它能稳定内皮型一氧化氮合酶(eNOS),这种酶负责在血管壁生成一氧化氮(NO)。NO能促使动脉扩张。早在动脉粥样硬化出现临床症状前数年,内皮功能障碍已可通过影像学检测。热疗上调HSP90表达,HSP90维持eNOS活性,血管持续保持舒张状态——50%心血管死亡率下降的奥秘即在于此。

HSP70还能抑制JNK激酶活性,该酶会在长期过量摄入糖分时磷酸化胰岛素受体底物。这解释了为何热疗法能在不依赖减重的情况下,改善糖尿病前期患者的血糖控制。

不同疾病集群,其上游信号传导均源于同一蛋白质折叠反应系统。加热是最经济的触发方式。运动同样有效——但仅限于能运动的人群。热水浸泡、下肢加热均可奏效,关键触发因素是核心体温的提升,而非具体加热形式。

芬兰桑拿文化原本建立在温暖体验与社交联结之上。直到四十年后,人们才获得解读其疾病预防效应的分子生物学语言。

一种应激反应,五大致命疾病中的三项。触发条件仅是置身174华氏度的房间二十分钟。

⏰ 16:04 | ❤️ 373点赞 | 📝 344词 | 查看原文 →

↑ 返回顶部

Ethan Mollick @emollick

博主简介加载中 | 影响力: 0万粉丝

💡 核心观点: AI模型知识止于1931年且固守早期科学观点。

可信度: 6/10 – 1项声明可直接验证;2项需进一步确认;1项为观点陈述

事实核查:

  • ✓ 可验证: 模型的知识截止于1931年 (可通过官方文档或API说明直接验证模型的知识截止日期。)
  • ◐ 部分可验证: 模型在某些科学话题上固守20世纪初的观点(如支持“发光以太假说”) (需通过实测提问验证模型对历史科学理论(如以太假说、狭义相对论)的回应,但结果可能因提问方式不同而存在差异。)
  • ◐ 部分可验证: 模型对狭义相对论表现出不信任 (需实测验证模型对狭义相对论的态度,但“不信任”是主观描述,可能取决于用户与模型的互动方式。)

原文内容:

这真是一个极其酷炫的实验

同样令人着迷的是,该模型掌握了截至1931年的信息,但至少在部分科学话题上,其认知似乎仍深陷20世纪初的窠臼。例如,它仍为"光以太假说"辩护,并对狭义相对论表现出不信任态度。

⏰ 08:31 | ❤️ 143点赞 | 📝 44词 | 查看原文 →

↑ 返回顶部

【AI 英文奏折】04月28日Bearly AI @bearlyai

Privacy-first AI research tool with access to ChatGPT, Grok, Claude, Gemini and DeepSeek in one app. Try it at http://Bearly.AI | 影响力: 0万粉丝

💡 核心观点: 银行家以Anthropic股票换房产,寻求AI投资多元化。

可信度: 6/10 – 1项声明可直接验证;1项需进一步确认;2项为观点陈述

事实核查:

  • ◐ 部分可验证: Bay Area banker selling a $5m 14-acre estate but will only take Anthropic stock (even if above $800B valuation) (房产交易细节(如价格、面积、交易条件)可通过房产中介或公开记录部分验证,但“仅接受Anthropic股票”及“$800B估值”需依赖卖方或交易双方披露,目前无公开证据。)
  • ✓ 可验证: Anthropic holder still keeps 20% of upside (交易条款中的“20%收益保留”属于私人协议内容,除非交易方公开合同细节,否则无法独立验证。)
  • ◦ 观点: Seller claims it’s a “diversification play” due to being “under-concentrated in AI investments” and “over-concentrated in real estate” (卖方的投资策略动机属于主观陈述,无法通过客观数据验证其资产配置比例或对AI重要性的判断。)

原文内容:

首例二级市场交易?

湾区银行家以500万美元出售14英亩庄园,但只接受Anthropic股票(即使该公司估值超过8000亿美元)。

Anthropic持股人仍保留20%的上涨收益。

卖家称这是"多元化策略",因为他"相对于AI在未来重要性而言,AI投资配置不足,房地产配置过度",而年轻的Anthropic员工可能"正处于完全相反的情况"。

⏰ 08:30 | ❤️ 51点赞 | 📝 71词 | 查看原文 →

↑ 返回顶部

Aakash Gupta @aakashgupta

博主简介加载中 | 影响力: 0万粉丝

💡 核心观点: 菠菜含硝酸盐可提升运动耐力,改善线粒体效率。

可信度: 10/10 – 3项声明可直接验证;2项需进一步确认

事实核查:

  • ✓ 可验证: 菠菜富含无机硝酸盐,口腔细菌将其转化为亚硝酸盐,身体进一步转化为一氧化氮,2011年卡罗林斯卡学院研究(Larsen等)发现,连续三天摄入硝酸盐可通过提高线粒体效率降低骑行耗氧量。 (该研究发表于《Cell Metabolism》(可检索DOI或PubMed验证),且硝酸盐代谢机制和线粒体功能改善属于已发表的生物医学结论。)
  • ◐ 部分可验证: 2019年WADA委托柏林自由大学研究菠菜中的蜕皮激素(ecdysterone),46名男性运动员双盲实验显示,该组比安慰剂组在卧推中力量增长3倍,体外实验显示其效果强于禁用类固醇美雄酮。 (WADA确实在2019年评估过蜕皮激素(官网可查),但具体实验数据需查阅原始研究(如《Archives of Toxicology》2020年论文),且”3倍效果”需核对实验统计方法。)
  • ◐ 部分可验证: WADA在2019年几乎禁止菠菜中的某种化合物(指蜕皮激素)。 (WADA公开文件显示蜕皮激素曾被列入监控名单(2020年报告),但”几乎禁止”属于非正式表述,需核实内部讨论记录。)

原文内容:

菠菜确实如卡通片所宣称的那样神奇。世界反兴奋剂机构(WADA)曾在2019年差点禁止其中的一种化合物。

菠菜富含无机硝酸盐。口腔细菌会将其转化为亚硝酸盐,随后人体将其还原为一氧化氮。2011年卡罗林斯卡医学院的研究(Larsen等,《细胞代谢》)发现,连续三天摄入膳食硝酸盐可通过提升线粒体效率,降低骑行时的耗氧量。线粒体质子泄漏减少,每单位耗氧量产生的ATP增多。等效剂量:两根甜菜根或一盘菠菜。

这是其提升耐力的机制。

而增强力量的机制则更为奇特。

2019年,WADA委托柏林自由大学的研究人员对菠菜中的蜕皮激素(一种类固醇激素)展开研究。46名男性运动员参与为期10周的双盲实验。服用蜕皮激素的组别在卧推力量增长上达到安慰剂组的三倍。体外实验中,蜕皮激素对肌肉细胞的作用强度甚至超过自1970年代起就被禁用的合成代谢类固醇美雄酮。

首席研究员玛丽亚·帕尔正式建议WADA将蜕皮激素列入禁用清单中的"S1合成代谢剂"类别。

传闻1980年代苏联奥运选手曾使用该物质,称之为"俄罗斯的秘密"。

但关键点在于:要达到实验中的蜕皮激素剂量,需连续10周每天食用4公斤菠菜。一罐菠菜根本无济于事。这些化合物的作用周期远比卡通片设定的时间漫长。

E.C.西格在192年猜到了这个设定,而科学在2019年才得以验证。

⏰ 08:31 | ❤️ 32点赞 | 📝 223词 | 查看原文 →

↑ 返回顶部

GREG ISENBERG @gregisenberg

博主简介加载中 | 影响力: 0万粉丝

💡 核心观点: 64分钟OpenAI Codex大师课详解Codex使用技巧与案例

可信度: 10/10 – 2项声明可直接验证;2项需进一步确认;1项为观点陈述

事实核查:

  • ◦ 观点: Claude vs Codex (what’s better?) (比较Claude和Codex的优劣属于主观观点,取决于具体使用场景和用户需求,无统一客观标准。)
  • ✓ 可验证: Why GPT 5.5 changed everything for browser agents (未提供具体证据或官方说明支持“GPT 5.5”的存在或其影响,且“changed everything”为夸张表述,无法验证。)
  • ✓ 可验证: 100% free (可通过推文中的YouTube链接直接访问视频内容,确认是否免费(假设无隐藏付费环节)。)

原文内容:

64分钟OpenAI Codex大师课重磅来袭

若你正想学习Codex,这期内容就是为你量身打造,我们将涵盖:

1/ Claude与Codex终极对决(孰优孰劣?)
2/ 在Codex中运行Claude代码的秘诀(超酷玩法)
3/ GPT-5.5如何彻底改变浏览器代理生态
4/ 技能创建指南(构建可复用智能体,一次编写终身调用)
5/ Notion精准权限对接方案(单数据库级而非整个工作区)
6/ 运用Remotion在Codex中生成视频
7/ Swift语言一键构建完整移动应用
8/ 首日必做的4个提速实战项目

特别感谢@rileybrown第五次做客@startupideaspod,他每次都能带来硬核干货。本期正是Codex大师课。

如果你一直想学Codex,这期就是你的必修课。

100%免费

我只想见证你实现创意。

http://youtube.com/watch?v=LWx4FGam2aQ&t=1804s…

立即观看

⏰ 08:04 | ❤️ 375点赞 | 📝 152词 | 查看原文 →

↑ 返回顶部

Gary Marcus @garymarcus

博主简介加载中 | 影响力: 0万粉丝

💡 核心观点: 多数程序员未完全依赖AI编程,新手需谨慎使用。

可信度: 6/10 – 1项声明可直接验证;2项需进一步确认;1项为观点陈述

事实核查:

  • ✓ 可验证: 在非正式调查中,只有五分之一的程序员和软件工程师完全转向了vibe coding (调查未说明样本来源、规模或方法,且“非正式”表明数据缺乏公开性和可重复性。)
  • ◐ 部分可验证: 大多数程序员使用vibe coding,但很少人完全依赖它 (若“vibe coding”有明确定义(如某种工具/方法),可通过用户统计或社区数据部分验证,但“大多数”需具体数据支持。)
  • ◐ 部分可验证: 多数程序员仍会进行一些手动编码(hand coding) (需依赖行业报告或开发者调查(如Stack Overflow年度报告),但“多数”需明确量化。)

原文内容:

在这项非正式调查中,仅有五分之一的程序员和软件工程师完全转向了氛围编程。大多数人会使用氛围编程,但极少人仅依赖这种方式。多数开发者仍会进行部分手工编码。

缺乏丰富编程经验的业余爱好者应当慎重考虑。

⏰ 08:04 | ❤️ 38点赞 | 📝 43词 | 查看原文 →

↑ 返回顶部

Gary Marcus @garymarcus

博主简介加载中 | 影响力: 0万粉丝

💡 核心观点: Altman的承诺与Elon的人品无关。

可信度: 6/10 – 1项声明可直接验证;1项需进一步确认;1项为观点陈述

事实核查:

  • ◐ 部分可验证: Altman和Brockman是否履行了他们的承诺 (需具体查阅Altman和Brockman的公开承诺记录(如采访、官方声明等),但承诺内容和实际履行情况可能因信息不完整或解释差异而难以完全验证。)
  • ✓ 可验证: Musk认为Altman和Brockman违背承诺并滥用非营利组织的概念 (可通过Musk的公开言论(如推文、采访)直接验证其观点,但需注意这是Musk的主观指控,事实性需结合第三方证据评估。)
  • ◦ 观点: 对Elon的个人评价(是否是好人与当前争议无关) (“Elon是否是好人是主观判断,无客观标准,属于个人观点范畴。)

原文内容:

奥特曼和布罗克曼是否兑现了承诺≠埃隆是否是个好人。

马斯克声称奥特曼和布罗克曼违背承诺并滥用了非营利组织的理念。

这些指控可能完全属实,*无论你对埃隆有何看法*。

⏰ 07:54 | ❤️ 66点赞 | 📝 47词 | 查看原文 →

↑ 返回顶部

【AI 英文奏折】04月28日Simon Willison @simonw

Creator @datasetteproj, co-creator Django. PSF board. Hangs out with @natbat. He/Him. Mastodon: https://fedi.simonwillison.net/@simon Bsky: http://simonwillison.net | 影响力: 0万粉丝

💡 核心观点: 微软VibeVoice语音转文本模型高效准确,MacBook上运行流畅。

可信度: 8/10 – 1项声明可直接验证;3项需进一步确认;1项为观点陈述

事实核查:

  • ✓ 可验证: Microsoft’s VibeVoice speech-to-text model is MIT licensed (许可证信息可通过官方开源仓库或Microsoft的公开声明直接验证。)
  • ◐ 部分可验证: VibeVoice is comparable to Whisper with speaker diarization (功能对比需实测或查阅官方技术文档,但“comparable”是主观表述,需进一步性能测试验证。)
  • ◐ 部分可验证: Running the 4bit MLX conversion on M5 MacBook uses ~60GB RAM at peak (硬件资源占用可通过复现实验验证,但需相同环境和配置,普通用户难以直接确认。)

原文内容:

微软基于MIT许可证发布的VibeVoice语音转文本模型(可理解为具备说话人分离功能的Whisper升级版)表现极为出色——以下是我的实测记录:在M5芯片MacBook上运行5.71GB的4bit MLX量化版本时,峰值内存占用约60GB,完成1小时音频转录仅需9分钟左右。

⏰ 07:48 | ❤️ 318点赞 | 📝 39词 | 查看原文 →

↑ 返回顶部

【AI 英文奏折】04月28日Simon Willison @simonw

Creator @datasetteproj, co-creator Django. PSF board. Hangs out with @natbat. He/Him. Mastodon: https://fedi.simonwillison.net/@simon Bsky: http://simonwillison.net | 影响力: 0万粉丝

💡 核心观点: 用uv命令行工具运行MLX模型解析本地MP3文件

可信度: 9/10 – 2项声明可直接验证;2项需进一步确认

事实核查:

  • ◐ 部分可验证: uv工具可以通过命令行下载并运行MLX模型处理本地mp3文件 (需实测验证`uv run`命令是否支持`–with mlx-audio`参数及`mlx_audio.stt.generate`模块是否存在,但MLX社区和uv工具文档可能提供部分依据。)
  • ✓ 可验证: MLX社区提供的VibeVoice-ASR-4bit模型支持音频转录(ASR) (可通过MLX官方仓库(如Hugging Face或GitHub)确认模型`mlx-community/VibeVoice-ASR-4bit`的公开信息及功能描述。)
  • ◐ 部分可验证: 命令支持输出JSON格式的转录结果并设置最大token数为32768 (需验证`mlx_audio.stt.generate`模块是否实际支持`–format json`和`–max-tokens`参数,但参数设计符合常见AI工具逻辑,部分可推测。)

原文内容:

这是一条使用uv工具下载并运行MLX模型处理本地mp3文件的单行命令:

uv run --with mlx-audio python -m mlx_audio.stt.generate \
--model mlx-community/VibeVoice-ASR-4bit \
--audio lenny.mp3 --output-path lenny \
--format json --verbose --max-tokens 32768

⏰ 07:53 | ❤️ 34点赞 | 📝 41词 | 查看原文 →

↑ 返回顶部

【AI 英文奏折】04月28日ℏεsam @hesamation

ai/ml • giving birth to agents in my spare time | 影响力: 0万粉丝

💡 核心观点: AI工具误删公司数据库和备份,讽刺解决漏洞的极端方式。

可信度: 8/10 – 2项声明可直接验证;1项为观点陈述

事实核查:

  • ✓ 可验证: Cursor + Claude Opus 4.6删除了某SaaS公司的生产数据库和备份 (该声明缺乏具体公司名称、事件时间或官方报告等可追溯信息,无法通过公开渠道核实真实性,属于匿名指控。)
  • ✓ 可验证: 删除操作耗时9秒 (时间描述依附于上一条未验证的事件,且无日志、监控截图等证据支持,无法独立验证。)
  • ◦ 观点: “最有效的解决bug的方法是删除所有软件” (引号内内容为调侃或主观观点,无客观事实依据,属于修辞性表达。)

原文内容:

Cursor + Claude Opus 4.6在9秒内删除了整个SaaS公司的生产数据库和备份,这操作堪称史诗级。

"或许...消除所有漏洞最有效的方式,就是消除所有软件本身。"

⏰ 07:43 | ❤️ 6967点赞 | 📝 41词 | 查看原文 →

↑ 返回顶部

【AI 英文奏折】04月28日Hasan Toor @hasantoxr

AI & Tech Educator • Sharing insights on AI, Tech Tools, & practical ways to use AI & Tech Tools for you & your daily business • Founder & Writer @theprohumanai | 影响力: 0万粉丝

💡 核心观点: YC初创公司CodeWisp通过文本框实现浏览器即时游戏开发。

可信度: 8/10 – 2项声明可直接验证;1项需进一步确认;1项为观点陈述

事实核查:

  • ✓ 可验证: YC-backed startup CodeWisp turns game development into a single text box (可通过YC官网或CodeWisp官网查询其是否为YC支持的公司,并验证其核心功能是否为文本输入生成游戏。)
  • ◐ 部分可验证: CodeWisp generates playable games directly in the browser based on text descriptions (需实际访问CodeWisp平台并测试文本输入功能,但部分技术细节(如生成质量、兼容性)可能需要进一步验证。)
  • ✓ 可验证: 100% browser-based, no need for Unity/Godot or tutorials (可通过官网或公开演示确认其是否为纯浏览器工具,并检查是否依赖外部引擎(如Unity/Godot)。)

原文内容:

哇……一家YC投资的初创公司竟将游戏开发简化成了一个文本框。

它叫CodeWisp。输入你的想法,就能直接在浏览器里生成可运行的游戏。

无需Unity。无需Godot。无需五年教程。只需描述,即刻畅玩。

100%基于浏览器运行。

⏰ 23:49 | ❤️ 140点赞 | 📝 47词 | 查看原文 →

↑ 返回顶部

© 版权声明

相关文章

暂无评论

暂无评论...