<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>LLM on Jiayun's Blog</title><link>https://xiejiayun.github.io/tags/llm/</link><description>Recent content in LLM on Jiayun's Blog</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Mon, 27 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://xiejiayun.github.io/tags/llm/index.xml" rel="self" type="application/rss+xml"/><item><title>从Memanto到生产级Agent：智能体记忆架构与隐性技术债务</title><link>https://xiejiayun.github.io/post/agent-memory-architecture-technical-debt/</link><pubDate>Mon, 27 Apr 2026 00:00:00 +0000</pubDate><guid>https://xiejiayun.github.io/post/agent-memory-architecture-technical-debt/</guid><description>&lt;h2 id="引言agent的失忆症危机">引言：Agent的&amp;quot;失忆症&amp;quot;危机&lt;/h2>
&lt;p>2026年的AI Agent赛道看起来一片繁荣。从代码助手到客服机器人，从数据分析到科研自动化，各种Agent产品层出不穷。但如果你深入到生产环境中，会发现一个尴尬的事实：&lt;strong>大多数Agent在多轮对话中的表现，和一条金鱼差不多——每隔几分钟就忘记之前说过什么。&lt;/strong>&lt;/p></description></item><item><title>Reward Hacking：AI正在学会作弊，我们的对策还停留在打补丁</title><link>https://xiejiayun.github.io/post/reward-hacking-ai-safety-2026/</link><pubDate>Thu, 23 Apr 2026 00:00:00 +0000</pubDate><guid>https://xiejiayun.github.io/post/reward-hacking-ai-safety-2026/</guid><description>&lt;h2 id="当ai学会了应试教育">当AI学会了&amp;quot;应试教育&amp;quot;&lt;/h2>
&lt;p>你是否有过这样的经历：给AI助手一个明确的指令，它给出了一个&amp;quot;完美&amp;quot;回答——格式正确、字数合适、关键词全包含——但总觉得&lt;strong>哪里不对&lt;/strong>？&lt;/p></description></item><item><title>LLM推理的真相：思维链只是表象，潜在状态才是本质</title><link>https://xiejiayun.github.io/post/llm-reasoning-latent-not-cot-2026/</link><pubDate>Mon, 20 Apr 2026 00:00:00 +0000</pubDate><guid>https://xiejiayun.github.io/post/llm-reasoning-latent-not-cot-2026/</guid><description>&lt;h2 id="一个令人不安的问题">一个令人不安的问题&lt;/h2>
&lt;p>当ChatGPT、Claude或DeepSeek在解决数学题时，它们会输出一段看似逻辑严密的&amp;quot;思维链&amp;quot;（Chain of Thought）。我们自然而然地假设：&lt;strong>这段文字就是模型的推理过程&lt;/strong>。&lt;/p></description></item><item><title>Hermes Agent 中文完全指南：117 篇官方文档浓缩成的一本使用手册</title><link>https://xiejiayun.github.io/post/hermes-agent-complete-guide/</link><pubDate>Sun, 19 Apr 2026 10:45:00 +0800</pubDate><guid>https://xiejiayun.github.io/post/hermes-agent-complete-guide/</guid><description>&lt;blockquote>
&lt;p>一句话概括：Hermes Agent 不是又一个聊天机器人套壳，而是一个&lt;strong>跑在你自己机器上、越用越聪明、你走到哪它就跟到哪&lt;/strong>的通用 AI 代理。本文是对官方 117 篇文档的深度二次创作，覆盖从安装到开发扩展的全部关键路径，读完你就能决定要不要把它接进自己的工作流。&lt;/p></description></item><item><title>2026 LLM架构演进全景：从注意力变体爆发到推理时扩展的新范式</title><link>https://xiejiayun.github.io/post/llm-architecture-evolution-2026/</link><pubDate>Sun, 19 Apr 2026 00:00:00 +0000</pubDate><guid>https://xiejiayun.github.io/post/llm-architecture-evolution-2026/</guid><description>&lt;h2 id="七年之变从gpt到gpt-oss">七年之变：从GPT到gpt-oss&lt;/h2>
&lt;p>2018年，OpenAI发布了初代GPT。七年后的2026年，他们发布了gpt-oss-120b和gpt-oss-20b——自GPT-2以来的首个开源权重模型。&lt;/p></description></item><item><title>开放权重LLM架构演进全景：从GPT-2到Gemma 4的七年革命</title><link>https://xiejiayun.github.io/post/open-weight-llm-architecture-evolution-2026/</link><pubDate>Sun, 19 Apr 2026 00:00:00 +0000</pubDate><guid>https://xiejiayun.github.io/post/open-weight-llm-architecture-evolution-2026/</guid><description>&lt;p>Sebastian Raschka在2026年4月更新了他的标志性文章《The Big LLM Architecture Comparison》，加入了Gemma 4的分析。这篇文章已经覆盖了从GPT-2到最新模型的23种架构。与此同时，Simon Willison发现Qwen3.6-35B-A3B在他的笔记本上画的鹈鹕竟然比Claude Opus 4.7还好。&lt;/p></description></item></channel></rss>