δ-mem用8×8矩阵换长上下文

今日概览

  • δ-mem外挂8×8状态矩阵:frozen主干不变、delta-rule在线更新,记忆密集任务上较基线提升10–15%,把长上下文从「扩窗口」重新表述为「设计状态机」。
  • CausalCine把shot boundary当一等公民,原生多镜头训练加按相关性检索KV的CAMR,效果接近双向模型同时保留流式交互。
  • 多轮activation steering漂移的具体机制:被steer的token写进KV cache后被反复消费成累积漂移,下移到attention-delta层后第10轮trait保留率从78%拉回93%。
  • SenseNova-U1把「理解+生成分裂」定义为结构问题——157个upvote说明社区在等可信的unified VLM,但仅凭摘要难判断和Chameleon/Janus一系的实质差别。

重点关注

01 推理加速 8×8的状态矩阵能不能替掉越拉越长的context?

主流做长上下文这两年越来越偏算力——窗口越拉越大、KV cache越存越多,本质是用计算和显存换记忆容量。δ-mem把问题换了个问法:保留frozen的full-attention主干不动,外挂一个仅8×8的固定大小状态矩阵,用delta-rule在线更新,再把读出的内容以低秩修正的形式注入到注意力计算里。它的论点是把「记住更多」重新定义成「设计一个状态机」,而不是继续攒token。报出来的数字是相对frozen backbone平均提升10%、相对最强非δ-mem记忆基线提升15%;在记忆密集型benchmark上分别拉到31%(MemoryAgentBench)和20%(LoCoMo),同时通用能力没出现明显回落。对从业者实际意义在于:主干frozen意味着不用重训也不用换模型,挂载成本低,适合在已部署模型上做增量改造;但8×8这种极小状态究竟能撑多大规模的长程记忆,还需要更多场景验证。

长上下文不止「扩窗口」一条路,状态机式紧凑记忆是另一种值得跟踪的范式frozen主干让方案对已有部署模型友好,不用重训也不用替换提升集中在记忆密集任务,通用能力保留,但状态规模能否扩展到真实agent的长程记忆需进一步看。

02 视频生成 把镜头切换当一等公民处理的自回归视频模型

自回归视频生成长期卡在「把单镜头延长到极限」的范式里——长rollout下motion stagnation(动作停滞)和semantic drift(语义漂移)是已知通病,模型本质上把多镜头序列当成一个长单镜头来近似。CausalCine换了思路:在原生多镜头序列上训练causal base model,让模型显式学习shot transition,再用Content-Aware Memory Routing(CAMR,按注意力相关性而非时间邻近度检索历史KV)在有限活跃内存下维持跨镜头一致性。最后蒸馏成few-step生成器,做到实时交互——可以中途改prompt,不用重新生成已有镜头。论文称效果接近双向模型,同时保留了causal生成的流式交互性。

做视频叙事产品的团队比追「更长clip」更该关注shot boundary建模CAMR这种按相关性而非时间检索KV的思路,对长上下文视频应用有迁移价值接近双向模型的具体指标和失败模式需要看全文和demo才能判断。

03 可解释性 activation steering在多轮对话里被KV cache放大成漂移

做personality或safety steering的人都遇到过:单轮prompt上效果挺好的干预向量,丢到多轮对话里跑十轮就开始失控。一般的归因是「强度没调好」。这篇给出了一个更具体的失败机制:被steer过的token状态会写进KV cache,后续每一步注意力都在重复消费这个被扰动过的表征——一次局部干预被cache放大成累积漂移。诊断成立之后解法就顺了:把干预从residual stream下移到attention-delta层,并按token做门控,让steering只走模型本来用来「听prompt」的那条通路。多轮benchmark上coherence drift从-18.6拉回到-1.9,第10轮的trait表达从78.0升到93.1。

多轮steering失效不一定是强度问题,先看KV cache里堆了什么residual-stream层级的干预天然和cache耦合,attention-delta层级是更安全的注入点做personality/safety steering的团队可以拿这个失败模式当现成的诊断框架用。

04 多模态 又一个「统一多模态」,这次不一样吗?

「理解和生成本应是同一个过程」——这话过去两年从Chameleon到Janus到Show-o已经听过不止一次,每次都说要消除分裂,但落到实现层面常常还是pipeline拼接换了个说法。SenseNova-U1的论点有意思的地方在于它把这种分裂明确定义为「结构限制而非工程产物」,这个表述本身比刷哪个benchmark重要。摘要里提到的NEO-unify架构、8B dense和30B-A3B两个MoE变体、加上VLA和世界模型方向的「初步证据」——听起来都对,但仅凭摘要无法判断它和前面那一系的真正差别在哪、表征空间是不是真的合一了。157个upvote说明社区在等一个可信的统一方案,但热度不等于结论。

「unified multimodal」的口号已经被举过太多次,新工作要看ablation不要看叙事理解+生成是否共享表征空间是判断「真统一」还是「换皮拼接」的关键做多模态产品的团队可以先关注代码和评测细节,再决定要不要押注这条路线
δ-mem用8×8矩阵换长上下文

也值得关注

05
Mela借神经科学consolidation思路设计层级记忆模块 模型架构把test-time瞬时经验通过cross-frequency coupling固化为稳定表征,和δ-mem一起构成今天「状态机记忆」的另一条路线。Mela
06
agent memory benchmark从「记user history」升级到「记环境/接口/失败模式」 评测LongMemEval-V2把long-term memory放进web agent的真实使用场景里评测,长程记忆评测的目标对象第一次接近「有经验的同事」。LongMemEval-V2
07
research agent的skill库、memory、policy三者协同进化 AgentNanoResearch回应不同用户在资源、方法学、输出格式上的差异,把个性化当前提而非后处理。NanoResearch
08
基于Unreal Engine 5的可控视觉仿真框架 机器人LychSim目标是降低做闭环optimization和OOD评测时的图形学门槛。LychSim
09
agent积累的知识库会被incompleteness/incorrectness/redundancy污染 AgentDeepRefine用RL把refinement本身做成可学习环节,而不是事后人工清洗。DeepRefine
10
训agent从便宜的小实验中学规律,再去配置贵的大实验 Agent大规模LLM实验配置太贵以致无法靠trial-and-error AutoML,AutoLLMResearch绕开这个矛盾。AutoLLMResearch
11
单个神经元就能绕过safety alignment 安全对齐refusal neuron和concept neuron的mechanistic分工,给red teaming和alignment审计都提供了具体抓手。原文
12
Jina v5-omni用locked aligned tower保留各模态原本的几何结构 多模态不粗暴对齐到同一空间,是做多模态检索/embedding服务的工程参考。jina-embeddings-v5-omni
13
复杂interleaved instruction下性能下滑的结构成因 图像生成图文交错多图编辑/生成的scaling规律,给统一视觉生成的接口设计提供依据。Images in Sentences
14
量子纠错的neural decoder在throughput/latency下被重新审视 AI for ScienceQEC流水线中神经网络应该承担什么角色的系统性讨论。原文

今日观察

把今天的δ-mem、Mela、LongMemEval-V2、NanoResearch四篇放在一起看,会发现它们指向的不是「memory又热了」这种trend,而是一个更具体的方法论位移:行业默认的「扩context窗口、攒更多KV cache」路线,正在被「设计一个状态机」路线挑战——问题从「能记多少token」变成「存什么、怎么更新、怎么蒸馏」。δ-mem在架构层把固定大小状态矩阵外挂到frozen backbone上;Mela在test-time动力学层用consolidation把瞬时经验固化为稳定表征;LongMemEval-V2在评测层把目标从「记user history」挪到「记环境/接口/失败模式」;NanoResearch在agent层把memory和skill、policy绑成协同进化的整体——四个层面正好把「状态机记忆」这条路线从底层架构到上层应用撑起来。cache越攒越大不是答案,状态怎么设计才是问题。

具体可以做的事:如果你正在做长上下文或long-running agent,先盘点一下当前KV cache的增长曲线和实际命中模式,区分「真正需要长期保留的状态」和「被cache无差别堆积的中间结果」——前者尝试放进类似δ-mem的紧凑状态结构,后者按相关性(参考CausalCine的CAMR思路)而非时间淘汰,往往比单纯扩窗口能拿到更稳定的长程效果。