Home 开源项目案例库 AI 论文 将 Gemma 2B 的上下文窗口扩展到 1000万的技术方法 by 小互 7月 ago Share on FacebookShare on Twitter Gemma-10M 模型使用一种称为 Infini-Attention 的技术,将 Gemma 2B 的上下文窗口扩展到 10M。其主要方法是通过循环局部注意力和压缩记忆,实现长距离依赖关系的保留。 特性:Support authors and subscribe to contentThis is premium stuff. Subscribe to read the entire article.Login if you have purchased 加入会员 加入会员查看更多会员内容和教程。 超过1000+的会员内容,每天更新。 开通会员 Categories: AI 论文, AI 项目 Related Content Runway 推出视频扩展工具:Expand Video 可以无缝的为视频扩展画面 by 小互 2024年11月23日 GetPickle AI是一款革新虚拟会议的AI工具 让你的替身帮你开会 你去干别的 by 小互 2024年11月21日 Comfyui_Object_Migration:一致性换衣模型和工作流 实物衣服 一键穿上 by 小互 2024年11月21日 ElevenLabs 推出构建语言对话AI代理的功能 可使用其语音模型接入AI模型 by 小互 2024年11月20日 Stripe 推出 Stripe Agent Toolkit:让 AI 代理能自动进行支付 帮你购物、订机票等 by 小互 2024年11月20日