MeKi —— 用 ROM 扩展端侧 LLM,而不是继续硬堆计算
MeKi —— 用 ROM 扩展端侧 LLM,而不是继续硬堆计算
本文内容待抓取...
*原文来源:None*
*原文来源:None* *质量评分:4/5* *作者:允许动态投影、归一化、非线性映射这些复杂结构存在,以保证模型能学到足够好的知识表达;部署前,再把这些东西折叠到静态查表结构里。于是:* *日期:2026-03-09*
论文:MeKi: Memory-based Expert Knowledge Injection for Efficient LLM Scaling 精读日期:2026-03-09 定位:面向 Android / 端侧 AI / 性能优化 / SmartPerfetto 方向的深度解读 一、论文要解决的问题 1.1 真正的问题不是“模型不够大”,而是“手机端的资源结构不匹配” 在服务器上,做大模型最直接的办法就是: 增加参数量; 增加推理时计算; 用更大的显存和更强的 GPU 接住它。 但到了手机端,这套思路就开始失效: …
本文内容待抓取...
*原文来源:None*
*原文来源:None* *质量评分:4/5* *作者:允许动态投影、归一化、非线性映射这些复杂结构存在,以保证模型能学到足够好的知识表达;部署前,再把这些东西折叠到静态查表结构里。于是:* *日期:2026-03-09*