标签:Llama

开源大模型效率革命【深度拆解】Meta Llama 4-Plus破局|MoE架构革新+10M上下文,

① 事件背景 2025年4月6日,扎克伯格在Instagram突然官宣Llama 4-Plus系列,距DeepSeek R1发布仅隔90天。这场突袭式发布引发两大争议:其一是Scout模型宣称的1...

MoE架构+超长上下文如何重塑AI效率版图?开源大模型|Meta Llama 4发布:

技术术语对照表 中文术语 英文全称 简写 混合专家架构 Mixture of Experts MoE 交错旋转位置编码 Interleaved Rotary Positional Encoding iRoPE ...