本帖最后由 不要搞我 于 2025-7-4 16:34 编辑
HonestAGI 研究团队发表论文,提出通过分析大语言模型注意力参数标准差模式来识别模型"指纹"的新方法。该技术能够检测模型是否通过继续训练从其他模型衍生而来,即使经过大量训练也难以消除这些内在特征。
研究团队使用此方法发现,华为盘古 Pro MoE 模型与 Qwen-2.5 14B 模型存在 0.927 的极高相关性,表明前者可能通过"升级改造" Qwen 模型获得,而非从零训练。这一发现质疑了华为在技术报告中关于大规模独立训练投入的声明,涉嫌版权侵犯和信息造假。
https://github.com/HonestAGI/LLM-Fingerprint
知乎有 HonestAGI PDF 的翻译:
https://www.zhihu.com/question/1924254207063593527/answer/1924429291443164725
盘古团队跟HonestAGI团队吵起来了:
https://github.com/HonestAGI/LLM-Fingerprint/issues/8