
華為在 2025 年 6 月 30 日宣布開源盤古7B參數的稠密模型與盤古Pro MoE 72B混合專家模型,並公開其基於昇騰晶片的模型推論技術。不過,一篇由「HonestAGI」研究團隊發布在 GitHub 上的研究指出,華為的盤古大模型在結構上與阿里巴巴的 Qwen-2.5 14B 模型高度相似,平均相關係數達 0.927,遠高於業界類似模型間通常不超過 0.7 的標準,引發是否「抄襲」的質疑。
HonestAGI 強調,兩個模型在多層注意力參數上呈現極高一致性,在深度學習模型訓練具有高度隨機性的前提下,這樣的重合幾率極低,認為值得進一步調查。
華為盤古團隊隨後在 GitHub 上回應,否認抄襲並質疑該研究方法的科學性。他們以相同方法比較其他模型組合,也呈現類似高相似度,指出這顯示該方法本身缺乏有效性。例如:
-
盤古-72B 與 Qwen2.5-14B 的相關係數為 0.92
-
百川2-13B 與 Qwen1.5-14B 為 0.87
-
百川2-13B 與 盤古-72B 為 0.84
HonestAGI 則回應指出,盤古仍是相似度最高的案例,而且這只是初步篩選的工具。他們並非只靠注意力參數做判斷,未來將以完整數據與程式碼投稿至 ICLR 等國際會議。
同時,有人發現盤古Pro 模型的原始碼中標註使用了 Qwen 團隊與 HuggingFace 開發的「transformers」元件,標明該元件遵循 Apache 2.0 授權條款,這也讓部分網友認為是「實錘」抄襲。
不過,業界人士指出這是常見的開源程式碼使用行為,標註出處是法律義務,無法構成抄襲證據。
針對爭議,華為旗下的諾亞方舟實驗室也在 7 月 5 日正式發布聲明澄清,強調盤古Pro MoE 模型是基於昇騰平台原生訓練,非建立在其他模型之上,並提出「分組混合專家模型(MoGE)」作為創新設計,致力於提升大規模訓練效率。
另外有內部消息指出,華為團隊表示模型使用的 Llama 和 Qwen 元件本身即為開源內容,未涉不當使用。
目前尚無明確證據證實華為盤古模型抄襲 Qwen。HonestAGI 所採用的評估方法尚未經完整驗證,其研究報告目前也已下線。不過他們表示,是為了讓正式研究報告上線前的準備。
不過,業界認為,即便盤古模型部分參考 Qwen 的開源組件,只要遵守授權條款,應該不構成抄襲。這場爭議更多反映了大型語言模型開源後,模型評估標準與知識產權界線仍有待明確釐清。
- 延伸閱讀:迪士尼與環球影業聯手控告Midjourney是「抄襲無底洞」,其AI模型侵犯版權
- 延伸閱讀:AI抄襲了作者的自傳放在Amazon上賣,Amazon還推薦這本書給原作者
- 延伸閱讀:時隔 11 年祖克柏再次上推特發文,用一張圖回應 Threads「抄襲」Twitter
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!