華為盤古大模型回應抄襲質(zhì)疑:堅守開源合規(guī)與自主創(chuàng)新
關(guān)鍵詞: 盤古模型 盤古抄襲質(zhì)疑 華為官方聲明 通義千問
近日,華為盤古大模型深陷輿論風波,面臨是否抄襲的嚴峻質(zhì)疑。7 月 5 日,華為盤古 Pro MoE 技術(shù)開發(fā)團隊發(fā)布官方聲明,對相關(guān)爭議做出正式回應。
6 月 30 日,華為開源了盤古 70 億參數(shù)的稠密模型、盤古 Pro MoE 720 億參數(shù)的混合專家模型,同時開放基于昇騰 AI 平臺的模型推理技術(shù)。然而僅隔四天,7 月 4 日,一份發(fā)布在 GitHub 上的技術(shù)分析報告將華為盤古大模型推上了風口浪尖。該報告由一位自稱為哥斯達黎加大學的韓國學生發(fā)布,他采用 “LLM - Fingerprint” 技術(shù),對華為盤古 Pro MoE 模型與阿里巴巴通義千問 Qwen - 2.5 14B 模型進行深度比對。結(jié)果顯示,兩者在 “指紋” 上的相似度達到 0.927,遠超不同獨立訓練模型間的正常差異范圍。并且,研究者在盤古開源的代碼文件中發(fā)現(xiàn)了明確指向阿里巴巴的版權(quán)聲明 “Copyright 2024 The Qwen team, Alibaba Group”,這一發(fā)現(xiàn)似乎坐實了兩者之間存在代碼繼承關(guān)系。
面對質(zhì)疑,華為盤古團隊迅速回應。聲明首先強調(diào),盤古 Pro MoE 開源模型是基于華為自家的昇騰(Ascend)硬件平臺開發(fā)、訓練的基礎大模型,并非基于其他廠商模型進行增量訓練的產(chǎn)物。團隊創(chuàng)新性地提出了分組混合專家模型(MoGE)架構(gòu),這是全球首個面向昇騰硬件平臺設計的同規(guī)格混合專家模型。該架構(gòu)有效解決了大規(guī)模分布式訓練過程中的負載均衡難題,顯著提升了整體訓練效率。
同時,華為方面也承認,盤古 Pro MoE 開源模型的部分基礎組件代碼實現(xiàn),確實參考了業(yè)界的開源實踐,涉及其他開源大模型的部分開源代碼。但團隊嚴格遵循了開源許可證的要求,在相關(guān)的開源代碼文件中清晰標注了版權(quán)聲明。華為認為,這是開源社區(qū)的通行做法,符合開源協(xié)作的精神。
然而,7 月 6 日凌晨,一位自稱是盤古大模型團隊的員工自曝,稱存在套殼、續(xù)訓、洗水印等現(xiàn)象。該員工表示團隊初期算力有限,存在使用 Qwen 1.5 110B 續(xù)訓等情況,并采取了一些手段來 “洗掉” 千問的水印。截至目前,華為尚未對此自曝內(nèi)容發(fā)表聲明。
此次華為盤古大模型的爭議,反映出人工智能大模型時代開源概念面臨的挑戰(zhàn)。在大模型發(fā)展中,使用開源模型架構(gòu)、參考代碼與直接使用他人模型權(quán)重之間的界限模糊,而訓練大模型成本高昂,使得類似爭議屢見不鮮。但無論如何,技術(shù)創(chuàng)新和知識產(chǎn)權(quán)保護都是行業(yè)發(fā)展的關(guān)鍵,期待華為后續(xù)能進一步回應相關(guān)問題,也希望行業(yè)能在爭議中不斷完善規(guī)范,推動人工智能技術(shù)健康發(fā)展
