生成式人工智慧 有規範才有好未來
原標題:有規範才有好未來
近日,國家網際網路信息辦公室就《生成式人工智慧服務管理辦法(徵求意見稿)》公開徵求意見,引起業界關注。生成式人工智慧,即AIGC,是指基於演算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術。近來火爆出圈的ChatGPT等應用就屬於AIGC範疇。對希望參與AIGC大潮的企業來説,徵求意見稿透露了哪些玄機?
首先是明確了發展前景。AIGC爭議頗多。人工智慧生成的各種假新聞照片在網上流傳,人們一邊驚詫于AIGC技術的進步之快,一邊擔心這些過於逼真的假照片假視頻會不會讓人真假難辨。ChatGPT用戶數據洩露事件也一再發生,部分國家已經對ChatGPT數據安全問題進行調查,甚至下達使用禁令。但AlGC技術具備廣泛應用前景和發展潛力,禁用不是問題最好的解決方案,一禁了之更像是潑洗澡水的時候連孩子一起倒掉。
對AIGC這樣快速發展的新技術新應用來説,各類風險顯而易見,入局企業尤其擔心重金投入後遭遇政策風險導致投資損失。首個AIGC管理辦法公開徵求意見,本身就是一個重大信號,説明我國非常重視此輪AI發展所引領的科技變革,期待促進AIGC技術的健康發展。
其次是明確了合規重點。目前中國市場上多家科技巨頭企業正相繼入局AIGC,選擇此時發出規範管理的信號,體現了政府提前研判介入監管、防患于未然的工作思路,有助於企業及早構建合規解決方案、佈局必要的合規機制和工具,可以有效降低內容生成領域“先污染後治理”的社會風險。
徵求意見稿的具體細則,體現了我國從權益保護、數據治理、內容治理等多個維度進行綜合治理的初衷。細則強調了安全評估和演算法備案的前提性和必要性,明確了數據安全和個人資訊保護的責任承擔方和相關處罰措施,也為新技術開發保留了必要的容錯空間。比如出現不合規的生成內容時不會一棒子打死,平臺除採取內容過濾等措施外,應在3個月內通過模型優化訓練等方式防止問題再次發生。有了這些明確規範,産品開發方就可以探索在規範的框架下設計更加安全和可解釋的AIGC,從技術層面降低潛在違規風險。
此外,徵求意見稿中也明確了相關法律權益。比如,AIGC令人驚嘆的內容生成能力是被海量人類作品“餵養”出來的,過去這些訓練數據很多都未經原創者授權,侵犯了他們的智慧財産權。徵求意見稿要求提供者對AIGC産品的預訓練數據、優化訓練數據來源的合法性負責,明確了版權方內容資源在AIGC産品訓練中的法律權益,顯然是對版權方的重大利好,IP及內容、數據産業將獲得分享AIGC紅利的機遇。
當然,與新技術開發幾乎同步的監管規範,必將隨著技術發展和時代變遷而更新調整。此次AIGC管理辦法的徵求意見稿是開局的第一步,它將促進AIGC産業健康可持續發展。無規矩不成方圓,AIGC有規範才有美好未來。