在人工智能產業發展過程中,個人信息安全、虛假網絡信息內容生成、算法歧視等問題時有發生。針對此,有關部門出臺《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》等法律法規,完善優化人工智能應用的合法性問題。2023年7月份公布的《生成式人工智能服務管理暫行辦法》明確提出,支持行業組織、企業、教育和科研機構、公共文化機構、有關專業機構等在生成式人工智能技術創新、數據資源建設、轉化應用、風險防范等方面開展協作;推動公共數據分類分級有序開放,擴展高質量的公共訓練數據資源。這些具體舉措,對于化解潛在技術安全風險具有重要意義。接下來,還應多角度施策,筑牢人工智能安全防火墻。
一方面,持續細化人工智能產品研發者、服務提供者以及用戶的法律義務及其責任承擔方式。從長遠來看,難以控制的技術安全風險是限制科技創新的阻礙。原因在于,為了確保信息服務質量和功能穩定性,事前控制技術風險的經濟效益遠高于事后行政干預和矯正科技創新方向。而生成式人工智能服務和產品呈現出超市場預期的智能化水平,不僅是ChatGPT面世之初展現的高質量文本編輯功能,還表現為代碼編寫、視頻制作等領域的高效生成。這種高度智能化特征使得網絡信息內容治理實踐面臨挑戰,一旦被應用于網絡黑灰產領域,會對公民的人身安全和財產安全造成極大威脅。因此,應更加規范研發者和服務提供者的科技創新行為,借由事前安全風險評估、強制性算法備案等治理措施的法治化,引導產業的良性發展。
另一方面,借由保障型條款促成科技創新資源的高效分配,為經營主體營造公平公正的市場競爭環境。從技術創新環節來看,人工智能科技創新離不開算法、數據和算力三個要素,相應的法治保障體系也應當圍繞其展開。因此,要基于基礎科技創新、促進科技成果轉化、人才培養等角度提升算法模型的自主創新能力;拓展訓練數據獲取方式的多元化,充分保障中小企業獲取訓練數據的平等發展權。建構算力資源供給機制,囊括算力網絡建設、資源調度規劃、服務交易等具體內容。
關于我們 加入我們 聯系我們 商務合作
茶葉前線 www.cyqxw.com.cn 版權所有
投稿投訴聯系郵箱:8 8 6 2 3 9 5@qq.com