國際學術期刊《自然》最新發表一篇計算機科學論文指出,用A研究用人工智能(AI)生成的據訓數據集訓練未來幾代機器學習模型可能會污染它們的輸出,這個概念稱為「模型崩潰」。果樣國際
該研究顯示,最新終導致崩原始內容會在AI數代內變成不相關的用A研究主力资金净流入源码胡言亂語,顯示出使用可靠數據訓練AI模型的據訓免费可商用网站源码重要性。
生成式AI工具越來越受歡迎,果樣國際如大語言模型等,最新終導致崩這類工具主要用人類生成的用A研究輸入進行訓練。不過,據訓隨着這些AI模型在互聯網不斷壯大,果樣國際計算機生成內容可能會以遞歸循環的最新終導致崩形式被用於訓練其他AI模型或其自身。
論文第一作者兼共同通訊作者、用A研究气象数据中心源码英國牛津大學Ilia Shumailov和同事及合作者一起,據訓用數學模型演示了AI模型可能會如何出現模型崩潰。果樣國際他們證明了一個AI可能會忽略訓練數據中的某些輸出(如不太常見的文本),導致其只用一部分數據集來自我訓練。aosp源码编译速度优化
隨後,論文作者還研究了AI模型會如何應對主要用人工智能生成的訓練數據集。他們發現,給模型輸入AI生成的安卓bionic源码下载數據會減弱今後幾代模型的學習能力,最終導致模型崩潰。他們測試的幾乎所有遞歸訓練語言模型都容易出現重複短語。比如,一個用中世紀建築文本作為原始輸入的測試到第九代的輸出已經是一串野兔的名字。
論文作者指出,為了讓人工智能成功使用其自身輸出進行訓練,本次研究認為用AI生成數據訓練一個模型並非不可能,但必須對數據進行嚴格過濾。與此同時,依賴人類生成內容的科技公司或許能比競爭對手訓練出更高效的AI模型。
(來源:中國新聞網)
責任編輯: 宋得書2024-12-22 11:11
2024-12-22 10:43
2024-12-22 10:04
2024-12-22 09:52
2024-12-22 09:25
2024-12-22 08:47