最好看2019中文在线播放电影-最好看的2018中文在线观看-最好看的日本字幕mv视频大全-最近免费观看的好看电影

給AI數據過“安檢” 專家解讀如何讓大模型反“投毒”

發布時間:2026年04月01日 10:26     來源:中國新聞網

  從搜索引擎到AI大模型,我們獲取信息的入口正在發生變化。近期媒體曝光,不法機構利用GEO(生成式引擎優化)技術批量生產虛假信息,對大模型“投毒”,讓其錯把“電子垃圾”當成“干貨”輸出給用戶。專家提醒,這導致AI語料庫面臨“近親繁殖”風險,大量平庸、重復的內容被模型吸收,加劇其“邏輯退化”與“幻覺”。

  對抗“投毒”,技術防線正在構筑。研發人員正訓練大模型“自我甄別”真偽的能力,核心是建立信源評分體系與第三方交叉校驗機制。同時,用戶也需保持警惕,對AI提供的消費建議應自行交叉驗證。 凈化AI空間需企業、監管與平臺全鏈路聯動:企業需建立語料庫動態防火墻,識別并清洗AI生成的劣質數據;監管方需推動數據確權與安全評估;平臺則需強化AI內容的水印標識。(記者 盧曉娜 北京報道)

責任編輯:【羅攀】

版權聲明:中新視頻版權屬中新社所有,未經書面許可的使用行為,本社將依法追究其法律責任。
發表評論
文明上網理性發言,請遵守新聞評論服務協議
本網站所刊載信息,不代表中新社和中新網觀點。 刊用本網站稿件,務經書面授權。
未經授權禁止轉載、摘編、復制及建立鏡像,違者將依法追究法律責任。
Copyright ©1999-2026 chinanews.com. All Rights Reserved