機房360首頁
當前位置:首頁 ? 網絡安全 ? AIGC的六大風險

AIGC的六大風險

來源:企業網D1Net 作者:Harris編輯 更新時間:2023/7/27 6:59:44

摘要:運營ChatGPT的OpenAI公司CEOSamAltman最近在國會聽證會上呼吁政府對AI進行監管,引起了不小的轟動。Altman稱,“我們認為,政府的監管干預對于減輕日益強大的AI模式的風險至關重要?!?

  運營ChatGPT的OpenAI公司CEOSamAltman最近在國會聽證會上呼吁政府對AI進行監管,引起了不小的轟動。Altman稱,“我們認為,政府的監管干預對于減輕日益強大的AI模式的風險至關重要。”
  
  ChatGPT是AIGC的一個例子,這種技術可以通過學習嵌入在大量訓練數據中的模式,自主創建新的原創內容,如文本、圖像或音樂。AIGC在多個方面都與當前其他的機器學習技術不同。
  
  首先,AIGC模型(如GPT和StableDiffusion)的輸出是開放式的。這些模型從零開始生成文本和圖像數據,而其他常用的判別性(discriminative)ML模型(如分類或回歸模型)創建的輸出屬于一組定義良好的值(例如,Yes/No,0-1之間的數字)。情感分析模型將根據一些輸入文本產生積極或消極的情緒,GPT本身可以產生許多不同類型的輸入文本。
  
  此外,與目前使用的大多數模型相反,當前的AIGC模型已經在大量數據集上進行了訓練。例如,OpenAI在5000億個令牌上訓練了GPT-3。GPT-4、StableDiffusion和Codex等最新版本的AIGC模型背后的組織尚未披露用于訓練模型的確切訓練數據。這引發了人們對潛在的隱私侵犯或版權侵犯的擔憂。
  
  這些模型的絕對力量也使它們與眾不同。如今進入市場的AIGC模型比過去的任何模型都要強大,而且它們開始展示出其沒有經過專門訓練來復制的“涌現特性”(emergentproperties,指的是在一個復雜系統中,一些新的、意想不到的特性逐漸顯現出來,這些特性在系統的各個組成部分中并不存在)。從實際的角度來看,這意味著用于一個功能的模型可以被重新利用并用于其他任務。
  
  最后,這些模型本質上是不透明的。解釋一個有1750億參數的模型的結果,或者理解它是如何做出任何給定決定的,幾乎是不可能的。與此同時,這項技術仍處于初期階段,目前的AIGC模型存在眾所周知的局限性,比如“幻覺”(hallucinations,即產生明顯錯誤的信息),會產生新的風險。
  
  AIGC的六大風險
  
  AIGC模型的獨特屬性帶來了一系列我們在其他類型的模型中看不到的風險。以下是業務領導者在考慮AIGC項目時必須警惕的六大風險。
  
  輸出質量問題:首先,由于其不可預測的性質,確保AIGC模型生成的輸出質量極具挑戰性。營銷GPT模型的一個結果可能與您的品牌指導方針一致,但另一個結果可能不一致。模型創作的廣告在一種文化背景下可能是合適的,但在另一種文化背景下可能是令人反感的。雖然人類可能會很快辨別出這些區別,但該模型缺乏對文化細微差別的意識,可能會無意中產生不適當的內容。因此,人工審查對于評估輸出質量仍然是必不可少的。
  
  虛構的“事實”和幻覺:第二,AIGC模型雖然發展迅速,但仍然存在明顯的局限性,最重要的可能是上面提到的模型編造“事實”時的“幻覺”。結果可能是無害的(誤報誰發明了軋棉機),也可能引發訴訟(捏造刑事指控)。在企業應用程序中,模型產生幻覺的可能性意味著,在需要準確信息(如搜索)的情況下使用這些工具之前,需要設置重要的防護機制。
  
  版權和其他法律風險:第三,AIGC存在潛在的重大法律和監管風險,例如,AIGC工具在未經創作者許可的情況下使用了受版權保護的材料。此外,AIGC應用程序的使用條款往往缺乏對用戶交互數據用于模型改進的明確規定,這可能會引發隱私和安全問題,就像涉及企業源代碼的事件一樣。此外,AIGC模型的訓練數據缺乏透明度可能會導致監管影響,意大利出于對隱私、輸出準確性和年齡驗證的擔憂而暫時禁止ChatGPT就是明證。
  
  有偏見的輸出:第四,基于用于訓練模型的數據中的偏見,AIGC模型與其他模型一樣容易遭受有偏見輸出的風險。例如,StableDiffusion可能會根據提示顯示“公司首席執行官”的圖像,并只生成白人男性的圖像。傳統的機器學習模型也會帶來同樣的公平和偏見風險,但當AIGC直接與客戶互動時,新AI模型的生成特性會增加風險。
  
  易被濫用:第五,AIGC的絕對力量使其容易被“越獄”。雖然GPT的訓練主要集中在單詞預測上,但它的推理能力是一個意想不到的結果。隨著我們在AIGC模型方面取得進展,用戶可能會發現繞過模型最初預期功能的方法,并將其用于完全不同的目標。例如,如果您的心理健康聊天機器人是使用GPT開發的,惡意行為者可能會破解聊天機器人,引發不適當的響應或泄露機密數據。幾乎所有基于GPT構建的聊天界面在發布后不久都容易被“越獄”。
  
  專業知識和計算成本:第六,也是最后一點,與AIGC開發應用相關的額外有形業務風險是專業知識和計算資源的有限可用性。目前,只有少數著名的技術公司能夠集中資源來使用這種技術構建彈性應用程序。雖然云提供商可以提供計算能力,或者組織可以使用OpenAI或Azure的API,但該領域的專業知識仍然集中在少數實體手中。
  
  這并不是說業務領導者不應該推進AIGC項目。但他們應該在自己的AIGC之旅中,睜大眼睛洞察這項技術的潛在風險,并在必要時采取措施緩解這些風險。
  
  編輯:Harris

機房360微信公眾號訂閱
掃一掃,訂閱更多數據中心資訊

本文地址:http://www.analisisseoweb.com/news/2023727/n8493154014.html 網友評論: 閱讀次數:
版權聲明:凡本站原創文章,未經授權,禁止轉載,否則追究法律責任。
轉載聲明:凡注明來源的文章其內容和圖片均為網上轉載,非商業用途,如有侵權請告知,會刪除。
相關評論
正在加載評論列表...
評論表單加載中...
  • 我要分享
推薦圖片
大青青草原免费费观看-精品熟女少妇一区二区三区性色-无码专区亚洲综合另类一区尤物-免费网站AV