国产午夜精品一区二区,色综合久久精品亚洲国产,国产精品亚洲lv粉色,少妇伦子伦精品无码STYLES

當前位置:首頁 > 最新資訊 > 行業資訊

如何安全可靠地推進生成式AI探索?

現如今,生成式AI的探索和實施工作已經不可避免地同安全問題交織在一起。根據近期的一份數據報告,49%的企業領導者認為安全風險已經成為首要問題,38%的企業領導者則將因不了解如何使用GPT工具而引發的人為錯誤/人為數據泄露列為頭號挑戰。

盡管這些擔憂各有道理,但早期采用者所獲得的好處將遠遠超過這些阻礙探索的潛在后果。

在本文中,我們將幫助各位團隊成員和客戶了解為何不能把安全視為事后因素,而應將其作為AI與業務相集成的先決條件,同時探討這方面工作中的一系列最佳實踐。

如何安全可靠地推進生成式AI探索?

以安全策略為起點

企業已經感受到由AI應用所帶來的新興安全風險與現實緊迫性。事實上,根據之前提到的統計報告,81%的企業領導者表示他們的公司已經實施、或者正在制定圍繞生成式AI建立的用戶政策。

然而,由于該項技術的發展速度極快、新興應用與用例時刻都在涌現,因此政策內容也必須不斷更新以應對隨時出現的風險和挑戰。

為了在加快探索的同時最大限度降低安全風險,我們自然有必要為測試和學習工作設置“護欄”。而且相關政策的制定也絕不應孤立推進,而應從企業內各個部門的代表處充分征集意見,思考不同職能單位如何使用/是否可以使用生成式AI應對各自面臨的安全風險。

總而言之,各部門對于AI技術的探索不應被粗暴禁止。如果單純出于恐懼而在企業范圍內全面封禁,那么大家也不必擔心競爭對手吞噬自己的市場份額了——您本身就是在自毀長城。

以一線人員為核心

為了確保能夠以安全的方式使用生成式AI,我們首先應為普通開發人員提供許可,例如允許他們全面使用大語言學習模型Insight GPT的私有實例。這一方面有助于發現潛在用例,同時也能根據輸出開展壓力測試,對生成式AI服務做出持續改進。

我們很快發現,一位倉庫團隊成員找到了一種提高訂單配送效率的方法。在這種非凡的用例中,該成員要求Insight GPT在SAP中編寫一份腳本,用以自動處理部分工作負載。雖然效果很棒,但如果沒有設置適當的護欄,這種嘗試也極易引發事故。比如說,一旦工作人員粗心之下執行了一筆訂單中并不存在的交易,那么后續的自動環節將無法中斷。

所以在促進民間探索并盡可能限制風險的過程中,我們需要:審查委員會應制定明確的指導方針,開展風險評估并加強AI系統的透明度。進行適當培訓,教育員工如何以負責任的方式將AI納入工作場景,特別是應當闡明對于道德標準、偏見、人類監督和數據隱私等關鍵問題的處理方式。開設內部論壇,鼓勵團隊成員在公司創新者群組內分享自己的發現和教訓。

減少“幻覺”的風險

生成式AI之所以存在風險,一個重要原因就是它偶爾會產生“幻覺”。根據Insight報告,企業領導者最關心的一個共同主題,就是幻覺會如何引發錯誤的商業決策。然而,由幻覺導致的風險往往各不相同,有時問題不大、有時后果嚴重,具體影響往往因場景而異。

雖然GPT工具必然會輸出某些與客觀現實不符的結果,但我們很快意識到這種錯誤回答往往屬于措辭層面的混淆。例如,在早期測試當中,我們詢問Insight GPT埃迪·范·海倫曾與埃迪·范·海倫合作過哪首作品。正確答案是“Beat It”,但它的回答卻是“Thriller”。可從另一角度講,“Beat It”確實是“Thriller”專輯中的一首作品,所以它的回答也并非毫無道理。

這就完美詮釋了“幻覺”問題造成的不同風險,特別是在處理各種主觀性較強的工作負載時。要想在安全角度上解決這類問題,我們就必須建立并執行相關政策,將所有AI生成的內容都納入人工監督范疇之內。此外,所有由AI輔助生成的內容都必須進行明確標記。當這些內容穿行在內部及外部各價值鏈時,也應始終附帶標記并接受監督。

當下,生成式AI行業仍處于萌芽階段,誰能摸索出負責任且安全的應用方式,同時減少數據泄露、信息錯誤、偏見及其他風險所引發的潛在威脅,誰就能建立起明確的技術優勢。企業需要保證自己的AI政策與行業的變化持續保持同步,在維護合規性、緩解幻覺問題的同時逐步建立起用戶信任。

猜你喜歡