高管們長期以來一直抵制將數據分析用于更高層次的決策,他們總是青睞依靠基于現場經驗的直覺層面的決策,而不是AI輔助的決策。
AI已在許多行業被廣泛用于戰術性、低級別的決策——信用評分、超額促銷建議、聊天機器人或管理機器性能都是成功部署AI的例子。然而,它在更高層次的戰略決策中的作用尚待證明——比如重組產品線,改變企業戰略,在各職能部門重新配置人力資源,或與新的合作伙伴建立關系。
無論是AI還是高級分析,企業領導者仍然還沒有做好準備,以深刻的方式將他們的業務完全押在機器做出的決策上。瑞士國際管理發展學院商學院(IMD Business School)的阿米特·喬希(Amit Joshi)和邁克爾·韋德(Michael Wade)對金融和零售企業中的AI活動開展的研究發現,“AI現在主要被用于戰術性而非戰略性目的——事實上,很少能夠找到一個完整的長期AI戰略愿景。”
在接受德勤(Deloitte)的一項調查時,三分之二以上的高管(67%)表示,他們在訪問或使用先進分析系統的數據時感到“不自在”。在擁有強大數據驅動文化的企業中,37%的受訪者仍然表達了不適。同樣,在畢馬威(KPMG)開展的一項類似調查中,67%的CEO表示他們通常更喜歡根據自己的直覺和經驗來做決定,而不是通過數據分析產生的見解。該研究證實,許多高管對其公司的數據、分析和AI缺乏高度信任,而且不確定誰該對錯誤和濫用AI負責。數據科學家和分析師也看到了高管們的這種不情愿——SAS最近的一項調查發現,42%的數據科學家表示他們的結果沒有被企業決策者使用。
高管們何時才能做好準備,將AI推向下一步,對AI足夠信任,以至于會按照那些影響他們業務的更具戰略性的建議而采取行動?雖然存在許多挑戰,但是現在可以采取四項行動,以增加高管在AI輔助決策方面的信心。
創建可靠的模式
高管的猶豫可能源于負面的經歷,比如某AI系統提供了誤導性的銷售結果。幾乎每個失敗的AI項目都有一個共同點——缺乏數據質量。在舊的企業模式中,結構化的數據占主導地位,它在數據從源頭到達時就對其進行分類,使得數據相對容易立即投入使用。
雖然AI可以使用高質量的結構化數據,但它也使用大量的非結構化數據來創建機器學習(machine learning, ML)模型和深度學習(deep learning,DL)模型。這些非結構化數據雖然很容易以原始格式收集,但如果不對其進行適當的分類、標記和清理,它們是無法使用的——視頻、圖像、圖片、音頻、文本和日志——都需要進行分類、標記,以便AI系統創建和訓練模型,然后才能將這些模型部署到現實世界。因此,輸入AI系統的數據可能是過時、不相關、多余、有限的或不準確的數據。輸入AI/ML模型的片面數據只會提供企業的局部視野。AI模型的構建可能是為了反映企業一直以來的經營方式,并沒有能力適應新的機會或現實,例如我們看到的因全球疫情的影響而造成的供應鏈中斷。這意味著數據需要實時輸入,這樣才能實時創建或改變模型。
難怪,許多數據科學家把一半的時間花在數據準備上。在創建能提供適當結果的可靠AI模型的過程中,這仍然是唯一的重要任務。要獲得高管的信任,背景和可靠性是關鍵。有許多AI工具可以用來幫助進行數據準備——從綜合數據到數據去偏,再到數據清理,企業應該考慮使用其中一些人AI工具在合適的時間提供合適的數據,以創建可靠的AI模型。
避免數據偏見
高管的遲疑態度可能是出于持續、合理的擔憂,認為AI結果會在其企業內部導致歧視或影響客戶。同樣,固有的AI偏見可能會將企業決策引向錯誤的方向。如果不采取謹慎的措施清除數據中的任何偏見,所產生的AI模型始終會帶有偏見,結果造成“輸入垃圾,輸出垃圾”的局面。如果某一AI模型是用有偏見的數據進行訓練的,它就會影響該模型的準確性并產生有偏見的建議。
模型和決策只有在數據不存在偏見的情況下才算是好的模型和決策。糟糕的數據,無論是有意還是無意,都可能包含隱性偏見信息——比如種族、性別、出身、政治、社會或其他意識形態偏見。此外,對企業有害的其他形式的偏見也可能是固有的。現在大約有175種已認定的人類偏見需要關注。這需要通過分析找出輸入數據的偏見和其他負面特征來解決。如上所述,AI團隊花了過多的時間準備數據格式和質量,但沒花多少時間來消除偏見數據。
高層決策中使用的數據需要進行徹底審查,以向高管們保證這些數據經過驗證、有權威性、經過鑒定,并且來源可靠。它需要從已知的歧視性做法中清理出來,那些做法會影響算法的準確性。
如果數據來自有問題的或未經審核的來源,它要么應該完全根除,要么應該得到較低的信任分數。另外,通過控制分類精度,歧視可以以最小的增量成本大幅減少。這種數據預處理的優化應該集中在控制歧視、限制數據集的失真和保持效用上。
人們通常假設——錯誤地假設——AI的數學模型最終可以濾除人類的偏見。其風險在于,這種模型,如果不受限制地運行,可能會導致額外的不可預見的偏見——原因還是輸入的數據受限或準確性受到影響。
做出符合倫理和道德的決策
高管的遲疑態度可能反映了這樣一個事實:企業正面臨著前所未有的壓力,要確保企業的運營符合道德和倫理,而AI輔助的決策也需要反映倫理觀和道德觀。部分原因是他們希望以具有倫理和道德價值觀的公司形象出現并誠信經營,部分原因是做出錯誤的決定可能引起法律責任,而這些錯誤決定可能會在法庭上受到質疑——尤其是考慮到決定如果是由AI做出的或由AI輔助的,它將經歷額外一層的審查。
研究和教育機構正在進行研究,將人類的價值觀應用于AI系統,將這些價值觀轉換成機器可以理解的工程術語。比如,加州大學伯克利分校的計算機科學教授斯圖爾特·拉塞爾(Stuart Russell)率先提出了人稱“價值對齊原則”(Value Alignment Principle)的有用想法,該想法實質上是“獎勵”AI系統從事更可接受的行為。AI系統或機器人可以被訓練來閱讀故事,從這些故事中學習可接受的事件序列,并更好地反映成功的行為方式。
至關重要的是,拉塞爾開展的這種研究被引入商業領域,因為AI極有可能影響到涉及生活與事業的決策的準確性。企業需要確保有足夠的制衡,以確保AI輔助的決策符合倫理和道德。
能夠解釋AI決策
如果缺乏透明度,高管們在接受AI決策時可能會有戒心。大多數AI決策都沒有內在的可解釋性。當做出的決定和采取的行動會給企業帶來數百萬美元的風險,或涉及人們的生命/工作時,如果聲稱是AI做出了這個決策、所以我們是在按此決策行事,這樣做不太好。
AI產生的結果和在此基礎上采取的行動不可能不透明。直到最近,大多數系統都被編制了程序,可以清晰識別和處理預先確定的情況。然而,傳統的非認知型系統在遇到它們程序中未設定的情況時就會碰壁。另一方面,要置入一定程度的批判性思維能力,旨在更接近地模仿人腦。隨著新情況的出現,這些系統可以學習、理解、分析情況并根據情況采取行動,無需另外編程。
用于訓練算法的數據需要以負責任的方式進行維護——通過安全存儲、驗證、審核和加密。區塊鏈或其他分布式賬本技術之類的新興方法也提供了一個永恒不變且可審核的存儲方式。此外,需要設立一個第三方管理框架,以確保AI決策不僅可以解釋,而且是基于事實和數據。在一天結束時,應該有可能證明,人類專家如果被提供了同樣數據集,是否會得出同樣的結果——AI沒有操縱結果。
AI基于數據的決策幾乎總是以概率(概率性相比于確定性)為基礎。正因為如此,當AI做出決定時,總是存在一定程度的不確定性。對結果的可靠性必須要有相應程度的信心或評分。正是由于這個原因,大多數系統不能、不會、也不應該實現自動化。在近期的未來,人類需要在決策圈中發揮作用。這使得在涉及醫療衛生等敏感行業時,依賴基于機器的決策難度更大。在醫療衛生行業,決策不夠好的概率是98%。
隨著系統之間的相互作用,事情變得復雜和不可預測。據隸屬于哈佛大學伯克曼·克萊因互聯網與社會中心(Berkman Klein Center for Internet and Society at Harvard University)的戴維·溫伯格(David Weinberger)博士稱:“我們開始接受這樣的事實:世界的真正復雜性遠遠超過了我們設計來解釋它的法則和模型”。無論決策變得多么復雜,今天的企業仍然需要來自人類的批判性思維來運營。高管們仍然需要有能力否決或質疑基于AI的輸出,尤其是在一個不透明的過程中。
提高高管信心的任務
在尋求提高高管對AI方面的舒適度時,請考慮以下行動步驟:
提升IT部門之外接觸到AI流程的任何人對AI的主人翁和責任感。為促進合乎道德的決策,在數據經濟中生存,需要進行文化變革。
認識到AI(在大多數情況下)只是根據先前的數據和模式做出決定并對未來進行一些猜測的代碼。每位企業領導——以及與他們共事的員工——仍然需要批判性思維能力來質疑AI的輸出。
將AI瞄準其影響力最大的領域,并首先完善這些領域,這將增加最大的商業價值。
調查并推行最具影響力的技術。
通過提高透明度,并最大限度實現決策提供鏈的能觀性,確保AI中的公平性。
在各個級別促進對公平、可操作AI的更多認識和培訓,并將激勵措施與AI的成功采用掛鉤。
定期、系統性地審視或審查AI結果。
負起責任,自主決策,如果做出了錯誤的決定,請糾正方向——不要怪罪于AI。
不可避免的是,出于戰略目的,更多的AI輔助決策將出現在高管辦公室。目前,AI將在決策方面協助人類表現出更強的智能,而不是按一個按鈕就能提供獨角獸式的正確見解。確保這些AI輔助決策的輸出是基于可靠、無偏見、可解釋、符合倫理、道德且透明的見解,這將有助于企業領導者現在及在未來幾年對基于AI的決策充滿信心。