人工智能是一個充滿活力的技術領域,為工業機器人和機器人流程自動化(RPA)領域的新興應用提供動力。與之前出現的變革性技術一樣,人工智能帶來的道德倫理問題正受到越來越嚴格的審查,從而催生了限制其應用范圍的法規和政策。那么,采用人工智能有哪些風險?以及正在采取哪些措施來促進人工智能的道德應用?
人工智能與機器人的交叉點
人工智能到底是什么?它在機器人技術中扮演什么角色?隨著時間的推移,利用能夠學習和推理的計算、模式識別系統的概念已經擴展到機器學習、自然語言處理和數據科學等更廣泛的領域。在工業機器人技術中,人工智能通常用于感知和感知物理機器運行的環境,以便安全地自動化操作(例如汽車裝配線上的機械臂)。工業機器人往往局限于重復運動,不需要持續學習,通常不會被視為威脅。
但人工智能遠不止是工業機器中的傳感器和執行器;它也是開發強大的建模軟件、決策支持軟件、預測分析軟件和其他能夠產生可疑的自主輸出的智能應用軟件背后的力量。因此,與機器人不同,人工智能應用程序接收大量數據,需要實時解釋和分析以實現持續學習,因此更容易受到風險的影響。
道德風險和其他風險是什么?
考慮到人工智能技術的范圍仍處于定義過程中,并且其運行環境可能有些模糊,因此以合乎道德的方式實現人工智能的好處可能是一個相當大的挑戰。無論如何,圍繞人工智能潛在問題方面的辯論仍在持續,目前集中在一些關鍵問題上:
隱私和安全——人工智能基于數據運行,由于所有數據收集和存儲現在都已經實現數字化和網絡化,網絡安全漏洞可能對個人和組織構成威脅。
不透明度/透明度——數據如何處理以及如何使用?人工智能系統識別的模式可能無法真正代表分析決策輸出。選擇了哪些數據以及如何確定其質量?需要在系統中建立透明度、社區參與和“算法問責制”,以確保對人工智能衍生的輸出符合道德標準、公平和無偏見的信心。
偏差——偏差可以通過多種方式影響算法,無論是使用與當前問題無關的有缺陷的數據或數據集(統計偏差),無意識地將正面或負面品質歸因于被分析的對象(無意識偏差),或者以確認個人先入為主的觀念的方式解釋信息(確認偏差)。
解決道德問題
與人工智能之前的其他顛覆性技術一樣,制定的法規正在迎頭趕上,因為它與這個令人難以置信的增長和機遇領域相關。在檢測和消除人工智能系統中的偏見方面,有大量的技術和應用還處于早期階段。此外,技術修復也有其局限性,因為它們需要發展一個難以實現的數學公平概念。
盡管實際制定的政策很少,但已經有了一些顯著的開端。美國數據創新中心(CenterforDataInnovation)在發布的2019年歐盟政策文件提出,“值得信賴的人工智能”應該是合法、道德和技術穩健的,并闡明了實現這些目標的要求:人為監督、技術穩健、隱私和安全數據治理、透明度、公平性、福利和問責制。目前,2021年4月,歐盟框架已被寫入法規,導致擬議的立法被《紐約時報》稱為一項首創的政策,概述了政府和企業如何使用被視為最重要的技術之一。
評估人工智能應用程序的框架
人工智能可以為成功利用其力量的企業帶來巨大利益,但如果在沒有道德保障的情況下實施,也可能損害企業的聲譽和未來業績。然而,與其他新引入的技術(如藍牙)不同,制定標準或起草法律并不容易。這是因為人工智能涵蓋了一個廣泛的、無定形的領域——從戰場機器人到用于審查合同的自動化法律助理,無所不包。事實上,幾乎所有與機器學習和數據科學相關的東西現在都被認為是人工智能的一種形式,這使得人工智能在制定行業標準方面相形見絀。
展望未來,一個確保道德實施的擬議框架正在成為焦點。該框架圍繞四個關鍵支柱構建:可信度、透明度、公平性、隱私性。
可信度——首先,能夠證明人工智能應用程序的可信度是需要確認的基本問題。人們需要知道,他們使用的人工智能應用程序來自可靠的來源,并且是在負責任和可信的監督下開發的。
透明度——對人工智能的使用方式保持透明度,并在特定用例場景中解釋其好處,這將顯著有助于減少擔憂和擴大采用。
公平性——開發人員需要證明人工智能是以公平、公正的方式部署的。由于人工智能在其基本狀態下缺乏應用判斷的能力,而主要關注于模式識別,因此需要對算法進行微調以消除偏見。還應引入流程,以避免人類因自身經歷而帶來的偏見。
隱私性——開發人員考慮使用人工智能可能影響嵌入在正在處理的數據中的任何個人可識別信息(PII)是至關重要的。雖然人工智能處理確實消除了一些隱私問題,因為它繞過了人類與敏感數據的交互,但也引發了其他問題,如信息的使用范圍、存儲位置以及誰可以訪問信息。
結論
人工智能將會繼續存在,行業參與者需要積極思考,并尋找方法將他們的應用程序嵌入到前面提到的框架中。一種可能性是使用同行評審系統來幫助建立信任并提高透明度。在這里,人工智能開發人員將在類似于以前的開源環境的人工智能社區中提交他們的用例供審查。
雖然開源最初遭遇了挫折,但最終有所好轉。起初,免費提供源代碼的想法讓全世界科技公司的首席財務官感到恐懼。隨著時間的推移,社區監控、更新和提供評論的開源軟件的發布所帶來的透明度提高了巨大的效率,并帶來了更重大的發展。如今沒有一家軟件公司不利用開源代碼。
另一種提高人工智能應用清晰度的方法是建立一個臨時組織,并將他們的項目和應用程序提交給中央人工智能注冊表。與通常由控制議程的大型組織主導的正式標準機構不同,注冊管理機構將是一個自我報告機構,用于收集反饋、建議和確認。最終,確保人工智能應用程序以合乎道德的方式部署的最佳方法可能是從一開始就將道德嵌入計算機科學課程中。