AI能夠在許多領域保護人們免受已知或未知威脅的傷害,幫助人們保持彼此之間的聯系,能以比人工更快的速度、更低的成本完成工作,并可能提供更好的解決方案。但是隨著AI逐漸滲入到我們的日常工作和生活中,人們開始意識到AI所帶來的一些預期之外的結果,例如人工專業技能的缺失。我們應該如何著手并處理這些問題?
根據貝恩多年來積累的經驗,我們認為,對商業領袖和技術投資者們來說,了解并處理以下六大風險已成為不容忽視的責任:
1、隱形錯誤
與傳統、以規則為導向的程序不同,AI模型通過自我學習提供答案,但并非完美無缺。很多AI模型的不透明性以及快速擴張的能力有可能將真正的錯誤隱藏起來。例如,隨著自動駕駛和飛行系統的訓練數據飛速增長,以這些數據為基礎的模型也在飛速進步,但是人們還是能夠不斷地在算法中發現錯誤,某些情況下,只有在車毀人亡的悲劇發生后才被發現。
2、技能、判斷性思維和理解能力的缺失
這種情況不僅出現在新手出租車司機身上。一位硅谷工程師曾表示他的網站上的推薦算法讓他的團隊不再投入太多的精力去思考,不了解自己業務的基本要素和真正的需求推動因素,對團隊來說是一件十分危險的事情。
3、新的災難
和傳統員工一樣,AI算法是可以被操縱的。不同的是,在被管理層監督的時候,員工自己所能做的決策相對較少,而AI算法可以在暗中自作主張。黑客們對AI的攻擊才剛剛開始,隨著AI算法發揮作用的領域越來越廣(幫助電商平臺定價、決定車險費率、招聘等),經理們必須預見算法被人操縱的可能性并及時進行相應的調整。
4、“慣例化”偏見
大多數AI機器是通過研究編輯好的數據樣本進行學習的。一位AI專家也許能夠理解一套算法是如何得出結論的,或者這對專家來說也如黑箱一般神秘莫測。這就引發了人們對于偏見的擔憂,因為任何通過歷史數據進行訓練的算法,會很自然地在自己的結論中體現出數據中存在的偏見。這可能會導致一些嚴重的問題,例如歧視性的借貸算法,或是一些誤導性的結論,例如從現有客戶數據樣本進行學習的算法會自然而然地偏向現有客戶群的偏好,從而忽略了潛在客戶群的口味。
5、缺乏同理心
隨著越來越多的企業利用機器人等與消費者進行互動,他們不得不承受與客戶日漸疏遠的風險。對企業高管來說,用算法代替自己來管理員工,就像讓算法控制網約車司機一樣,給人一種疏遠感。疏遠感可能會減少管理者感同身受的能力,弱化他們傾聽各個團隊的能力。
6、失控
AI驅動的決策體系既方便又快捷,因此非常具有吸引力,但是有時也需要人為參與。現在,無人機執行某些遠程任務時必須要進行人為判斷,而隨著人們對這項技術越來越熟悉,這一狀況有可能會發生改變。這是一件好事嗎?同樣還有很多關于AI削弱人類控制權的難題。對于商業領袖來說,克服這些問題是十分必要的。
貝恩認為,對于AI來說,控制是關鍵。
企業的最高管理層需要通過參與目標制定,來為被廣泛應用于公司業務的AI保駕護航。在過去幾十年里,對于信用算法依賴度極高的金融機構被要求要嚴格管控風險;現在,對于廣泛應用AI技術的機構來說,對于AI的監管要求上升到了同樣的高度。
在企業中,任何重要的算法都需要有一個產品經理:一個可以檢驗、檢測算法、審計其結果、評估并改善其性能的角色。
另一個不可或缺的是強而有力的溝通體系。
在一套重要的算法中,定期向客戶、員工和合作伙伴尋求意見和反饋,是一個非常重要的組成部分,在管理和使用任何算法時必須以“同理心”為導向。
AI技術的普遍性和可擴展性,讓AI算法可以在很短的時間內影響到上百萬人。企業為了應對行業競爭,取得進步,研發并使用AI技術是必不可少的。但是,技術本身不具備道德,也不會進行自我改善,關鍵依然取決于那些使用技術的人。
(作者韓微文是貝恩公司全球合伙人、大中華區總裁。)