人工智慧再突破!會預測離婚監護權的AI,也能幫助企業做好決策嗎?

0
178
圖片來源:Pexels

在大部分單一指揮鏈(Chain of command)的企業決策架構中,人工智慧(AI)並不容易找到適當的位置;AI也不同於作為輔助判斷的商業智慧工具BI(Business Intelligence),而是產出判斷本身。

清華大學跨領域研究團隊日前發表能夠預測離婚監護權的AI系統,使用者只需在網站上用文字輸入雙方的有利及不利條件,這個AI預測系統就能根據過往判例,來判斷小孩監護權較可能判予父母親的哪一方。

研究團隊指出,這個以自然語言分析和類神經網絡為架構的AI系統,預測的準確率接近90%。但值得注意的是,「準確率」不代表「正確率」,因為這個AI系統是藉助過往資料,中性地預測法官綜合判斷的行為,而不是真正作出價值判斷,決定孩子的監護權「應該」判給誰。

比起電影中經常被描繪成具擬人格行為的AI,這個單純針對「人的判斷」做判斷的AI,或許更接近企業實際應用的場景。但是,大部分公司從BI商業智慧融入AI應用,仍有一些困難待克服。(AI商用,管理者必須先體認到的5個迷思

AI敢下決定,但你敢讓AI作決定嗎?

目前企業內較常見的BI,著重於前端資料的彙整、分析、視覺化。簡單來說,BI擅長從過往資料告訴你一些整理過的現況,它會告訴你現在有什麼,例如「今年七月本旅館住房率為85%,較去年同期上升5%」,但不會告訴你該怎麼做。

與BI相反,AI的學習和決策判斷過程經常是不透明的。它會通過一系列對決策者來說是黑箱(Black Box)的處理程序及演算過程,只提供你最終判斷及行動建議,例如「下個月本旅館的來客數將下滑3.5%」,而這背後的運算,納入了過往住房資料、氣象預測、社群語料數據分析、當地其他旅館的狀況等使用者不完全理解的綜合要素。

AI預測事物發展的「準確度」無庸置疑,但就商場決策而言,「準確」並不等於「正確」。
圖片來源: Nguyen Hung Vu Flickr via Wunderstock (license)

然而AI的不透明感帶給人的憂慮,其實不是重點──想想1966年手持電子計算機剛在美國的德州儀器(Texas Instruments)問世時,許多公司的帳務員仍寧願再用紙筆計算一次,而時至今日大家也不一定徹底知道電子計算機的原理──卻願意直接相信計算結果。由此能明白對企業而言,充分理解一項技術,並非使用它的必要條件。(英特爾曾開創大時代,是誰另闢AI 新沙場?

但另一方面,在Gartner今年九月根據上百家企業的調查中,也發現有超過49%企業的資訊長計畫在兩年內導入AI,其中42%卻認為「無法量化評估AI導入的效益,以及不確定該在哪個工作環節派上用場」。這是由於AI不同於作為輔助判斷/決策的BI工具,而是產出判斷/決策本身,因此在大部分單一指揮鏈(Chain of command)的企業決策架構中,AI並不容易找到適當的嵌入位置。

例如,在澳大利亞的聯邦法條文中,就有針對公司商業決策的明確規則,使得經理人單靠AI做出的判斷進行決策成為違例的行為。

但在組織無法更易的情形下,不妨如此考慮:AI未必需要取代BI的功能,而是提供另一個平行選項,讓決策者交互參考BI的數據彙整以及AI的判斷決策(實際上這個「判斷」也只是資料來源之一)。

不過,在未來企業的組織場景中,AI將會越來越像一名貨真價值的人類員工。它可能犯錯,需要更新知識(機器學習),具有自我進化的能力(類神經網路),也因此,未來的企業內AI,擔任的將是某個職位的行動者,具備相對應的權責。而正如企業需要承受員工可能犯錯一樣──企業也將試著接受AI可能產生的錯誤判斷與決策。

即使它許多時候可能比人類更「聰明」一些。

發表評論

請輸入您的評論!
請在這裡輸入您的名字