人工智慧
演算法很像烹調方法

原始碼之運作與一個烹調方法幾乎不分軒輊:演算法決定我們的日常生活。
原始碼之運作與一個烹調方法幾乎不分軒輊:演算法決定我們的日常生活。 | 照片(細節):© Adobe

但這道菜也要可口才行,所以要仔細地挑選食材:演算法專家賽巴斯蒂安・謝爾特展開一場有關人工智慧,人工智慧如何拿走了我們的決定權,又對我們的生活產生哪些影響的談話。

人工智慧與電腦,不用教它們自己就會了 – 聽起來怎麼說都有點兒科幻的味道,卻早已進入了我們的日常生活。演算法不僅決定我們在串流媒體上聽或看甚麼節目,在有些地方還能決定誰申請得到信用貸款,或者預測,某位受刑人大概會再度犯下罪行。但演算法究竟是甚麼,人工智慧又如何影響我們生活?

基本烹調法:演算法

「演算法首先是一個由許多步驟組成的序列,我們可以把它想像成一種烹調方法:我們一方面有不同的食材,好像輸入的電腦程式,這份食譜一步一步告訴我們,接下來應該怎麼做,才能正確地做出飯菜來」,賽巴斯蒂安・謝爾特,在阿姆斯特丹大學研究數據管理和機器學習的演算法專家解釋。

從這個角度看的演算法了無新意,每一種電腦程式都依照這個原理在運作。當我們今天談論起演算法日漸增加的影響力時,我們真正關心的是機器學習:使用一個傳統的電腦程式時,我們按照指示一個一個步驟來,根據這些步驟解決某個問題。但有些問題我們卻無法準確地描述,告訴電腦應該如何解決」,這位專家如此說道,因此,機器學習時,我們要運用另外一種方法。

賽巴斯蒂安・謝爾特獲得柏林工業大學博士學位,之後在紐約大學擔任研究員,並曾任職於亞馬遜企業的研究部門。作為阿姆斯特丹大學的年輕教授,他鑽研數據管理以及機器學習的介面問題。
賽巴斯蒂安・謝爾特獲得柏林工業大學博士學位,之後在紐約大學擔任研究員,並曾任職於亞馬遜企業的研究部門。作為阿姆斯特丹大學的年輕教授,他鑽研數據管理以及機器學習的介面問題。 | 照片:© 賽巴斯蒂安・謝爾特

為進階人員烹飪:有學習能力的演算法

「會從個人訊息中分辨出垃圾郵件的過濾器,就是一個簡單的例子,對一個要寫出一個這樣的電腦程式的人而言,這個問題可不單純。理論上,你可以定出廣告郵件可以辨識的不同標準與規則 – 可以是郵件寄出的時間,或者出現在文件訊息中的特定單字。但到了某個時刻,就會遇上人類能力有限的瓶頸」,謝爾特解釋這個問題。

因此,機器學習時無須為電腦編寫精準的程式,我們只需要舉一些例子給電腦看,它就會自行找出最佳的解決途徑。程式設計師不提供完整的烹調方法,單只預先設定希望透過程式提交而應該得到的結果。

「在這種情況下,你可以輸入希望收到的一千封電子郵件,以及一大堆負面的例子,譬如你不想收到的廣告郵件」,謝爾特繼續解釋這個例子。「演算法便根據這些例子推測,輸入的是一則新的廣告訊息,或者不是。這其中的明顯區別是,使用傳統的程式時,每一個步驟我們都是確定的,而有學習能力的演算法,卻是根據例子以及統計上的機率來創建自己的選擇標準。」

被人工智慧給矇了

有學習能力的演算法不僅比人類更能解決某些問題,速度更快,而且手法更加高明。二零一九年,Pluribus程式打敗職業撲克牌選手時,人工智慧證明了,它甚至學會了虛張聲勢,比人類還要能使詐。它的影響力隨著技能而與日俱增,諸如醫療保健方面,金融界以及司法部門等。

德國的大多數人也一樣,每天都要和狡獪的演算法打交道。「從科學角度觀察,許多領域所運用的演算法,都是一些抽象的數學操作程序。譬如說,算出某個人償還信用貸款的機率有多高之類」,謝爾特說。

演算法在像美國和澳洲這些國家,因為所做出的決定歧視特定的人種而備受質疑。「其中的部分原因是,在我們提供給演算法的例子裡,這種歧視已經隱藏在其中了,如果我們讓它視若無睹,它就會重複這種歧視」,這位專家解釋問題的根源。

有策略的演算法?

演算法和人工智慧可能碰到的限制,主要都不是技術方面的問題,而是道德上的。或者,我們有本事教一種演算法懂得運用策略?

「目前這是一個懸而未決的問題,我個人認為,有些領域即使演算法做出錯誤決定,但不至於造成嚴重影響 –  譬如說,串流媒體播放了一首不是我選的歌曲之類。有一些別的領域,演算法毫無疑問被推薦使用,但是,應該由人類定出最後決策。還有一些其他領域,應該交由人類的判斷能力來處理」,謝爾特表達他的看法。

「美國將使用評估一位受刑人再犯率有多高的演算法。當法庭以及陪審團要決定是否提前釋放犯人時,就可以取得這些數據。於是這個問題浮上檯面:這樣做對嗎?

「公平正義這個議題,數學上很難心領神會,因為主要繞著哲學、政治、司法等問題打轉。每個人對於何謂公平正義,何者又不算是,都有不同的想法,而數學不可能同時符合所有公平正義的定義。」