如何不讓AI毀滅這個世界-淺談人工智慧倫理

已更新:5月23日

中華亞太智慧物聯發展協會 監事長/台灣人工智慧協會 理事 李奇翰


為何需要人工智慧倫理

自從1956年達特矛斯會議之後,人工智慧這個名詞首次誕生之後,人類對於這個讓人又期待又怕受傷害的東西就充滿了矛盾之情。


我們一方面希望人工智慧可以幫助人類過上更好的生活,另外一方面卻又害怕人工智慧有一天終究會產生自己的意識,進而毀滅世界,而這種矛盾的心情就體現在很多好萊塢科幻片中 ,譬如最經典的兩個代表影片,魔鬼終結者跟駭客任務。


其實追根究柢之下,真正的問題是我們人類本身對於AI的期待本身就充滿了矛盾。


我們一方面希望人工智慧有一天可以進步到自動幫我們判斷所有的事情,協助我們做決策,可以告訴我們什麼時候要買股票,甚至是知道什麼時候可以賣股票,這種期待本身就是預期人工智慧可以產生自我意識,自動幫我們判斷最符合我們的想法跟決定,而另外一方面我們卻又害怕人工智慧產生自我意識之後,會對我們人類這個主人產生不利,甚至是推論出人類對於這個世界的存在是有害的,是沒有必要的,進而決定毀滅人類!


我個人認為,其實根本的原因就是在於一開始我們並沒有把"道德倫理"這個最重要的程式設定寫進去人工智慧之中。


自古以來人類本身就是群居的動物,而人跟人之間更充滿了各種矛盾、衝突,還有各式各樣的糾纏,有一句俗話說的好"有人的地方,就有江湖"就是這種現象的最佳說明,而該如何解決這些因為人跟人之間之間產生的問題除了法律之外,更好的方式就是每個人都需要具備基本的道德意識。




我想,念過法律系的朋友應該都聽過這句話"法律為道德之底線",這句話的意思就是,當人的道德自我約束不夠的時候,因而產生糾紛的時候,才會需要法律(所謂的第三方)來做一個調解跟裁判,依此來解決人跟人之間的問題。


如果我們期待人工智慧有一天可以產生意識,進而處理人的問題,跟人每天相處,我們怎麼會不考慮人工智慧是否需要倫理意識呢?

這就像是,你生了養了一個小孩,卻不教他是非對錯,也不教育他人跟人之間該如何遵守基本的規則一樣的荒謬,如果有一天人工智慧真的誕生意識,卻沒有基本該具備的道德感,我們又如何來譴責人工智慧未來本身犯下的罪刑是十惡不赦的?


這件事情你只要一開始就把人工智慧當作一個小孩來看,自然就可以了解其中差異之所在。


回到過去,在1950年代,人工智慧這個名詞還未普及大眾的時候,機器人就代表人工智慧這個名詞,在艾西莫夫的小說中所撰寫的「機器人三大法則」就是規範機器人該如何解決機器人與人之間相處的問題。


機器人三大守則就是

一、機器人不得傷害人類,或坐視人類受到傷害

二、除非違背第一法則,否則機器人必須服從人類命令

三、除非違背第一或第二法則,否則機器人必須保護自己



未來的現在

我們先姑且不論未來人工智慧是否有一天真會誕生意識這件事。


時至今日,人工智慧所能辦到的事情及產生的影響早就已經真實產生在你我周遭之中,其影響力更是超過一個機器人可以造成的影響,但是試問我們有哪一行程式碼在開發的時候,工程師有寫進關於人工智慧與人類之間所該依循的標準?


在手機應用如此普及,人手一機的時代之下,在網路收集個人資料如此氾濫的情況之下,我們又該如何知道這些使用AI分析我們個人資料的公司有好好地遵循那些應該遵循的守則及標準?尤其是在目前各國還沒有真正對於人工智慧使用上立法的當下現在?


讓我們來看看美國跟歐盟怎麼處理這個問題

美國行政管理預算局(United States Office of Management and Budget, OMB)在2020年的一月以備忘錄形式公布「人工智慧適用規範指南」(Guidance for Regulation of Artificial Intelligence Applications)


明列出了十大原則,這十大原則分別是

1. 培養AI公眾信任(Public Trust in AI)

2. 公眾參與(Public Participation)

3. 科學研究倫理與資訊品質(Scientific Integrity and Information Quality)

4. AI風險評估與管理(Risk Assessment and Management)

5. 獲益與成本原則(Benefits and Costs)

6. 彈性原則(Flexibility)

7. 公平與反歧視(Fairness and Non-Discrimination)

8. AI應用之揭露與透明化(Disclosure and Transparency)

9. AI系統防護與措施安全性(Safety and Security)

10. 機構間之相互協調(Interagency Coordination)。


另一方面歐盟執委會(European Commission)也於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案)


草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式:


一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。

二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。

三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。


而台灣也有科技部在108年訂定的(人工智慧科研發展指引)


以上這些草案跟規範都是希望有一套AI可以共通跟依循的規範標準,可以在保有AI產業發展的彈性之下,也能保護資料在收集及應用上可以不違反基本隱私跟保障人類基本權益,在各國法律還沒推出跟訂定之前,可以當作一個AI發展上依循的準則或是規範,但是以上這些規範跟草案你會發現在真實的AI落地實作上,完全無法適用,因為這些文字只是一個大概的框架,一方面公司的高階主管本身可能根本不知道有這些草案跟規範,另外一方面開發AI程式的工程師也無法理解要怎麼把這些很空泛的規範寫到程式碼之中,就像是我之前提的到問題,你要怎麼把倫理道德寫進程式之中?



真實發生的問題

Netflix 最近的紀錄片"編碼偏見Coded Bias"中,當麻省理工學院的科學家喬.布蘭維尼發現在AI視覺辨識系統前面,AI無法正確辨識他的臉,而當他戴起白色人臉面具測試後,才發現真正的原因不過只是因為他是黑人。


而更早前在臉書自動化「話題推薦功能」上,把一段影片中的黑人男子誤標為「靈長類動物」之後,而Google 也在2015年時的「Photos」相片辨識App,將黑人標記成「大猩猩」,都代表了,如果我們一開始沒有將有關人工智慧倫理道德該依循的部分,教育給程式開發的工程師的時候,甚至是高層決策經理人的時候,這將會產生多麼嚴重的影響。


畢竟人工智慧是人類所開發出來的,所有的數據資料經過分析後,都是放大了人類本身對於這個世界的偏見,而如果不加以平衡的話,這些偏見將會造成未來更多人類本身社會上的衝突跟問題,因此我們需要一開始就對人工智慧訂定一個基本的倫理道德規範方式,而這個規範方式其實最終是給人類所保護自己所使用,而不是規範AI,畢竟目前AI尚未產生自我意識,不會自行設計程式增加功能,而所有的AI程式開發也都是由"人類"工程師所撰寫,而就算有一天,未來如果有一天人工智慧真的可以產生自我意識的時候,他所收集到的程式資料也都將是源於這些倫理道德規範標準所產生的程式碼,以AI的術語來說,在整個資料模型的資料來源上,已經限制了AI為害人類的可能性了。


再舉一個最近在台灣的案例,前陣子網紅小玉利用Deepfake技術,將不少公眾人物的臉合成到不雅片,這也是一個因為對於人工智慧的使用倫理上沒有清楚的認知所產生的影響社會的活生生案例,我們不能期待在沒有清楚的人工智慧倫理守則的規範之下,讓這些使用AI技術的工程師甚至是一般的使用者,對於人工智慧所產生的應用方式及使用界線有清楚的認知跟了解。


我們該怎麼做

政府的法令目前只有個資法勉強可以算得上跟AI有關,其他部分其實在AI的實際應用上都還是很灰色跟模糊的階段,並沒有明確的定義,因此我們只能先從企業本身做起,而ESG是這兩年各企業最關心的議題,其中ESG的Social(社會)、Governance(公司治理),都跟人工智慧倫理有非常大的關係,因此企業可以從ESG這塊開始訂定關於公司內部使用人工智慧上該遵循的標準或依據,並且教育跟要求AI工程師或是資料科學家,並須延用這樣的標準跟規範,這樣才能有效的避免未來可能會發生的問題。


台灣金管會已經在2021年11月要求公司年報必須揭露資安管理作為與資安事件因應方式,我也相信在不久的將來,金管會也一定會要求有在使用人工智慧的公司,揭露關於AI使用上的方式及依循標準,與其等到政府要求再來更改,不如一開始在使用跟設計上就考慮進去,這不但是對於企業本身可以降低營運風險,也可以增加社會大眾對於企業本身的觀感跟態度。




結語

人工智慧本身就是一個工具,工具本身沒有好壞,最終還是依據在使用者如何來使用這個工具,來決定這個工具是否對人類社會產生更好的影響,但是如果沒有清楚的規範及使用說明,大部分的結果只會讓這個工具被濫用,造成更多的社會問題跟人類對於AI的恐懼而已,在企業本身濫用AI,跟社會大眾對於AI的恐懼之下,AI不太可能有機會走向AI產業化的一天,但是我們可以訂定實際可以應用落地的規範方法。


未來企業可以沿用這些人工智慧倫理標準,要求人工智慧外包公司,或是內部工程師,依循這樣的標準開發人工智慧產品及服務,並且自我接露於ESG報告之中,唯有善用AI並且教育AI,不讓AI的力量被濫用或是誤用,這樣人工智慧的未來發展才有可期待的一天,我們也無須恐懼,有一天AI會毀滅了人類跟世界,因為我們一開始就給予了AI如何跟人類與世界相處的方法跟準則了!