AI 與偏見

雖然我只是個寫code的工程師,只要負責把code寫好就好,但是在AI 與人文間的衝突交會處,還是免不了要去思考問題的本質是什麼。

例如我們在「AI 預測離婚夫妻哪一方能獲得孩子撫養權」的研究中,可以發現法官判給父、母的比例確實存在差異。有人說這裡的性別不平等是「必然且不應該消除的差異」。但是換個應用場景,例如下面這個信用卡核貸的例子,性別間的差異之大,就變成了一種歧視。

http://highscope.ch.ntu.edu.tw/wordpress/?p=83356

又如果換成是種族呢?國外曾有研究,明明model沒有放入種族,但各種因素放進去後,預測出來黑人犯罪率就是比較高,或下面這篇研究說,黑人得到的醫療照護總是比較差,那這也是不應該消除的「差異」嗎?

https://www.nytimes.com/2019/12/06/business/algorithm-bias-fix.html

Biased Algorithms Are Easier to Fix Than Biased People
Racial discrimination by algorithms or by people is harmful — but that’s where the similarities end.

有人說:「那就要看如何詮釋這些資料。」但如果是這樣的話,那不同立場的人可能會有非常兩極的詮釋…。

自由派可以解釋成這是歧視;保守派可以解釋成這是差異。

同性婚姻造成的兩派對立不也是如此嗎?

例如保守派可能認為:「性別間本來就有差異,由於這些差異,同性結婚跟異性結婚本來就不能等同。」而自由派可能認為:「性別間本來就是平等,任何不平等都是歧視,所以同性結婚跟異性結婚必須等同,否則便是歧視。」

然而,問題的關鍵在於,事實上根本就沒有一個好的定義告訴我們何謂歧視?何謂差異?

而這牽涉到AI 演算法該怎麼做修正?如果平等意味著結果必須100%一視同仁,那我們反而必須納入種族、性別這些因素才能進行修正,但這卻牴觸了不得以種族、性別為考量的法律;如果平等意味著存在合理的差異,那麼,就必須要定義甚麼是「合理」?甚麼時候AI 跑出的結果超出「合理」範圍,就變成了「歧視」?

但所謂的「合理」,又因人而異。一些人覺得合理的事情,另外一些人卻覺得不合理。在最糟的情況下,整個社會就分成兩群人,互指對方不合理….。這樣,要如何能在「合理」的事上取得共識呢?

唉,這已經不是我們工程師可以解決的bug了……。