本文基於彼得·辛格(Peter Singer)與謝業輝(Tse Yip Fai)刊登於《AI & Ethics》期刊〈AI ethics: the case for including animals〉一文翻譯及重編,對議題有興趣者可點擊連結閱讀全文。文中觀點皆為彼得·辛格與謝業輝共同提出,但為使閱讀流暢,皆以「筆者認為」呈現,實為「筆者與彼得·辛格認為」。
作者:謝業輝(美國普林斯頓大學人工智慧倫理研究員)
人工智慧(AI)在近年是火熱議題,說這項技術對人類有著巨大影響,相信大多數人都不會有異議,也因為這樣不容忽視的影響力,一門新學科因而在近年誕生:人工智慧倫理。它所研究的問題,正是人工智慧對人類有什麼影響、這些影響都有著什麼樣的倫理問題,以及對於這些倫理問題有什麼潛在的應對方法。這個學科甚至會討論人工智慧對一些非人存在的影響,比如環境,甚至是人工智慧本身──擔心它們會獲得意識從而受苦。
而根據筆者和彼得·辛格的研究,有一個群體也受到人工智慧的巨大影響,但卻鮮有人工智慧倫理學家關注,這個群體就是非人動物。
需要特別提醒的是,筆者對動物倫理的態度和意見是基於效益主義(utilitarianism)而建立,但這並不代表本文只和效益主義者相關。無論你是否認同效益主義、抱持什麼樣的道德立場,只要你認為人的行為應該考量到動物,無論考量的輕重,這篇文章都和你相關。
被忽視的議題
筆者和辛格教授尋找了世界各地的大學人工智慧課程,找到71個課程有公開課程內容,並加以研究。當中只有一門課有勉強地提及動物:這門課簡短地提及了人工智慧可以用在動物生態保育之上,但並沒有提及人工智慧對野生動物作為個體的影響。我們亦仔細閱讀了68份跟人工智慧倫理或管治相關的宣言,當中只有2份有可能可以視為包括動物(它們包含「all sentient beings」,意為所有有知覺的存在)。這些宣言大部份都用了「造福人類」等字眼,而有五分之一的宣言更明示人工智慧應該以人類為中心(humancentric或human-centered)。
人工智慧當然應該造福人類。但如果人工智慧只造福人類,那麼動物的福祉又該如何處置呢?筆者認為,如果人工智慧對動物有影響,那人們便有責任去降低人工智慧對動物的負面影響,甚至有責任去將人工智慧應用在對動物有利的情況上。
人工智慧對動物的影響
人工智慧對動物的影響有三種:一、相關人工智慧是設計來與動物互動的;二、該人工智慧會在無意中(並非設計原意)和動物互動;三、該人工智慧並沒有和動物互動但卻影響著動物。
一些工業式養殖場和研究工業養殖的大學已經有在研究甚至使用人工智慧技術來幫助他們提高生產效率(例1、例2、例3),使用到的技術包括以機器視覺技術來分析動物的動作或外觀來偵測疾病,甚至估算該動物在未來一段時間生病的機會,從而通知養殖場的工人作出相應行動。而通過和實體機械的連接,人工智慧系統甚至可以直接對動物作出不同的行為;但即使沒有接觸實體動物,透過指示工人的行為,也算是與動物的一種互動。類似的人工智慧技術亦被應用於動物園及有動物的家居中,因而和動物有所互動。另一種可能更明顯和動物「互動」的人工智慧,則是專門設計來殺死(為了生態保育或保護農作物)某些動物的無人機。
還有另一些人工智慧的設計原意並非和動物互動,但在使用過程中,會無意間影響到動物。最明顯的例子就是以人工智慧來進行自動駕駛或輔助駕駛的車輛,它們並不是設計來和路上的動物「互動」的(在某些車款有和車內動物相關的設計)。但即使沒有互動的「意圖」,事實上它們還是會在路上遇到動物,而且很多時會對他們構成危險或傷害。另一個例子是家居的人工智慧掃地(或任何的)機器人。當它們遇到非人類飼養的動物時(它們某程度上有被訓練如何應對動物和他們的糞便),是有機會傷害到他們的。如果是非常細小的動物,例如昆蟲或蜘蛛,則有可能被當作是垃圾而直接抽進機器裡。
而有些人工智慧則可以在非常間接的情況下影響到動物。比如一個和飲食相關的人工智慧推薦系統有可能影響用戶有多大機會吃動物製品,還有吃多少。某些人工智慧也可能會影響人們對動物的態度,舉例來說,你可以試試在Google上搜尋「chicken」,看看出來的結果大部份是什麼──你大概率會發現出現的條目和圖片大部份都與雞的肉有關,而不是作為動物、活生生的雞本身。這些搜尋結果都由人工智慧的演算法所決定,試想像小孩如果從谷歌學習什麼是「chicken」,得到的卻幾乎全是引導他們吃雞的結果,這對小孩對待雞的態度會有何種影響?
上述提到的影響多偏向負面,但人工智慧也可以用來替代一些需要用到動物的毒理實驗,從而可以間接地減少動物的痛苦。
影響不只種類廣泛,而且巨大
除了討論不同種類的影響,更重要的,是討論這些影響有多大。
要估計自動駕駛車在未來會影響多少動物,最好的方法應該是看現在人類駕駛的汽車影響(殺死)了多少動物。這數據其實很難找,但從一些片面的數據,也可以看出受影響的動物的數量龐大。Fernanda Delborgo Abra的研究發現光在巴西的聖保羅州,每年被汽車殺死的「大型和中型」哺乳類動物就有接近4萬隻,而這數據還沒有包括任何非哺乳類動物和小型哺乳類動物。Loss et al的研究則發現在美國每年被汽車殺死的鳥類大約在8千9百萬到3億4千萬隻之間。這些都說明汽車對動物的危險性,而我們可以合理預期,如果人類駕駛的汽車會殺死巨量動物,那麼自動駕駛汽車也會遇到類似的問題—特別是在它們沒有被設計成會有意降低對動物的傷害的狀況下。
要估計用在工業化養殖的人工智慧系統在未來會對動物有多大影響,我們應該先了解工業化養殖本身對動物有多大影響:工業化養殖每年在全球養殖了約700億隻陸生動物和1000億隻魚類,而且數量並不是唯一的因素,這些在工業化養殖場的動物大多都承受著極端的痛苦,比如被迫快速成長,以致動物的體重高到其腿部不能承受的程度。所有的工業化養殖動物最後都會被殺死,死亡前則必須承擔生理上的痛苦。
人工智慧在未來很有可能愈來愈流行,筆者認為它將會成為工業化養殖的主流,就算人工智慧在未來只能進駐20%的工業化養殖市場,這也意味著數以百億計的動物的生活將會受到這些人工智慧系統的影響,當中最大的影響,莫過於提高了工業化養殖效益,令動物產品變得更便宜。
此舉短期內除了會讓動物製品的需求上升,長遠更會令素食的產品相對的變得比動物製品昂貴,從而令素食製品或者細胞培植肉等更難替代工業化養殖。而且人工智慧雖然可以讓養殖戶更早的偵測到動物的疾病,甚至是作出預測,在短期內讓動物福利上升,但可以預期因為疾病率降低,養殖戶們很有可能會提高養殖密度(有些人工智慧開發商把高密度養殖視為目標),而這樣的操作,將會重新降低動物福利。
更長遠地說,人工智慧會否讓工業化養殖更難被取代,很有可能是此議題的關鍵考慮。
人工智慧的倫理學分析
在人工智慧對人類的影響的討論中,倫理學家會強調必須將人工智慧所帶來的負面影響減到最少,而且他們一般覺得人工智慧行業有責任將人工智慧引導到對人類有利方向上。筆者認為在人工智慧對動物造成的影響上面,也應該採取相似的態度──我們不光應該將人工智慧對動物的影響減到最少,並應該嘗試將人工智慧的發展引導到對動物有利的方向上。但由於人工智慧對動物的影響非常明顯是極負面的,本文的討論會集中在和負面影響有關的倫理問題。
倫理問題一:無聲的動物
這裡說的「無聲」,當然不是指動物不能發出物理上的聲音,而是指動物無法做出對改變相關事物的有效表達,而本文所指的相關事物正是人工智慧。人工智慧的設計,可想而知不會亦無法涉及動物,而且動物不單不能參與設計,連在人工智慧系統出了問題、對他們造成傷害後也不懂得投訴。這和沒有參與人工智慧設計的人類不同,他們雖沒有參與設計,但他們可以就對他們造成的傷害(甚至只是對傷害的預測)作出投訴,從而讓設計者知道他們設計的人工智慧系統出了問題,甚至有機會改變設計。但動物沒有有效投訴和反饋的機制,因此要發現或預測對動物的傷害,就只能靠人類去主動分析和偵測。這對人工智慧的設計者(甚至擁有者)都是一份莫大的責任。
倫理問題二:多大的責任?
有些人可能會認為,要求人工智慧的設計者預測和防止所有對動物的傷害並不現實。也許確實如此,但若完全不去對人工智慧系統對動物的潛在傷害作出預測和找出已有的傷害,並盡量去減低這些傷害,筆者認為是不合乎道德的。人類的嬰兒也不會參與人工智慧的設計,也沒法直接向人工智慧設計者投訴,他們很可能會在受傷害時用哭喊的形式來向身邊人投訴。但假設我們遇到這個情況︰有個人工智慧吸塵機器人在操作時嚇到一個人類的嬰兒,當時沒人在場,成人們也是聽到哭喊聲才走過來,因此不知道是機器人嚇到小孩。我們應該認為因為沒有人可以匯報這傷害,這傷害就並非人工智慧設計者的責任嗎?人工智慧的設計者,有道德責任去預計並嘗試觀察有沒有相關的傷害發生。
另外一個可能被用來反對人工智慧設計者有責任預測和防止對動物的傷害的論證,大概是這樣的:人類本來就會在相似的情況下對動物造成傷害,因此即使該行為的實施者變成了人工智慧,也不應該突然被視為有道德問題。用一個具體例子可以更清楚地說明,如上所述,人類駕駛的汽車一直都有撞死大量動物的問題,為什麼換了人工智慧駕駛就突然有道德問題了?
這裡最重要的回應是:其實人類駕駛的汽車會撞死大量動物一直是個道德問題,只是被人們忽視了,因此就算換了人工智慧,也並非是「突然」有了道德問題。另外,人工智慧可使用高清和廣角的攝影鏡頭,以及比人腦高速很多倍的運算,事實上比人類更容易及更快的可以辨別到動物,察覺到對他們的危險、快速應變。在能力更高的情況下,人工智慧理應比人類駕駛者做得更好,而非將人類做得不夠好之處,當作自身不作為的藉口。
倫理問題三:是人還是人工智慧需要變得更道德?
在本文中,有兩個概念一直沒有被區分清楚:和人工智慧相關的人類(設計者、擁有者、用家、政策法規制定者)的道德;以及人工智慧系統本身的道德。筆者當然認為,人類在設計和使用人工智慧時應該合乎道德,而這樣的道德應該也考量到動物,但由於人工智慧系統很多時候是自主做決定,因此要它們所做的行為合乎道德,似乎人工智慧本身也需要有道德。
而人工智慧要有道德,似乎就需要刻意去建立在它們之內。在人工智慧倫理學界的討論,大致認為有兩種進路:一是從上而下的進路──由人提供道德規則去讓人工智慧去執行;二是從下而上的進路──讓人工智慧透過和人類的互動以及人類的反饋,去自主學習人類的道德。
這兩種進路能保證人工智慧對待動物的方式是道德的嗎?筆者認為有很多值得擔憂的地方,這裡簡短的提及這兩種進路的各一個問題。
從上而下的進路,基本上就是把某些道德理論(或者它們的組合)直接寫進人工智慧系統裡,而且選擇何種道德理論是由一小部人決定;如此一來,就會出現某些人的道德理論並未能保護到某些群體(比如動物)的可能性。而從下而上的進路,也不能完全避免人對動物關心不夠的問題。讓人工智慧去透過和人互動去學習普遍人類的道德,結果就是訓練出對待動物的態度和人類相似的人工智慧;因為人類普遍未能把動物的痛苦和道德地位認真看待,訓練出來的人工智慧,可想而知也不會是動物友好型態。
因此,這個複雜難解的問題,似乎還是需要回到人的道德本身:如果人類不能更道德的去對待動物,便不太可能普遍造出動物友好的人工智慧。然而,人工智慧在未來可能取代很多我們的工作和行為,而且它們的數量會愈來愈多,在人工智慧對動物的影響變得比人類還要巨大之前,人類應該好好反思我們對待動物的態度是否道德,以及是否值得作為人工智慧的榜樣。