
記者 吳昱賢/綜合報導
人工智慧(AI)正在改變人類理解動物的方式。長久以來,人類能辨識一些明顯的動物訊號,例如貓咪發出嘶嘶聲代表警告,但對於大多數動物在特定時刻的內在感受,我們往往一知半解。如今,隨著義大利米蘭研究團隊的最新突破,科學家或許能更精準地判斷動物的情緒。
綜合外媒報導,近期米蘭的研究者史塔夫洛斯.恩塔蘭皮拉斯(Stavros Ntalampiras)於期刊《Scientific Reports》發表一套深度學習模型,聲稱能辨識七種有蹄類動物的聲音中所蘊含的正向或負向情緒。研究對象包含豬、山羊與乳牛等,模型透過音高、頻率範圍與音色等共通特徵來分析。
研究結果顯示,負面情緒的叫聲多集中在中至高頻範圍,而正面情緒則分布較平均。例如豬隻的高音尖叫特別具有辨識度;相較之下,羊與馬的中頻訊號更能反映情緒。這項發現證實,不同物種之間雖存在共通的情緒標記,但表達方式仍具有差異。
對長年試圖解讀動物聲音的學者而言,這項成果可說是重大進展。未來若能持續最佳化,農場飼主可能更快察覺牲畜的壓力狀態,保育人士也能遠端監測野生動物的情緒健康,甚至協助動物園飼育員即時掌握動物福利變化。
動物情緒偵測的應用潛力不僅侷限於畜牧業。美國紐約的「鯨類翻譯計畫」(Project CETI, Cetacean Translation Initiative)正在利用機器學習分析鯨魚的聲響,這些由點狀脈衝組成的規律序列被認為具備社會意涵。研究團隊正大規模比對,試圖揭示這些訊號是否能反映鯨魚的身份、社群歸屬或情緒狀態。
在犬隻研究方面,學者嘗試結合臉部表情、叫聲與尾巴擺動方向來推測情緒。例如,狗狗的細微面部肌肉變化可能揭露恐懼或興奮,而尾巴擺動方向則可能隨著遇見熟人或陌生威脅而有所不同。
連昆蟲也成為AI研究對象。科學家利用電腦視覺即時解讀蜜蜂的「搖擺舞」(waggle dance),這是一種呈「8字形」的舞蹈,用來傳達食物來源的位置。模型顯示,蜜蜂在舞蹈時的細微位置差異,會影響同伴對訊息的理解。
儘管AI工具展現巨大潛力,學者同時提醒其侷限性。辨識「痛苦叫聲」並不等於真正理解動物的感受。現有的情緒分類模型大多將行為簡化為「正向/負向」的二元狀態,可能忽略了更豐富的情緒層次。例如,狗狗的尾巴擺動有時並非「同意」或「快樂」,也可能代表緊張或不安。
恩塔蘭皮拉斯在研究中亦指出,模式辨識並不等同理解。解決方法之一,是將聲音訊號與視覺行為(如姿態、臉部表情)及生理數據(如心跳速率)整合,以建立更可靠的情緒指標。同時,AI分析結果也必須搭配熟悉動物習性的專業人員詮釋,方能避免誤解。
此外,研究者提醒,蒐集與處理大規模數據需要龐大能源,若在脆弱生態系中濫用,可能抵銷保育的初衷。因此,確保技術真正服務於動物福祉,而非僅僅滿足人類好奇心,成為發展過程中不可忽視的倫理問題。
都柏林城市大學(Dublin City University)動物行為、輔助科技與癲癇研究博士後研究員謝莉.布雷迪(Shelley Brady)指出 :「真正的考驗不是我們能聽懂多少,而是我們願意如何回應所聽見的。」AI已讓人類首次得以窺見演化數百萬年累積的動物訊號,但這份理解若未能轉化為實際行動,最終仍將是對動物的辜負。