人工智慧(artificial intelligence; AI)系統能經由分析您看電視的習慣, 「神准」地推薦您可能會喜歡的電視節目, 這聽起來已經夠令人不寒而慄了, 現在, AI系統正接受更新的訓練—— 挑選出人類行為與容貌中的細微線索, 使其在某些情況下比人類更具有直覺能力.
在一項實驗中, AI被用於婚姻治療中分析配偶的聲音特徵, 並預測治療的結果. 根據這項實驗顯示, AI在預測治療結果方面十分成功, 有時還比人類專家更準確.
在婚姻治療中有兩項變數使其難以評估是否取得進展. 每一對夫婦之間的關係動態都不相同, 治療師的人為評估永遠都是相當主觀的. 因此, 該領域一直致力於發展出一些客觀的指針.
美國南加州大學(University of Southern California; USC)的一項研究計劃中, 研究人員試圖開發的AI系統可望提供這一類的指針. 雖然目前已經有一項研究能將各種聲音特徵映像至情緒, 包括經常用於辨識的特徵(如音調和強度), 以及分別組成音調和幅度的頻率擾動度(jitter)與振幅擾動度(shimmer)等其它特徵. 另一個是諧波雜訊比(HNR).
為了評估這些特徵並將其映像至情感, 以利於分析配偶之間的對話質量, 研究人員開發了一套複雜的演算法. 正如研究人員在其論文「根據語音聲學特微預測配偶治療結果」(Predicting couple therapy outcomes based on speech acoustic features)中所解釋的, 這些對話顯示退縮或逃避的跡象嗎? 這會增加逃避的嚴重性, 頻率(壞)或減少(好)? 對話中存在幽默的跡象嗎? 增加(好)還是減少(壞)? 哪些對話的特徵更具有建設性? 哪些較少? 重要性如何?
該系統還考慮了這些對話的特徵, 例如誰在說話? 在何時說話? 以及持續說了多少時間等等. 有趣的是, AI卻忽略了對話的內容.
一旦研究人員對其AI系統進行訓練後, 就可以將它套用在具有已知結果的現有數據集上. 另一方面, 研究人員也要求人類心理學家評估相同的數據, 包括說話內容以及語音特性等, 結果顯示對於相同案例的正確預測率約75.6%. 而AI僅使用語音特性, 就達到79.3%的成功預測率.
研究人員表示, 研究結果有助於進一步鼓勵其他有關測量非語言線索方面的研究, 從而協助這一類型的治療.
例如, 美國史丹佛大學(Stanford University)的研究人員訓練神經網路辨識35,000張以上的臉孔, 以確定它是否能僅透過外表特徵辨別異性戀和同性戀者. 最後得到的結論也就成為其論文主題: 「深度神經網路比人類更能準確從臉部影像判別性取向」(Deep neural networks are more accurate than humans at detecting sexual orientation from facial images).
多年來, 同性戀和女同性戀的話題一直引發對於「同性戀雷達」(gaydar)方面的研究興趣, 但在名稱上卻總是脫離不了直覺. 史丹佛大學的研究似乎類似於面相學和顱相學等「偽科學」, 因而使其論文更具爭議性, 但其初步的研究結果也不容忽視.
作者指出其中一項研究顯示, 當人們看到某個人的臉, 就能以更佳準確度辨認出這個人, 以及察覺其情感狀態, 個人特質, 性取向與其他特質.
他們還提到「出生前激素理論」(prenatal hormone theory), 該理論為性取向提供了生理的基礎(研究尚未作出結論). 他們在文章中提道: 「這與性取向的出生前激素理論一致, 男同性戀者和女同性戀者的臉孔往往具有非典型的性別特徵, 表情和打扮風格. 」(但這並不表示所有的男同性戀比男異性戀更女性化, 也不是指沒有男同性戀具有顯著的男性面部特徵, 女同性戀的情況也是如此. )
研究人員認為, 他們訓練神經網路同時考慮固定的臉部特徵(例如鼻子的形狀)以及不固定的特徵(打扮風格).
研究人員使用交友網站上那些將自己標示為異性戀或同性戀者的照片. 當提供兩張不同臉部(一張異性戀和一張同性戀者)的照片給神經網路判讀時, AI系統可正確猜測到男性的機率為81%, 猜測到女性的準確率為71%. 至於人類判讀者的準確率分別落在61%與54%.
作者明確指出, 這項研究存在局限性, 很可能會導致危險的後果, 因此不要誤解或者過度解讀研究結果. 首先, 神經網路和人類判斷之間的結果顯示, 神經網路偵測到的臉部特徵差異非常微妙, 人類很顯然不會注意到這些特徵.
編譯: Susan Hong