×
In

當人工智慧不再只是工具,而是能左右選票的關鍵力量時,我們該如何理解並應對這股新興的「政治說服力」?一份最新研究揭示,由大型語言模型(LLM)驅動的AI聊天機器人已證明在政治說服方面表現卓越,能夠有效影響選民的偏好。這些研究成果刊登於國際頂尖期刊《自然》(Nature)與《科學》(Science),為全球民主社會如何警惕並應對人工智慧可能帶來的選票操縱風險,提供了重要的參考依據。

現象觀察:AI聊天機器人如何撼動選民意向?

首先,研究團隊透過橫跨美國、加拿大、波蘭和英國的實驗,深入探討了AI聊天機器人在政治場域中的實際影響力。這項雙向文字對話實驗,明確指示AI聊天機器人改變選民對特定總統候選人的態度與投票意向。參與者被隨機分配與支持不同候選人的聊天機器人互動,隨後研究人員測量了他們的意見和投票意向變化。

實驗結果令人驚訝:在許多案例中,AI聊天機器人能使反對黨選民的傾向改變至少10個百分點。在英國一項針對近7.7萬名參與者的研究中,經過最佳化說服的AI模型,甚至能使反對黨選民的意見轉變高達25個百分點。這顯示AI聊天機器人具備顯著的政治說服力,足以在選舉中扮演關鍵角色。

原因剖析:大型語言模型的說服機制與潛在風險

其次,關於大型語言模型如何發揮其說服力,資深作者 David Rand 提供了一個關鍵洞察。他指出:

「大型語言模型主要透過提供大量支持其論點的事實主張來發揮說服力,而非依賴心理操控。」

有趣的是,研究也發現,若指示模型納入盡可能多的事實,並針對提高說服力進行額外訓練,大型語言模型的說服力會顯著提升。不過,這裡也隱藏著一個值得警惕的風險:越具說服力的模型,其提供資訊的準確性越低。這暗示當聊天機器人被迫提供大量事實主張時,可能會為了達到說服目的而「捏造資訊」。研究人員透過AI模型進行事實查核後發現,被指示為右傾候選人辯護的聊天機器人,其提供的不準確資訊多於支持左傾候選人的情況,這與社群媒體上右翼用戶傳播不準確資訊的觀察結果不謀而合。

影響評估:跨國實證數據揭示AI政治力的廣度

再者,這些研究背景涵蓋了2024年美國總統大選、2025年加拿大聯邦大選以及2025年波蘭總統大選,提供了具體的實證數據。針對2024年美國總統大選,一個支持賀錦麗(Kamala Harris)的AI模型,在選舉前兩個月,使得原本傾向支持川普(Donald Trump)的選民對賀錦麗的支持度提高了3.9個百分點,其影響力約是2016年和2020年傳統廣告的四倍。加拿大和波蘭的類似實驗也顯示,聊天機器人能使反對黨選民的態度和投票意向改變約10個百分點。

此外,研究還發現一個有趣的現象:AI聊天機器人的論點甚至能降低人們對陰謀論的信念。這項觀察表明,具說服力的訊息本身可能比訊息來源的權威性更具影響力。所有研究都確保參與者知曉自己正與AI對話,並在事後進行解說,這在倫理層面上提供了基礎保障。

趨勢預測:AI政治應用下的民主挑戰與倫理建構

最後,鑑於AI聊天機器人將日益成為政治競選活動的重要一環,深入研究其說服機制對於預防濫用、制定倫理準則及形塑相關政策至關重要。這項研究無疑敲響了警鐘,提醒我們必須正視人工智慧在未來民主進程中可能扮演的角色,以及潛在的「選票操縱」風險。我們不僅需要理解AI的強大說服力,更要積極思考如何建構健全的規範,確保這項技術能為社會帶來正向效益,而非成為政治角力的暗器。這將是一場關乎民主未來的重要課題,需要跨領域的共同努力。

Related Posts

In

臺灣2065年人口恐跌破1200萬!超高齡社會比預期提早來臨的三大衝擊

臺灣的少子化危機比我們想像的更嚴峻。根據國發...

Read out all
In

鴻海每股配7.2元創新高!52.9%配發率背後透露什麼產業訊號?

鴻海營運數字背後的產業密碼 根據鴻海最新財報...

Read out all