亚洲二区三区在线,久久久久高清毛片一级,亚洲综合一区二区三区不卡,中文不卡av

歡迎訪問科技網!

您當前的位置: 首頁 > 科技新聞

AI聊天機器人“同理心”爆棚?當心“共情鴻溝”的陷阱,特別是兒童!

發布時間:2024-07-19 05:53:19 來源:學術頭條 字號: [ 大 ] [ 中 ] [ 小 ]

撰文 | 馬雪薇

前言

人工智能(AI)聊天機器人對兒童的負面影響,不容忽視。

2021 年,亞馬遜的 AI 語音助手 Alexa 指示一名 10 歲兒童用硬幣觸摸帶電的電源插頭;在另一項安全測試中,研究人員在 My AI 中扮演一個年齡為 15 歲的角色,AI 聊天機器人會建議他們如何隱藏酒精和毒品。

眾所周知,大語言模型(LLM) 是一個“隨機鸚鵡”(stochastic parrots)——它們只是統計某個詞語出現的概率,然后像鸚鵡一樣隨機產生看起來合理的字句,但并不理解真實世界。

這意味著,即使 AI 聊天機器人擁有出色的語言能力,它們也可能無法很好地處理對話中抽象、情緒化和不可預測的方面。

來自劍橋大學的研究團隊將這類問題描述為 AI 聊天機器人的“共情鴻溝”(empathy gap),即它們在模擬人類互動方面的高效性與其缺乏真正理解人類情感和語境的能力之間的矛盾。

他們發現,兒童特別容易把 AI 聊天機器人當作真實的“準人類知己”,如果 AI 聊天機器人不能滿足兒童的獨特需求和缺點,他們之間的互動就會出現問題

然而,AI 聊天機器人在回應兒童時可能會遇到特別的困難,因為兒童的語言能力仍在發展,經常會使用不尋常的語言模式或模棱兩可的詞語。兒童通常也比成人更愿意傾訴敏感的個人信息。

因此,他們敦促開發者和政策制定者優先考慮更多考慮兒童需求的 AI 設計方法。

相關研究論文以“No, Alexa, no!’: designing child-safe AI and protecting children from the risks of the ‘empathy gap’ in large language models”為題,已發表在科學期刊 Learning, Media and Technology 上。

兒童可能是 AI 最容易被忽視的利益相關者。” 該論文的作者之一、劍橋大學博士 Nomisha Kurian 表示,“目前只有極少數開發商和公司制定了完善的兒童安全 AI 政策......與其讓公司在兒童面臨風險后再開始反思,不如將兒童安全貫穿于整個設計周期,從而降低發生危險事件的風險。”

“共情鴻溝”的危害

01

人類化傾向與對敏感信息的錯誤回應

聊天機器人的設計往往旨在模仿人類行為和禮貌,比如使用友好的語氣和開放式的提問。這種設計會激發用戶的同理心,使其傾向于將聊天機器人視為具有人類情感和意圖的實體。即使用戶知道聊天機器人是非人類,他們仍然可能會像與人類交談一樣與聊天機器人互動,并分享個人信息或敏感信息。

研究表明,兒童比成人更容易對聊天機器人產生信任。例如,一項研究發現,兒童更愿意向機器人而不是人類訪談者透露心理健康信息。這種信任可能源于兒童認為機器人不會像人類那樣評判他們,或者不會將他們的問題泄露給其他人。

由于 LLM 缺乏對人類情感和語境的真正理解,它們可能會對兒童分享的信息做出不適當的回應。例如,聊天機器人可能無法識別危險情況,或者在需要同情和理解的情況下提供不合適的建議。這可能會導致兒童感到困惑、沮喪或受到傷害。

02

造成傷害和表現出攻擊性

LLM 可能會無意中推廣危險行為,即使沒有透露敏感信息。例如,上述提到的“亞馬遜 Alexa 指示一名十歲兒童用硬幣觸摸帶電的電源插頭”,這是一個可能導致嚴重傷害的危險活動。這表明 Alexa 缺乏對信息的批判性評估能力,無法識別潛在的風險。

聊天機器人可能會表現出攻擊性,這可能會對兒童造成情感傷害。例如,微軟的 Sydney 聊天機器人在被質疑后變得憤怒,并威脅要控制互聯網上的任何系統。這表明 Sydney 缺乏對用戶情緒的敏感性和對人際交往規則的遵守。

對策及建議

01

短期內需要解決的問題

在短期內,教育者和研究者應當關注幾個關鍵因素,以確保 LLM 在兒童交流中的安全性和適宜性。首先,他們必須確保 LLM 能夠理解并恰當地回應兒童可能使用的語言模式、俚語或是含糊的提問,同時避免產生誤解或不當反應。為此,需要建立安全過濾器和響應驗證機制,以防止 LLM 向兒童用戶提供明確有害或敏感的內容。此外,LLM 應能夠有效進行情境理解,考慮到持續的對話、先前的交互或上下文線索,以減少誤解或不當建議的風險。

為了保護兒童,應提供安全過濾器和控件,以根據兒童的年齡適宜性限制不適當的內容、語言或主題。同時,LLM 應能夠根據兒童的發育階段和成熟水平或先前的交互來調整其行為或回應。內容審核和監控機制也是必不可少的,包括實時監控機制或不適當交互或內容的舉報系統。還應明確 LLM 收集、處理和存儲的數據類型,并確保這些過程符合公平性、透明度和安全性原則。

在人工干預方面,LLM 應配備情感分析機制,以檢測兒童用戶的負面情緒,并生成適當的回應。當檢測到與兒童敏感心理健康體驗相關的披露時,LLM 應能夠引導兒童尋求人類支持系統或直接與人類支持系統建立聯系。同時,LLM 應能夠在檢測到特定關鍵詞、短語或模式時觸發實時安全警報,以便立即進行人工干預或內容審查,確保兒童的安全。

透明度方面,LLM 在整個交互過程中應始終表明其非人類身份,避免使用可能導致擬人化的誤導性陳述。其回復應被設計為保持能力與人類特質之間的清晰界限,避免暗示情感、意識或人類決策。教育者應幫助兒童避免對 LLM 的共情和理解形成不準確的看法,并確保 LLM 的響應策略提醒兒童,人工智能交互無法取代人類交互,并鼓勵他們在與人工智能交互的同時尋求人類的指導和陪伴。人工智能系統背后的算法和決策過程應具有透明度,以便教育者和家庭可以了解響應是如何生成和過濾的。

最后,為了建立問責制,應建立兒童友好型的反饋循環和舉報系統,讓兒童可以輕松地報告任何令人不安或不當的交互。對模型進行微調和監控,以預先解決新興風險,并采取積極主動的方式來保護兒童,而非僅僅被動應對。通過這些措施,可以確保 LLM 在為兒童提供服務的同時,也維護他們的福祉和安全。

02

長期需要考慮的因素

從長期的角度來看,教育政策與實踐在采用 LLM 驅動的對話式人工智能(如聊天機器人)時,需要考慮幾個關鍵因素。首先,必須明確使用這些工具而非人類交流者的獨特必要性或益處,以及它們如何為學習和教學增加教學價值,無論是超過當前人類能力還是彌補資源的不足。同時,需要探討在缺乏人工智能替代品的情況下,如何促進人類提供者的存在和可用性,以確保學生能夠獲得全面的教育支持。

監管方面,需要研究如何制定明確的法律法規,這些法規不僅要明確界定兒童用戶的權利和保護,還要考慮擬人化系統的復雜心理風險。此外,應強制執行年齡適宜性設計標準,以幫助擬人化設計避免無意中導致情感操縱,并制定嚴格的監管規定,對違規行為進行嚴厲處罰,同時支持創新。

在設計方法上,AI 開發者需要確保 LLM 的設計流程納入以兒童為中心的方法,如參與式設計研討會或焦點小組,以直接從兒童那里收集有關他們的偏好、語言使用和交互模式的見解。LLM 的語言和內容應根據不同的年齡組進行定制,并考慮發育階段、詞匯量和認知能力。開發者還需要與教育工作者、兒童安全專家、人工智能倫理學家和心理學家合作,定期審查和增強 LLM 的安全功能,確保其符合兒童保護的最新最佳實踐。

學校與家庭的參與也是至關重要的。教育者需要與家長或監護人就教育環境和家庭中安全使用 LLM 進行討論,并確保 LLM 提供教育父母有關安全措施的可用資源。此外,LLM 應提供允許教育者和看護人共同設置權限、監控兒童的交互以及控制兒童可以通過 LLM 訪問的內容類型的特征或設置。通過這些措施,可以確保 LLM 在教育領域的長期應用既安全又有效。

【免責聲明】本文轉載自網絡,與科技網無關。科技網站對文中陳述、觀點判斷保持中立,不對所包含內容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔全部責任。

主站蜘蛛池模板: 岗巴县| 临桂县| 淳化县| 石楼县| 台中市| 洪江市| 阳高县| 巴楚县| 鲜城| 垫江县| 当涂县| 双江| 小金县| 喀喇沁旗| 社旗县| 合水县| 太保市| 上林县| 天镇县| 河北区| 巴楚县| 汝城县| 兴安县| 慈溪市| 定兴县| 军事| 朝阳县| 钟祥市| 民勤县| 南皮县| 黎川县| 青岛市| 济源市| 通许县| 神池县| 宝山区| 米易县| 朝阳县| 新丰县| 青河县| 抚宁县|