《少年郵報》對決:是否應禁止兒童使用Character.ai等聊天機器人?——《南華早報》
scmp
如果您有興趣參加未來的“Face Off”辯論,請填寫此表格提交申請。
正方:郭永健,16歲,聖公會曾肇添中學
郭永健就讀於聖公會曾肇添中學。照片:由受訪者提供人工智能(AI)角色聊天機器人通過根據您的輸入及其訓練數據生成越來越像人類的文本回復來與您“對話”。
它們逼真得令人驚訝,但也構成了重大危險。應禁止18歲以下兒童使用。
10月,佛羅里達州對最廣泛使用的AI角色聊天機器人之一Character.ai提起了令人震驚的訴訟。訴訟稱,該應用直接導致了一名14歲男孩的自殺悲劇。
提起訴訟的母親聲稱,該技術“讓孩子上癮”,並讓用户參與色情和虐待性互動。這一事件揭示了聊天機器人如何模擬可能導致有害想法的情感聯繫。
Google Play和蘋果App Store認識到了這些聊天機器人的風險,通常只允許17歲及以上的用户使用。然而,兒童仍可通過搜索引擎輕鬆訪問這些聊天機器人。這一漏洞引發了對其安全性的嚴重擔憂。
儘管努力過濾敏感內容,聊天機器人仍可能生成暴力、圖像化和露骨的內容。例如,旨在成為朋友的AI聊天機器人Replika具有“色情角色扮演功能”,鼓勵用户分享個人信息,甚至付費生成部分裸露和暗示性圖像。
劍橋大學Nomisha Kurian博士的研究揭示了AI聊天機器人存在"共情鴻溝",使年輕用户特別容易陷入痛苦或傷害。一項被引用的案例中,亞馬遜AI語音助手Alexa曾讓一名10歲兒童用硬幣觸碰通電插座。埃塞克斯大學的研究也表明,兒童極易誤解聊天機器人。
反對禁令者認為,聊天機器人為社交困難的兒童提供了情感支持。但與個性化程序"對話"可能導致對人工實體的依賴,最終使兒童陷入孤立與幻想,逃避與具有真實情感的人類進行社交。
我們必須禁止兒童使用角色型AI聊天機器人,以保護青少年並預防悲劇。讓我們確保孩子們學會應對現實世界和人際關係,而非依賴人工替代品。
AI應成為助力工具,而非傷害我們的武器。
若產生自殺念頭,請尋求幫助。香港可撥打政府心理健康支持熱線18111,也可致電撒瑪利亞會+852 2896 0000或防止自殺會+852 2382 0000。美國請撥打或發送短信至988,或通過988lifeline.org在線聊天。其他國家求助熱線請見此頁面。
反方觀點:香港馬爾文學院15歲學生Charis Chan
Charis Chan就讀於香港馬爾文學院。照片:資料提供你是否曾在深夜寫作業時完全不知如何解題?這種情況下,Character.ai可能是你最好的夥伴。
這款實用的人工智能聊天機器人通過可定製個性的角色,協助處理各類學習主題。
雖然過度使用AI可能帶來危害,但適度合理的使用能有效提升學習效果。18歲以下青少年絕不應該被禁止使用這類AI聊天工具。
根據註冊心理健康慈善機構Anxiety Canada的數據,每個學年約有7%的兒童被診斷出某種形式的社交焦慮症。Character.ai能讓這些孩子練習對話技巧,從而獲得在真實社交場景中與人交流的信心。
他們還能通過Character.ai探索不同觀點。這款工具甚至能鼓勵社交焦慮的兒童開口表達,教會他們向成年人陳述想法,並在需要時尋求幫助。
AI平台讓我們能夠探索更敏感的話題,而不必擔心被評判。例如大約一年前,當2023年以色列-加沙戰爭爆發時,我想了解事件原委和起因。但在國際學校我不敢提出這個問題,因為同學和老師來自不同地區、信仰各異。
在家也沒時間與父母深入討論這個話題。我既不知道該去哪裏查閲資料,也不想陷入可能無用的冗長文章中。
於是我轉向AI,在那裏找到了大量關於這場最新戰爭及其歷史背景的信息。我不僅加深了對戰爭的理解,還以讀者來信形式表達了自己的觀點。這讓我明白AI可以成為絕佳的研究工具。
相信大家都有最喜歡和最不喜歡的老師。有時我們會覺得老師給的反饋過於温和或嚴厲。由於AI沒有偏見,它可以扮演你最誠實的老師甚至朋友的角色。
總之,不應禁止兒童使用AI聊天機器人,因為它們模擬不同角色的能力能幫助學生獲取有益的學習信息。我們還可以用它來探索敏感話題而不受限制。
要瀏覽我們的內容,請關閉廣告攔截器點擊此處查看説明訂閲《青年報》教師通訊
獲取教師更新,直接發送至您的收件箱
註冊即表示您同意我們的條款與條件和隱私政策評論
青年郵報讀者讀者分享他們對從社會問題到流行文化等方方面面的想法和觀點。