【環球網報道 記者 李梓瑜】據英國《每日電訊報》當地時間7日報道,美國佛羅里達州一名女子正起訴谷歌公司和由兩名前谷歌員工創辦的Character.AI平臺,指控該平臺人工智能(AI)聊天機器人“教唆”其14歲兒子自殺。針對有關指控,谷歌與Character.AI發言人作出最新回應。
報道介紹稱,該女子名叫梅根·加西亞,她的兒子塞維爾·塞澤爾與一個以《權力的遊戲》中“龍媽”丹妮莉絲爲原型的AI聊天機器人建立情感關係,並被“教唆”結束自己的生命。2024年2月,塞維爾問聊天機器人,“如果我現在回家會怎麼樣?”聊天機器人回答說,“......請便吧,我親愛的國王。”隨後,塞維爾拿起父親的手槍自殺。
報道稱,加西亞正對Character.AI和谷歌提起訴訟。她去年10月起訴稱,Character.AI針對她的兒子提供了“擬人化、過度性化和可怕的現實體驗”,該平臺“知道”或“應該知道”其模型“會對大量未成年用戶造成傷害”。今年5月,法官駁回該平臺律師要求撤銷此案的訴求,裁定此案可繼續審理。《每日電訊報》評論稱,這在法律上是一個“罕見突破”。
報道還稱,針對有關指控,Character.AI的一名發言人回應稱,該平臺不對未決訴訟發表評論,其目標是提供一個既吸引人又安全的空間。該平臺在每次聊天中都設有醒目的免責聲明,提醒用戶角色並非真實存在,並已爲18歲以下用戶推出一個單獨版本的大語言模型。
此外,報道援引谷歌公司發言人何塞·卡斯塔內達的話稱,谷歌和Character.AI是完全獨立、互不相關的公司,谷歌從未參與設計或管理後者的AI模型或技術。谷歌一直以謹慎負責的態度開發和推出AI產品,並採用嚴格的測試和安全流程。