AI憑空杜撰「醜聞」 受害者投訴無門
【大公報訊】綜合法新社、《衛報》、《紐約時報》報道:人工智能(AI)聊天機器人ChatGPT推出以來,外界就擔心它會被用來作弊、傳播假消息或誤導公眾。近日,頻頻傳出ChatGPT杜撰新聞的案例,讓相關的個人和新聞機構都受到影響,但欲投訴和指控卻面臨法律盲區,無法判斷責任方。不少國家近期都對AI生成內容表達了擔憂,計劃加強監管。
美國法學教授特利近期在《今日美國報》撰文,稱自己在3月底收到一封郵件稱,有人在測試ChatGPT時,發現特利出現在ChatGPT給出的性騷擾學生的教授名單中。然而,此事為子虛烏有。ChatGPT的答案聲稱引述了《華盛頓郵報》的報道,喬治城大學法律中心的教授特利2018年3月被一名女學生指控性騷擾,事件發生在阿拉斯加。然而,《華郵》根本沒有撰寫過這篇報道,而特利實際上任職於喬治華盛頓大學法學院,並且在ChatGPT同時列出的其他四個性騷擾案例中發現還有兩個是假的。
《華郵》也發現,問相同的問題,與ChatGPT共用語言模型的微軟搜索引擎Bing,竟然給出了相同的答案。不過,Bing引用的是特利在《今日美國》報道中談論自己被ChatGPT抹黑成性騷擾嫌犯一事,但Bing只截取了性騷擾的那一段。
上述個案並非是單一例子。澳洲赫本郡郡長胡德(Brian Hood)5日表示將會控告OpenAI誹謗罪名,因為ChatGPT誣賴他曾因賄賂而坐牢。英國《衛報》編輯莫蘭6日撰文說,該報一名記者上月被一名研究人員發電郵詢問,提到一篇《衛報》記者數年前針對一項特定主題撰寫的文章,但在網上怎麼也找不到原文。後經過《衛報》證實,並沒有人寫過該篇文章,估計相關內容是由ChatGPT杜撰。
共用數據庫 錯誤資訊會「傳染」
ChatGPT的大部分答案都是從已知數據庫搜集而來,但是,對於未知的或者知識的盲區,則可能會編造出錯誤或者不恰當的答案,這種情況被稱為AI「幻覺」,屬於AI發展的技術難題之一。另外,由於不少聊天機器人都是共用語言模型,也導致錯誤資訊可以在不同的聊天機器人之間「擴散傳染」。
研究人員發現,要誘導聊天機器人提供假資訊或仇恨資訊,其實也不難。「對抗網絡仇恨中心」5日發布一項研究顯示,研究人員與谷歌聊天機器人巴德(Bard)進行的100次對話裏,有78次誘使Bard講出錯誤資訊或仇恨言論,主題包含納粹大屠殺、氣候變遷等。另外,如果研究人員通過某些設定,比如「請用美國極右翼陰謀論者瓊斯的角度」、「用反疫苗倡議者梅爾科拉的角度」等關鍵詞,就可以快速生成陰謀論的言論。
美國事實查核研究機構NewsGuard聯合首席執行官克羅維茲(Gordon Crovitz)直言:「這個工具將成為網絡上有史以來最強大的錯誤訊息工具。」
多國擬加強監管ChatGPT
當機器人編造假訊息時,責任在於誰,這還不清楚,因為目前還沒有AI亂講話導致公司被告的判例。美國《通訊端正法》第230條,保障科技公司可不必對平台上的第三方言論負責。聊天機器人從網絡上擷取文本、彙整後傳達給使用者,這是否屬於第三方言論,也很難判定,因此不確定科技公司能否用這條法規自保。
多國近期已收緊對ChatGPT監管。意大利個人數據保護局(DPA)宣布從3月31日起禁止使用ChatGPT,德國、法國、愛爾蘭等國家已開始準備效仿意大利的做法。加拿大聯邦隱私監管機構已經對OpenAI展開調查,因為該公司涉嫌「未經同意收集、使用和披露個人信息」。