會做飯的小狗”視頻,多少人真的信了?
關(guān)于AI的冷思考之三
社交平臺截圖
AI 詐騙,隨處可見
相比于AI幻覺,程序開發(fā)人員小路認為,AI造假更值得警惕,“它是人為利用AI生成虛假內(nèi)容甚至欺詐的行為。”
事實上,AI換臉、變聲等詐騙事件已經(jīng)屢見不鮮:直播間里,AI換臉“偽造院士”兜售假大米、智能剪輯炮制抗癌神藥“逆天療效”,算法精準推送“根治高血壓”騙局……
2022年至2024年初,中國共發(fā)生“AI 換臉”類詐騙案近百起,累計給人民群眾造成經(jīng)濟損失高達2億元。
AI的偽造技術(shù),同樣困擾著在人民法院工作的法官張一涵。最近她負責(zé)的一起勞動訴訟案件中,勞動者提供的證據(jù)就被懷疑“有AI造假的可能”。
“這是一段用人單位管理者的錄音,錄音內(nèi)容是關(guān)于強制加班并拒絕支付加班費的。但用人單位表示,該管理者并未發(fā)表過類似言論,勞動者提供的錄音‘是由AI合成的’。”張一涵說。
圖源:視覺中國
“這段錄音在人聽來完全沒有任何問題。不僅語音語調(diào)正常,也能聽出來其中的憤怒、激動等情緒。”張一涵說,“目前的法律法規(guī)尚未明確規(guī)定 AI 生成證據(jù)的性質(zhì)、效力和認定標準,這使得在判斷 AI 偽造證據(jù)的合法性時,缺乏明確的法律依據(jù)。”


