@风中的厂长: 我现在经常用 AI 辅助工作,发现 AI 这样发展下去很危险啊。网上查了一下,大量 AI 诈骗案例都是今年的。大家一定长个心眼。举几个高危的例子:希望这条微博能帮助你们避雷。就算自己不会上当,也要转给家人。特别是老年人很容易上当。
前几天骗子用 AI 虚拟了一个 “张文宏” 带货蛋白棒,很多老年人深信不疑,纷纷下单。
前一阵福州老板郭总接到好友微信视频电话,要借 430 万元用来竞标,因为是好朋友,微信视频又很真实就没多想,郭老板就分两笔转了 430 万。过了一阵郭总发现,“好友” 是 AI 合成的。
还有 “宁夏表哥” 案,今年马某接到表哥的视频电话求助,分三次将 15000 元转到对方指定账户,后来才发现视频是 AI 合成的。
还有 AI 语音模拟亲人的声音进行诈骗。杨女士收到上大学的女儿语音留言要钱。杨女士一听是女儿,毫不犹豫转账了 35000 元,结果这个 “女儿” 的声音是 AI 模拟的
赞(67)