没有性生活,却在网上看到了自己的不雅照?
你能够想象吗
一觉醒来,你的「裸照」
突然在网络中大肆传播
然而
照片中的地方
你并没有去过
这样的照片
你也并没有拍过
这种看似「魔幻」的情节
其实已经真实发生
并且不止一例
几个月前
就有这样一起离谱的事件
一位女生乘坐地铁时
拍了一张普普通通的照片
却被别有用心之人
用 AI「一键脱衣」
P 成了裸照
被「脱衣」的照片
在一部分网友的
传播和添油加醋下
最终演变成一个离谱的谣言
其实
用技术手段「脱衣服」
并不是什么新鲜的玩意儿
早在几年前
就已经有了类似的程序
只不过由于技术水平的限制
当时做出来的图
还处于「一眼假」的程度
受害的人群
也要主要是明星
而如今的 AI 技术
已经可以做到以假乱真的程度
如果不是摄影
或其它相关专业人员
很难分辨出真假
几张以假乱真的照片
一段充满猎奇桥段的文字
一个欺骗性极强的谣言
就这样诞生的
面对无比强大的 AI
普通人根本无力辨别
并且由于成本的降低
我们随时都有可能成为
下一个受害者
1. 用 AI「造黄谣」
只是 AI 被滥用的一种方式
很多不法分子
已经更新换代
把 AI 作为新的骗人工具
2. AI 换脸诈骗
不法分子通过 AI 换脸技术
提前制作好亲友或领导的视频
然后再通过视频通话
播放提前准备好的视频
骗取受害者的信任
相较于之前的冒充熟人诈骗
这种方式增加了
「视频通话」的环节
短短的十几秒视频
往往就能让受害者深信不疑
2023 年 4 月份
就发生了某公司法人代表
10 分钟被骗 400 余万的案件
骗子就是通过 AI 换脸和拟声技术
佯装成合作伙伴
实施的诈骗
3. AI 打拐
当然
技术的进步
带来的并不全是负面影响
在寻找被拐儿童这件事上
AI 就发挥过巨大的作用
在 2008 年到 2010 年间
有多名三岁左右的孩子被拐
虽然能确认孩子被卖到了广东
但通过 DNA 信息库比对
并没有发现具体线索
后来通过 AI 技术
进行跨年龄人脸识别比对
通过对海量数据进行比对
圈定了几名目标对象
再进一步进行 DNA 比对
最终成功找到了 4 名
当年被拐走的孩子
技术是一把双刃剑
目前还缺乏法规监管的 AI 技术
更是如此
它会在发明一瓶救命药的同时
也偷偷制造出一瓶害人的毒药
加强监督和管理
坚守底线,绝不越界
加强个人隐私的保护
在一定的边界内蓬勃发展
AI 才能让生活越来越美好
- END -
» 更多 互联网冷知识