AI技术打开的潘多拉魔盒如何关上?

赵占领 2017-12-19 20:34 阅读:34
摘要:“有图有真相”,这是一句非常流行的网络用语,也曾被网民几乎视为一条定律。但是,如今众所周知PS技术门槛很低,合成一张图片非常容易。因此,有图未必就有真相。在“有图有真相”被打破之后,多数人认为相对于静

“有图有真相”,这是一句非常流行的网络用语,也曾被网民几乎视为一条定律。但是,如今众所周知PS技术门槛很低,合成一张图片非常容易。因此,有图未必就有真相。

在“有图有真相”被打破之后,多数人认为相对于静态、孤立的图片,动态、连贯的视频更难以造假,客观性更容易得到认可。一旦某个明星或官员的不雅视频曝光,公众的第一反应通常是理所当然地认为这就是真相。

然而,AI技术的出现,让我们认识到技术进步引发的巨大改变。近期,国外一些女明星接受采访的视频,或者参演影片中的照片,被人轻易地通过AI技术学习其面部特征,然后合成到色情影片里的女演员的头部,视频逼真的程度让人难以置信。所以,在“有图未必就有真相”后,即使有视频也未必就有真相。

AI技术出现之前,视频也有造假现象,但通常是采用剪辑、拼接等方式进行,即使普通网民也并非完全不能发现其中存在的破绽。而AI技术出现之后,造假的技术水平大幅提高,以假乱真的程度极其考验网民的智慧。

更关键的是,这一技术被滥用,或者是被那些不法之徒及有恶意的人使用,便等于打开了潘多拉的魔盒。以后,我们可能会有更多机会看到某个公众人物“出演”的色情电影、某个官员“发表”敏感言论的视频、某个企业家“从事”违法犯罪行为的画面……诸如此类的视频可能不断突破公众的想象力。而令人担忧的是,这些视频一经传播,短时间内会带来极大的震撼,给相关受害人造成的伤害也将迅速扩大,造成的社会影响有时又来不及迅速消除。

但是,利用AI技术伪造视频所带来的法律挑战更多。以往,很多司法案件中,视频都曾作为一方甚至双方的证据,而且证明效力比较高。但是,AI技术被滥用于伪造视频之后,使得视频的证明效力减弱,甚至存在着被完全推翻的可能。与此同时,作为违法或者犯罪证据的视频,如何证明其属于伪造,如何进行技术鉴定,也给公安机关、司法鉴定机构、当事人提出了新的难题。

尽管AI技术如同其他新技术一样,在带来商业变革的同时,也带来一系列的社会问题、法律问题,但是技术本身是中立的。因此,如何关上AI技术打开的潘多拉魔盒,关键不在于禁止新技术,不是因噎废食,而是要对滥用技术从事的违法犯罪行为进行规制。

首先,对于这种新型的违法犯罪行为,需要及时完善现有法律规则。即如何定义这种犯罪行为,以及这种行为所带来的巨大负面伤害。此外,还要规定对这种违法犯罪行为在惩罚时适用什么样的标准。

其次,解决技术带来的问题也离不开技术,如何在技术上防止视频被伪造,如何通过技术手段迅速、及时判断视频是否被伪造,也很大程度上影响着潘多拉魔盒能否关上。

第三,应该通过更多的手段让民众知晓这种行为带来的危害性和严重性,使这种技术得到善用。同时让民众更重视自己的隐私保护,让一些好事之徒没有可乘之机。

版权声明
本文仅代表作者观点,不代表百度立场。
本文系作者授权百度百家发表,未经许可,不得转载。
阅读量: 34
0