123. 针对性报道(2 / 2)

加入书签

这些事情,就在不远的未来。

如果我们不能相信从世界各地收集到的视频、音频、图像和信息,那将是一个严重的国家安全风险。

图像和视频是否真实几乎无关紧要。强力的生成式技术将使公众越来越难以区分什么是真实的和什么是假的,政治参与者将不可避免地利用这种情况——这可能带来毁灭性的后果。”

孟繁岐读到这里的时候人都快麻了,怪不得川普最喜欢说CNN是假新闻(Fake News)。

这比话说的就特么离谱,现在就只是对低分辨率的脸部图像做了个生成技术,就被CNN说得比航空母舰还邪乎了。

什么过去需要“10艘航空母舰、核武器和远程导弹”,现在只需要制作假视频的能力?

意思是他孟繁岐再搞两年人工智能,就智械危机,拿下美国了是吧。

正经的东西是一点不讲,技术内容也完全不提,就光顾着贩卖焦虑了。

看得孟繁岐血压都高了。

华尔街日报的报道则最为技术一些:

“使得生成如此逼真的图像成为可能的核心技术,是生成式对抗网络,它是由孟繁岐在2013年10月公布的。

人工智能界的教父级人物,辛顿和本吉奥均高度赞赏这个想法,并称它为过去十年内最有趣的想法。

在GAN出现前,神经网络擅长对已经存在的内容进行分类,语言,语音,图像等,但完全不擅长创造新的内容。

孟繁岐不仅赋予了神经网络感知的能力,还赋予了它创造的能力。

孟的概念突破是使用两个独立的神经网络构建 GAN——一个称为“生成器”,另一个称为“鉴别器”——并将它们相互对抗。

从给定的数据集(例如,人脸照片的集合)开始,生成器开始生成新图像,这些图像在像素方面与现有图像在数学上相似。同时,鉴别器被输入照片,而没有被告知它们是来自原始数据集还是来自生成器的输出;它的任务是识别哪些照片是合成生成的。

随着这两个网络反复地相互对抗——生成器试图愚弄鉴别器,鉴别器试图证明生成器的创造力——它们磨练了彼此的能力。最终鉴别器的分类成功率下降到 50%,不比随机猜测好,这意味着合成生成的照片与原始照片变得无法区分。

而我们现实当中的情况也是如此,一旦我们发现了某种足以识别生成式虚假内容的方式,生成端很快就可以修正这些内容。就像是猫鼠游戏,我们未来与生成式虚假内容的对抗,就像是GAN方法一样,会不断促使生成模型变得更强大。”

“我超,这是纯纯的哲学家啊。”孟繁岐看完之后心头一震,这最后的升华是他自己也没有想到的。

在推特上又逛了一圈之后,孟繁岐才知晓为何这次技术突然引发了这么多人的关注。

原来是有行为艺术家,看了[这些人都不存在]网站后,从上面找了几张图当头像,直播去网聊。

结果跟他对话的人,有不少都评价过这些图像,但均没有一个怀疑过这些图像的真实性。

在数百万吃瓜群众的围观之下,FaceGAN的实力被抬到了一个不属于它的高度。

而作为GAN技术和FaceGAN技术的第一作者,孟繁岐如今在推特上炙手可热。

无数的问题和@让他眼花缭乱,甚至发文的这几家主流媒体,也纷纷通过推特留言或者谷歌的关系,对孟繁岐发起了采访的邀请。<!--over--><div id=center_tip><b>最新网址:www.tpsge.info</b>

↑返回顶部↑

书页/目录