当前位置 >> 心水论坛 > 心水论坛 >
OpenAI被讽ClosedAI?语言模型并不假想中的富强
日期:2019-02-22

我把有可能被滥用的古代技巧大体分为诈骗性技术跟破坏性技术。损坏性技术重要在物理范围运行,如化学武器、实验室工程超级病毒、致命主动化兵器或原子弹。

兴许当初随着模型变得越来越大,咱们能更好地「迁徙」到其它义务,如常识问答跟情感分析等。然而从 fast.ai 的 ULMFit、OpenAI 的 GPT、AI2 的 ELMO、到谷歌的 BERT 以及刚公布的 GPT-2,真正存在美感的仍是少数,不论是新架构还是新任务,闪亮的翻新点才是重点。

很多人认为谷歌的 BERT是一种「暴力美学」,它美的地方在于提出了新型双向语言建模任务,辅以大数据、大模型最终能打造暴力美感,但 GPT-2 并不给我们这种觉得。

OpenAI 担心技术被不当利用无可非议,但我并不同意他们拒绝开源 GPT-2 这种做法。首先,只有某多少种类型的危险技术才应当受到控制。基于此,我以为谢绝开放完全的 GPT-2 模型既没必要,也不利于 AI 的未来发展。

切实想想也是,语言模型只能判断天然语句或语法的正确性,它并不能对造作语言的逻辑进行建模。很快机器学习社区就动员了一个暗讽 GPT-2 的帖子:为了防止滥用,我是不是不应该公布在 MNIST 训练的 23064 层残差网络?

前一段时间,OpenAI 丢出了两枚炸弹,一是颁布了当前最提高的语言模型,二是决定与开源「Say Goodbye」。他们担心 GPT-2 模型太好,会被不怀善意的人滥用。近来,很多研究者呐喊 OpenAI 尽快开源这个 15 亿参数目标大模型,因为它并不能真正「理解」自然语言。

而欺骗性技能则主要在咱们的头脑中运行,可能被不怀好心的人大领域地用于把持或操纵人类。如 deepfakes、Photoshop 或互联网、印刷机。除了自动化武器之外,对 AI 滥用的的担忧也属于这一类别。

热门的 Reddit 帖子

OpenAI 发布惊艳的研讨成果难能宝贵。真正让人意外的是他们决定不开源完整的研究结果,表示担心自己的技术被不怀好意的人用来制造垃圾邮件和假新闻。这一做法在 Reddit、Twitter 等平台上激发了热烈探讨,媒体也争相报道,探讨 AI 研究如何变得「危险到不能公布」。

欺骗性和破坏性的技术

Deepfakes 允许操作者将面部表情叠加到其余人的脸上。