LeCun论文被指「洗稿」? LSTM之父发文怒怼:抄我的还标原创
图灵奖得主Yann Lecun,作为AI界的三巨头之一,他发表的论文自然是被人当成「圣经」来学习的。
然而,最近突然有一个人跳出来炮轰LeCun「炒冷饭」:「无非就是把我的核心观点换种说法罢了」。
莫非……
没错,此人正是「LSTM之父」Jürgen Schmidhuber。
Schmidhuber表示,LeCun的这篇论文并未提及1990-2015年期间的重要成果,文中所提及的「主要原创成果」,包括「学习子目标、可预测的抽象表征、多个时间尺度」等概念,他们也已经发表过了。
原推中用的rehash这个词,也就是把原先的idea用另一种方式表达而不做创新,妥妥的「洗稿」了。
同时,他还发长文详细地列出了证据。当然,这只能算是Schmidhuber的一面之词罢了。
不过,网友们显然并不买账。
「你过去是AI界的一位重量级人物,但现在你出名的地方在声称每个人的学术成果都是剽窃了你的观点」。
「神经网络、transformers、LSTMS是你发明的,那厕纸和面包片是不是也是你们家发明的」。
所以,到底是个啥事?
让我们先捋一捋事情的来龙去脉。
2022年6月14日,被Schmidhuber称作Science Tabloid的一家「科学小报」(说的就是你MIT科技评论)发表了一篇LeCun的报告,其中阐述了他对AGI的新构想。
6月27日,Yann LeCun发表了自己积蓄几年的论文「A Path Towards Autonomous Machine Intelligence」,并称其为「指明AI未来发展方向之作」。
这篇论文系统讲述了关于「机器如何能像动物和人类一样学习」的问题,长达60多页,感兴趣的朋友可以去看看。
LeCun表示,此文不仅是自己关于未来5-10年内关于AI发展大方向的思考,也是自己未来几年打算研究的内容,并希望能够启发AI界的更多人来一起研究。
大概是看LeCun这篇论文的影响越来越大,Schmidhuber终于决定在7月7日,放出自己写的长文,怒斥Lecun抄袭他的idea。
Schmidhuber称,在文章还没公开发表之前,那家「科学小报」发来一份报告的草稿(还在保密期),并希望他能对此发表一些评论。
于是,Schmidhuber便洋洋洒洒地写了一篇「控告」,表示LeCun的文章基本上就是自己以前工作的翻版,而且还没有引用。
不出意料,他的评论石沉大海了。
LeCun只是重提我的工作,而且还没标引用!
Schmidhuber在这篇长文中表示,希望读者能研究原始论文,自己判断这些评论的科学内容,并且还希望自己的工作得到承认和认可。
LeCun论文开头部分说,本文描述的许多观点(几乎都是)由许多作者在不同的背景下以不同的形式提出,Schmidhuber则反驳称不幸的是,这篇论文的大部分内容就和我们1990年以来的论文「似曾相识」,且没有任何引用的标识。
先来看看他这次炮轰LeCun的证据(部分)。
证据1:
LeCun:今天的人工智能研究必须解决三个主要挑战:(1)机器如何能学会代表世界,学会预测,并学会主要通过观察来采取行动(2)机器如何以与基于梯度的学习兼容的方式进行推理和计划(3)机器如何以分层的方式,在多个抽象层次和多个时间尺度上学习表征感知(3a)和行动计划(3b)
Schmidhuber:这些问题在1990年、1991年、1997年和2015年发表的一系列论文中得到了详细解决。
1990年,第一篇关于基于梯度的人工神经网络(NN)用于长期规划和强化学习(RL)以及通过人工好奇心进行探索的工作发表。
它描述了两个递归神经网络(RNN,最强大的NNN)的组合,称为控制器和世界模型。
其中,世界模型学习预测控制器行动的后果,控制器可以利用世界模型提前规划几个时间步骤,选择使预测奖励最大化的行动序列。
关于基于神经网络的分层感知(3a)的答案,这个问题至少部分由我 1991年发表的「第一台深度学习机器—神经序列分块器」解决。
它在递归神经网络 (RNN) 的深层层次结构中使用无监督学习和预测编码,以在多个抽象级别和多个时间尺度(正是 LeCun 所写的内容)上找到「长数据序列的内部表征」。
关于基于神经网络的分层行动计划(3b)的答案,已在 1990 年通过我的分层强化学习 (HRL)这篇论文至少部分解决了这个问题。
证据2:
LeCun :由于成本模块的两个子模块都是可微的,所以能量梯度可以通过其他模块反向传播,特别是世界模块、表演模块和感知模块。
Schmidhuber:这正是我在 1990 年发表的内容,引用了 1980 年发表的「具有前馈神经网络的系统识别」论文。
2000年,我的前博士后 Marcus Hutter 甚至发表了用于学习世界模型和控制器的理论上最优、通用、不可微的方法。(另请参考称为哥德尔机的数学上最优的自我参照 AGI)
证据3:
LeCun :短期记忆模块架构可能类似于键值记忆网络。
Schmidhuber:然而,他没有提到我在 1991 年发表了第一个这样的「键值记忆网络」,当时我描述了序列处理「Fast Weight Controllers」或 Fast Weight Programmers (FWPs)。FWP 拥有一个慢速的神经网络,它通过反向传播学习以快速修改另一个神经网络的快速权重。
证据4:
LeCun:这篇论文的主要原创贡献在于:(I)一个整体认知架构,其中所有模块都是可区分的,其中许多模块是可训练的。(II)H-JEPA:预测世界的非生成层次架构在多个抽象级别和多个时间尺度上学习表示的模型。(III)一系列非对比自我监督学习范式,产生同时提供信息和可预测的表示。(IV)使用 H-JEPA 作为不确定性下分层规划的预测世界模型的基础。
对此,Schmidhuber也按照LeCun列出的这四个模块一一校对,并给出了与他论文中有重合的点。
文章最后,他表示这篇文章的重点不是攻击发表的论文或是其作者所反映的想法,关键是这些想法并不像LeCun 的论文中写的那样「原创」。
他说,这些观点的提出中许多都有着我和我的同事的努力,LeCun现在所提出的他的「Main original contribution」其实与我几十年来研究的贡献密不可分,我希望读者自己判断我的评论的有效性。
从LSTM之父到……
其实,这位大爷声称别人抄袭他的成果也不是第一回了。
早在去年9月,他就在博客上发文表示,现在引用最多的神经网络论文成果,都是建立在我实验室完成的工作之上的:
「LSTM不用说了,其他还有今天鼎鼎大名的开创性工作比如ResNet,比如AlexNet、GAN、Transformer,都和我的工作有关系。有些工作的第一版就是我做出来的,但是现在这些人不讲武德,引用不规范,搞得这些成果现在的归属认知有问题。」虽然大爷气性很大,但不得不说Jürgen Schmidhuber这么多年来确实有些意难平。同为AI领域的前辈级人物,开创性成果没少做,但获得的声誉和认可度似乎总与期望值有很大差距。
尤其是在2018年,深度学习三巨头:Yoshua Bengio、Geoffrey Hinton、Yann LeCun荣获图灵奖时,就有不少的网友发出了质疑:图灵奖为什么没颁给LSTM之父Jürgen Schmidhuber?他也是深度学习领域的大家啊。
时间回到2015年,当时Bengio、Hinton和LeCun三位大神联手在Nature上发了一篇review,题目直接就叫《Deep Learning》。
文章从传统的机器学习技术讲起,总结了现代机器学习的主要架构和方法,描述了训练多层网络架构的反向传播算法,以及卷积神经网络的诞生,分布式表示和语言处理,以及递归神经网络及其应用等等。
不到一个月后,Schmidhuber就在自己的博客上发文进行了批评。
Schmidhuber表示,这篇文章让他非常不爽,因为全文多次引用三位作者自己的研究成果,而对于其他先驱人物对深度学习更早的贡献则只字不提。
他认为,获得图灵奖的「深度学习三巨头」俨然成了贪他人之功,以为己利的鸡贼、借助江湖地位互相吹捧,压制老前辈的学阀。
2016年,Jürgen Schmidhuber又在NIPS大会的Tutorial上和「GAN之父」Ian Goodfellow正面交锋。
当时,Goodfellow正讲到GAN与其他模型相比较时,Schmidhuber便站出来提问打断。
Schmidhuber的问题很长,大概说了两分钟,主要内容是强调说自己在1992年就已经提出来PM,接着说了一大堆它的原理、实现过程等等,最后图穷匕见:你说说你的GAN和我的PM有没有相似之处?
Goodfellow也不示弱:你说的问题我们之前在邮件里已经交流过很多次了,我也早就公开回应过你了,不想在现在的场合浪费听众的耐心。
等等,等等……
或许Schmidhuber的这些「蜜汁操作」,可以用LeCun曾经的一封邮件来解释:
「Jürgen 对众人的认可过于痴迷,总是说自己没有得到应得的很多东西。几乎是惯性地,他总是在别人每次讲话结束时都要站起来,说刚刚提出的成果有他的功劳,大体上看,这种行为并不合理。」
以上是LeCun论文被指「洗稿」? LSTM之父发文怒怼:抄我的还标原创的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

StableDiffusion3的论文终于来了!这个模型于两周前发布,采用了与Sora相同的DiT(DiffusionTransformer)架构,一经发布就引起了不小的轰动。与之前版本相比,StableDiffusion3生成的图质量有了显着提升,现在支持多主题提示,并且文字书写效果也得到了改善,不再出现乱码情况。 StabilityAI指出,StableDiffusion3是一个系列模型,其参数量从800M到8B不等。这一参数范围意味着该模型可以在许多便携设备上直接运行,从而显着降低了使用AI

在法国巴黎举行的计算机视觉顶峰大会ICCV2023刚刚结束!今年的最佳论文奖,简直是“神仙打架”。例如,获得最佳论文奖的两篇论文中,就包括颠覆文生图AI领域的著作——ControlNet。自从开源以来,ControlNet在GitHub上已经获得了24k个星。无论是对于扩散模型还是整个计算机视觉领域来说,这篇论文的获奖都是实至名归的而最佳论文奖荣誉提名,则颁给了另一篇同样出名的论文,Meta的「分割一切」模型SAM。自推出以来,「分割一切」已经成为了各种图像分割AI模型的“标杆”,包括后来居上的

1月11日消息,昨日举办的发布会上,荣耀正式推出MagicOS8.0,其中一项名为“任意门”的特色功能引发争议。罗永浩在其辟谣号上指责“任意门”荣耀抄袭锤子手机的OneStep(一步)功能,并喊话赵明:“这就是赤裸裸照抄锤子手机的OneStep啊,赵老师是不是被做产品的孩子给骗了?相信贵公司不至于这么无耻,你们又不是苹果。”对此,荣耀官方尚未公开回应。根据荣耀官方介绍,“任意门”功能带来了新一代的人机交互体验,

生成式AI已经风靡了人工智能社区,无论是个人还是企业,都开始热衷于创建相关的模态转换应用,比如文生图、文生视频、文生音乐等等。最近呢,来自ServiceNowResearch、LIVIA等科研机构的几位研究者尝试基于文本描述生成论文中的图表。为此,他们提出了一种FigGen的新方法,相关论文还被ICLR2023收录为了TinyPaper。图片论文地址:https://arxiv.org/pdf/2306.00800.pdf也许有人会问了,生成论文中的图表有什么难的呢?这样做对于科研又有哪些帮助呢

正值AAAI 2023论文截止提交之际,知乎上突然出现了一张AI投稿群的匿名聊天截图。其中有人声称,自己可以提供「3000块一个strong accept」的服务。爆料一出,顿时引起了网友们的公愤。不过,先不要着急。知乎大佬「微调」表示,这大概率只是「口嗨」而已。据「微调」透露,打招呼和团伙作案这个是任何领域都不能避免的问题。随着openreview的兴起,cmt的各种弊端也越来越清楚,未来留给小圈子操作的空间会变小,但永远会有空间。因为这是个人的问题,不是投稿系统和机制的问题。引入open r

神经辐射场(NeuralRadianceFields)自2020年被提出以来,相关论文数量呈指数增长,不但成为了三维重建的重要分支方向,也逐渐作为自动驾驶重要工具活跃在研究前沿。NeRF这两年异军突起,主要因为它跳过了传统CV重建pipeline的特征点提取和匹配、对极几何与三角化、PnP加BundleAdjustment等步骤,甚至跳过mesh的重建、贴图和光追,直接从2D输入图像学习一个辐射场,然后从辐射场输出逼近真实照片的渲染图像。也就是说,让一个基于神经网络的隐式三维模型,去拟合指定视角

自2017年首次举办以来,CoRL已经成为了机器人学与机器学习交叉领域的全球顶级学术会议之一。CoRL是面向机器人学习研究的单一主题会议,涵盖了机器人学、机器学习和控制等多个主题,包括理论与应用2023年的CoRL大会将于11月6日至9日在美国亚特兰大举行。根据官方数据透露,今年有来自25个国家的199篇论文入选CoRL。热门主题包括操作、强化学习等。虽然相较于AAAI、CVPR等大型AI学术会议,CoRL的规模较小,但随着今年大模型、具身智能、人形机器人等概念的热度上升,值得关注的相关研究也会

刚刚,CVPR 2023发文称:今年,我们收到了创纪录的9155份论文(比CVPR2022增加了12%),并录用了2360篇论文,接收率为25.78%。据统计,CVPR的投稿量在2010-2016的7年间仅从1724增加到2145。在2017年后则迅速飙升,进入快速增长期,2019年首次突破5000,至2022年投稿数已达到8161份。可以看到,今年提交了共9155份论文确实创下了最高记录。疫情放开后,今年的CVPR顶会将在加拿大举行。今年采用单轨会议的形式,并取消了传统Oral的评选。谷歌研究
