LeCun論文被指「洗稿」? LSTM之父發文怒懟:抄我的還標原創
圖靈獎得主Yann Lecun,作為AI界的三巨頭之一,他發表的論文自然是被人當成「聖經」來學習的。
然而,最近突然有一個人跳出來炮轟LeCun「炒冷飯」:「無非就是把我的核心觀點換種說法罷了」。
莫非…
#沒錯,此人正是「 LSTM之父」Jürgen Schmidhuber。
Schmidhuber表示,LeCun的這篇論文並未提及1990-2015年期間的重要成果,文中所提及的「主要原創成果」,包括「學習子目標、可預測的抽象表徵、多個時間尺度」等概念,他們也已經發表過了。
原推中用的rehash這個詞,也就是把原先的idea用另一種方式表達而不做創新,妥妥的「洗稿」了。
同時,他也發長文詳細地列出了證據。當然,這只能算是Schmidhuber的一面之詞罷了。
不過,網友顯然不買單。
「你過去是AI界的一位重量級人物,但現在你出名的地方在聲稱每個人的學術成就都是剽竊了你的觀點」。
「神經網路、transformers、LSTMS是你發明的,那廁紙和麵包片是不是也是你們家發明的」。
所以,到底是個啥事?
讓我們先捋一捋事情的來龍去脈。
2022年6月14日,被Schmidhuber稱作Science Tabloid的一家「科學小報」(說的就是你MIT科技評論)發表了一篇LeCun的報告,其中闡述了他對AGI的新構想。
6月27日,Yann LeCun發表了自己積蓄幾年的論文「A Path Towards Autonomous Machine Intelligence」,並稱其為「指明AI未來發展方向之作」。
這篇論文系統講述了關於「機器如何能像動物和人類一樣學習」的問題,長達60多頁,有興趣的朋友可以去看看。
LeCun表示,此文不僅是自己關於未來5-10年內關於AI發展大方向的思考,也是自己未來幾年打算研究的內容,並希望能夠啟發AI界的更多人來一起研究。
大概是看LeCun這篇論文的影響越來越大,Schmidhuber終於決定在7月7日,放出自己寫的長文,怒斥Lecun抄襲他的idea。
Schmidhuber稱,在文章還沒公開發表之前,那家「科學小報」發來一份報告的草稿(還在保密期),並希望他能對此發表一些評論。
於是,Schmidhuber便洋洋灑灑地寫了一篇「控告」,表示LeCun的文章基本上就是自己以前工作的翻版,而且還沒有引用。
不出意料,他的評論石沉大海了。
LeCun只是重提我的工作,而且還沒標引用!
#Schmidhuber在這篇長文中表示,希望讀者能研究原始論文,自己判斷這些評論的科學內容,並且還希望自己的工作得到承認和認可。
LeCun論文開頭部分說,本文描述的許多觀點(幾乎都是)由許多作者在不同的背景下以不同的形式提出,Schmidhuber則反駁稱不幸的是,這篇論文的大部分內容就和我們1990年以來的論文「似曾相識」,且沒有任何引用的標識。
先來看看他這次砲轟LeCun的證據(部分)。
證據1:
LeCun:今天的人工智慧研究必須解決三個主要挑戰:(1)機器如何學會代表世界,學會預測,並學會主要透過觀察來採取行動(2)機器如何以與基於梯度的學習相容的方式進行推理和計劃(3)機器如何以分層的方式,在多個抽象層次和多個時間尺度上學習表徵知覺(3a)和行動計畫(3b)
Schmidhuber:這些問題在1990年、1991年、1997年和2015年發表的一系列論文中得到了詳細解決。
1990年,第一篇關於基於梯度的人工神經網路(NN)用於長期規劃和強化學習(RL)以及透過人工好奇心進行探索的工作發表。
它描述了兩個遞歸神經網路(RNN,最強大的NNN)的組合,稱為控制器和世界模型。
其中,世界模型學習預測控制器行動的後果,控制器可以利用世界模型提前規劃幾個時間步驟,選擇使預測獎勵最大化的行動序列。
關於基於神經網路的分層感知(3a)的答案,這個問題至少部分由我1991年發表的「第一台深度學習機器—神經序列分塊器”解決。
它在遞歸神經網路(RNN) 的深層層次結構中使用無監督學習和預測編碼,以在多個抽象層級和多個時間尺度(正是LeCun 所寫的內容)上找到“長數據序列的內部表徵」。
關於基於神經網路的分層行動計畫(3b)的答案,已在1990 年透過我的分層強化學習(HRL)這篇論文至少部分解決了這個問題。
證據2:
#LeCun :由於成本模組的兩個子模組都是可微的,所以能量梯度可以透過其他模組反向傳播,特別是世界模組、表演模組和感知模組。
Schmidhuber:這正是我在 1990 年發表的內容,引用了 1980 年發表的「具有前饋神經網路的系統識別」論文。
2000年,我的前博士後 Marcus Hutter 甚至發表了用於學習世界模型和控制器的理論上最優、通用、不可微的方法。 (另請參考稱為哥德爾機的數學上最優的自我參照AGI)
證據3:
LeCun :短期記憶模組架構可能類似於鍵值記憶網路。
Schmidhuber:然而,他沒有提到我在1991 年發表了第一個這樣的「鍵值記憶網路」,當時我描述了序列處理「Fast Weight Controllers」或Fast Weight Programmers (FWPs) 。 FWP 擁有一個慢速的神經網絡,它透過反向傳播學習以快速修改另一個神經網路的快速權重。
#證據4:
LeCun:這篇論文的主要原創貢獻在於:(I)一個整體認知架構,其中所有模組都是可區分的,其中許多模組是可訓練的。 (II)H-JEPA:預測世界的非生成層次架構在多個抽象層級和多個時間尺度上學習表示的模型。 (III)一系列非對比自我監督學習範式,產生同時提供資訊和可預測的表示。 (IV)使用 H-JEPA 作為不確定性下分層規劃的預測世界模型的基礎。
對此,Schmidhuber也依照LeCun列出的這四個模組一一校對,並給出了與他論文中有重合的點。
文章最後,他表示這篇文章的重點不是攻擊發表的論文或是其作者所反映的想法,關鍵是這些想法並不像LeCun 的論文中寫的那樣「原創」。
他說,這些觀點的提出中許多都有著我和我的同事的努力,LeCun現在所提出的他的“Main original contribution”其實與我幾十年來研究的貢獻密不可分,我希望讀者自己判斷我的評論的有效性。
從LSTM之父到……
其實,這位大爺聲稱別人抄襲他的成果也不是第一回了。
早在去年9月,他就在部落格上發文表示,現在引用最多的神經網路論文成果,都是建立在我實驗室完成的工作之上的:
“ LSTM不用說了,其他還有今天鼎鼎大名的開創性工作比如ResNet,比如AlexNet、GAN、Transformer,都和我的工作有關係。有些工作的第一版就是我做出來的,但是現在這些人不講武德,引用不規範,搞得這些成果現在的歸屬認知有問題。」雖然大爺氣性很大,但不得不說Jürgen Schmidhuber這麼多年來確實有些意難平。同為AI領域的前輩級人物,開創性成果沒少做,但獲得的聲譽和認可度似乎總與期望值有很大差距。
尤其是在2018年,深度學習三巨頭:Yoshua Bengio、Geoffrey Hinton、Yann LeCun榮獲圖靈獎時,就有不少的網友發出了質疑:圖靈獎為什麼沒頒給LSTM之父Jürgen Schmidhuber?他也是深度學習領域的大家啊。
時間回到2015年,當時Bengio、Hinton和LeCun三位大神聯手在Nature上發了一篇review,題目直接就叫《Deep Learning》。
文章從傳統的機器學習技術講起,總結了現代機器學習的主要架構和方法,描述了訓練多層網路架構的反向傳播演算法,以及卷積神經網路的誕生,分散式表示和語言處理,以及遞歸神經網路及其應用等等。
不到一個月後,Schmidhuber就在自己的部落格上發文進行了批評。
Schmidhuber表示,這篇文章讓他非常不爽,因為全文多次引用三位作者自己的研究成果,而對於其他先驅人物對深度學習更早的貢獻則隻字不提。
他認為,獲得圖靈獎的「深度學習三巨頭」儼然成了貪他人之功,以為己利的雞賊、借助江湖地位互相吹捧,壓制老前輩的學閥。
2016年,Jürgen Schmidhuber又在NIPS大會的Tutorial上和「GAN之父」Ian Goodfellow正面交鋒。
當時,Goodfellow正講到GAN與其他模型比較時,Schmidhuber便站出來提問打斷。
Schmidhuber的問題很長,大概說了兩分鐘,主要內容是強調說自己在1992年就已經提出來PM,接著說了一大堆它的原理、實現過程等等,最後圖窮匕見:你說說你的GAN和我的PM有沒有相似之處?
Goodfellow也不示弱:你說的問題我們之前在郵件裡已經交流過很多次了,我也早就公開回應過你了,不想在現在的場合浪費聽眾的耐心。
等等,等等……
或許Schmidhuber的這些「蜜汁操作」,可以用LeCun曾經的一封郵件來解釋:
「Jürgen 對眾人的認可過於痴迷,總是說自己沒有得到應得的很多東西。幾乎是慣性地,他總是在別人每次講話結束時都要站起來,說剛剛提出的成果有他的功勞,大體上看,這種行為並不合理。」
以上是LeCun論文被指「洗稿」? LSTM之父發文怒懟:抄我的還標原創的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

StableDiffusion3的论文终于来了!这个模型于两周前发布,采用了与Sora相同的DiT(DiffusionTransformer)架构,一经发布就引起了不小的轰动。与之前版本相比,StableDiffusion3生成的图质量有了显著提升,现在支持多主题提示,并且文字书写效果也得到了改善,不再出现乱码情况。StabilityAI指出,StableDiffusion3是一个系列模型,其参数量从800M到8B不等。这一参数范围意味着该模型可以在许多便携设备上直接运行,从而显著降低了使用AI

在法國巴黎舉行的電腦視覺頂峰大會ICCV2023剛結束!今年的最佳論文獎,簡直是「神仙打架」。例如,兩篇獲得最佳論文獎的論文中,就包括顛覆文生圖AI領域的著作-ControlNet。自從開源以來,ControlNet已經在GitHub上獲得了24k個星星。無論是對於擴散模型還是整個電腦視覺領域來說,這篇論文的獲獎都是實至名歸的而最佳論文獎榮譽提名,則頒給了另一篇同樣出名的論文,Meta的「分割一切”模型SAM。自推出以來,“分割一切”已經成為了各種圖像分割AI模型的“標竿”,包括後來居上的

1月11日消息,昨日舉辦的發表會上,榮耀正式推出MagicOS8.0,其中一項名為「任意門」的特色功能引發爭議。羅永浩在其闢謠號上指責「任意門」榮耀抄襲錘子手機的OneStep(一步)功能,並喊話趙明:「這就是赤裸裸照抄錘手機的OneStep啊,趙老師是不是被做產品的孩子給騙了?相信貴公司不至於這麼無恥,你們又不是蘋果。」對此,榮耀官方尚未公開回應。根據榮耀官方介紹,「任意門」功能帶來了新一代的人機互動體驗,

生成式AI已經風靡了人工智慧社區,無論是個人還是企業,都開始熱衷於創建相關的模態轉換應用,例如文生圖、文生影片、文生音樂等等。最近呢,來自ServiceNowResearch、LIVIA等科研機構的幾位研究者嘗試以文字描述來產生論文中的圖表。為此,他們提出了一種FigGen的新方法,相關論文也被ICLR2023收錄為了TinyPaper。圖片論文網址:https://arxiv.org/pdf/2306.00800.pdf也許有人會問了,產生論文中的圖表有什麼難的呢?這樣做對科學研究又有哪些幫助呢

正值AAAI 2023論文截止提交之際,知乎上突然出現了一張AI投稿群的匿名聊天截圖。其中有人聲稱,自己可以提供「3000塊一個strong accept」的服務。爆料一出,頓時引起了網友的公憤。不過,先不要急。知乎大佬「微調」表示,這大機率只是「口嗨」而已。根據「微調」透露,打招呼和團體犯案這個是任何領域都不能避免的問題。隨著openreview的興起,cmt的各種缺點也越來越清楚,未來留給小圈子操作的空間會變小,但永遠會有空間。因為這是個人的問題,不是投稿系統和機制的問題。引入open r

神經輻射場(NeuralRadianceFields)自2020年被提出以來,相關論文數量呈指數增長,不僅成為了三維重建的重要分支方向,也逐漸作為自動駕駛重要工具活躍在研究前沿。 NeRF這兩年異軍突起,主要因為它跳過了傳統CV重建pipeline的特徵點提取和匹配、對極幾何與三角化、PnP加BundleAdjustment等步驟,甚至跳過mesh的重建、貼圖和光追,直接從2D輸入影像學習一個輻射場,然後從輻射場輸出逼近真實照片的渲染影像。也就是說,讓一個基於神經網路的隱式三維模型,去擬合指定視角

自2017年首次舉辦以來,CoRL已成為了機器人學與機器學習交叉領域的全球頂級學術會議之一。 CoRL是機器人學習研究的單一主題會議,涵蓋了機器人學、機器學習和控制等多個主題,包括理論與應用2023年的CoRL大會將於11月6日至9日在美國亞特蘭大舉行。根據官方數據透露,今年有來自25個國家的199篇論文入選CoRL。熱門主題包括操作、強化學習等。雖然相較於AAAI、CVPR等大型AI學術會議,CoRL的規模較小,但隨著今年大模型、具身智能、人形機器人等概念的熱度上升,值得關注的相關研究也會

剛剛,CVPR 2023發文表示:今年,我們收到了創紀錄的9155份論文(比CVPR2022增加了12%),並錄用了2360篇論文,接收率為25.78%。根據統計,CVPR的投稿量在2010-2016的7年間僅從1724增加到2145。在2017年後則迅速飆升,進入快速增長期,2019年首度突破5000,至2022年投稿數已達8,161份。可以看到,今年提交了共9155份論文確實創下了最高紀錄。疫情放開後,今年的CVPR頂將在加拿大舉行。今年採用單軌會議的形式,並取消了傳統Oral的評選。谷歌研究
