기술 주변기기 일체 포함 르쿤 신문 '세탁' 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

르쿤 신문 '세탁' 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

Apr 09, 2023 pm 01:11 PM
종이 표절

튜링상 수상자 얀 르쿤(Yann Lecun)은 AI 업계 3대 거인 중 한 명으로, 그가 발표한 논문은 자연스럽게 '성경'으로 연구된다.

그런데 최근 누군가 갑자기 르쿤을 “같은 페이지에 앉아 있다”고 비난하는 일이 벌어졌습니다. “그것은 내 핵심 관점을 바꿔 말한 것에 지나지 않습니다.”

혹시...

르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

네, 이 분은 다름 아닌 'LSTM의 아버지' 위르겐 슈미트후버입니다.

르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

Schmidhuber는 LeCun의 논문이 1990년부터 2015년까지의 중요한 결과를 언급하지 않았다고 말했습니다. 기사에 언급된 "주요 원본 결과"에는 "하위 목표 학습, 예측 가능한 추상 표현, 다중"과 같은 개념도 발표했습니다. 시간 규모".

르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

원본 트윗에 사용된 rehash라는 단어는 혁신을 이루지 않고 독창적인 아이디어를 다른 방식으로 표현하는 것을 의미하며, 이것이 적절한 "rehash"입니다.

동시에 증거를 자세하게 나열한 장문의 글도 올렸습니다. 물론 이는 슈미트후버의 일방적인 발언으로밖에 볼 수 없다.

르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

그러나 네티즌들은 당연히 구매하지 않았습니다.

"당신은 한때 AI 커뮤니티의 거물이었지만 이제는 모든 사람의 학업 성취가 당신의 아이디어를 표절했다고 주장하는 것으로 유명해졌습니다."

르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

"당신은 신경망, 변환기, LSTMS를 발명했습니다. 그리고 화장지와 빵 조각도 당신 가족이 발명했습니다."

르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

그럼 뭔데요?

먼저 문제의 내용을 자세히 살펴보겠습니다.

2022년 6월 14일, Schmidhuber의 Science Tabloid(MIT Technology Review)라는 '과학 타블로이드'는 LeCun의 보고서를 발표했는데, 이 보고서는 그의 새로운 AGI 개념을 자세히 설명합니다.

르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

얀 르쿤(Yann LeCun)은 지난 6월 27일, "AI의 미래 발전 방향을 제시하는 작품"이라며 수년간 아껴두었던 "자율 기계 지능을 향한 길(A Path Towards Autonomous Machine Intelligence)"이라는 논문을 출판했습니다. 르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

이 논문은 "기계가 어떻게 동물과 인간처럼 학습할 수 있는가"라는 문제를 체계적으로 이야기하고 있습니다. 60페이지가 넘는 분량이므로 관심 있는 친구들이 읽어볼 수 있습니다.

LeCun은 이 기사가 향후 5~10년 동안 AI 개발의 일반적인 방향에 대한 자신의 생각일 뿐만 아니라 향후 몇 년 동안 연구할 계획이며 AI 분야에 더 많은 사람들에게 영감을 주기를 희망한다고 말했습니다. ​​​함께 공부할 분야. 르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

LeCun의 논문의 영향력이 커지면서 Schmidhuber는 마침내 7월 7일에 LeCun이 자신의 아이디어를 표절했다고 화가 나서 직접 작성한 장문의 기사를 공개하기로 결정했습니다.

르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

Schmidhuber는 기사가 공개되기 전에 "과학 타블로이드"가 보고서 초안(여전히 기밀)을 보냈으며 이에 대해 몇 가지 의견을 제시할 수 있기를 바랐다고 말했습니다.

그래서 슈미트후버는 르쿤의 글이 기본적으로 그의 전작을 복제한 것이며 인용되지 않았다는 '불만'을 설득력 있게 썼다.

당연히 그의 발언은 호의적이지 않았습니다.

LeCun이 내 작업을 인용 없이 반복했습니다!

슈미트후버는 이 장문의 글에서 독자들이 원본 논문을 연구하고 이러한 논평의 과학적 내용을 스스로 판단할 수 있기를 바라며, 또한 자신의 작업이 인정받고 인정받기를 바란다고 밝혔습니다.

LeCun은 논문 시작 부분에서 이 기사에 설명된 많은 아이디어가 (거의 모두) 다양한 저자에 의해 다양한 맥락과 다양한 형태로 제안되었다고 말했습니다. Schmidhuber는 불행히도 이 논문의 내용 대부분은 단지 단순한 내용일 뿐이라고 반박했습니다. 1990년 이후에 작성된 논문은 "친숙"하며 인용 식별자가 없습니다.

먼저 이번 르쿤 공격의 증거(일부)부터 살펴보겠습니다.

증거 1:

LeCun: 오늘날의 인공 지능 연구는 세 가지 주요 과제를 해결해야 합니다. (1) 기계는 어떻게 주로 관찰을 통해 세계를 표현하고, 예측하고, 행동을 취하는 방법을 배울 수 있습니까? (2) 기계 경사 기반 학습과 호환되는 방식으로 추론하고 계획하는 방법(3) 기계가 여러 수준의 추상화 및 여러 시간 규모에서 계층적 방식으로 인식(3a) 및 행동 계획(3b)을 표현하는 방법을 학습하는 방법

Schmidhuber : 이러한 질문은 1990년, 1991년, 1997년 및 2015년에 발표된 일련의 논문에서 자세히 다루어졌습니다.

1990년, 장기 계획 및 강화 학습(RL)과 인공 호기심을 통한 탐색을 위한 경사 기반 인공 신경망(NN)에 대한 첫 번째 작품이 출판되었습니다.

컨트롤러라고 불리는 두 개의 순환 신경망(RNN, 가장 강력한 NNN)과 월드 모델의 조합을 설명합니다.

그 중에서 월드 모델은 컨트롤러의 동작 결과를 예측하는 방법을 학습합니다. 컨트롤러는 월드 모델을 사용하여 여러 시간 단계를 미리 계획하고 예측된 보상을 최대화하는 동작 시퀀스를 선택할 수 있습니다.

르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

신경망을 기반으로 한 계층적 인식(3a)에 대한 답과 관련하여 이 문제는 1991년에 출판된 나의 "최초의 딥 러닝 머신 - 신경 시퀀스 차단기"에 의해 적어도 부분적으로 해결되었습니다.

RNN(반복 신경망)의 심층 계층에서 비지도 학습 및 예측 코딩을 사용하여 여러 수준의 추상화 및 여러 시간 규모(정확히 LeCun이 쓴 내용) 내부 표현에서 "긴 데이터 시퀀스의 가장 좋은 특징"을 찾습니다.

르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

신경망을 기반으로 한 계층적 행동 계획(3b)에 대한 답변과 관련하여 이 문제는 1990년 계층적 강화 학습(HRL)에 대한 나의 논문을 통해 적어도 부분적으로 해결되었습니다.

르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

증거 2:

LeCun: 비용 모듈의 두 하위 모듈이 모두 미분 가능하므로 에너지 구배는 다른 모듈, 특히 월드 모듈, 성능 모듈 및 인식 모듈을 통해 역전파될 수 있습니다. .

Schmidhuber: 1980년에 출판된 "Feedforward Neural Networks를 사용한 시스템 식별" 논문을 인용하여 제가 1990년에 출판한 내용이 바로 이것입니다.

2000년에 나의 전 박사후 연구원인 Marcus Hutter는 세계 모델과 컨트롤러를 학습하기 위한 이론적으로 최적이고 일반적이며 미분 불가능한 방법을 발표하기도 했습니다. (Gödel 머신이라고 불리는 수학적으로 최적인 자기 참조 AGI도 참조하세요.)

증거 3:

LeCun: 단기 메모리 모듈 아키텍처는 키-값 메모리 네트워크와 유사할 수 있습니다.

Schmidhuber: 그러나 그는 내가 1991년에 시퀀스 처리 "Fast Weight Controllers" 또는 Fast Weight Programmers(FWPs)를 설명할 때 이러한 "키-값 메모리 네트워크"를 처음으로 출판했다는 사실을 언급하지 않았습니다. FWP에는 역전파를 통해 학습하여 다른 신경망의 빠른 가중치를 빠르게 수정하는 느린 신경망이 있습니다.

르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

증거 4:

LeCun: 이 논문의 주요 원래 기여는 다음과 같습니다. (I) 모든 모듈이 구별 가능하고 그 중 많은 모듈이 구별 가능하도록 훈련된 전체적인 인지 아키텍처. (II) H-JEPA: 여러 추상화 수준과 여러 시간 규모에서 표현을 학습하는 세계의 비생성 계층적 아키텍처를 예측하는 모델입니다. (III) 유익하면서도 예측 가능한 표현을 생성하는 일련의 비대조적인 자기 지도 학습 패러다임입니다. (IV) 불확실성 하에서 계층적 계획을 위한 예측 세계 모델의 기초로 H-JEPA를 사용합니다.

이와 관련하여 슈미트후버님도 르쿤이 나열한 4개의 모듈에 따라 하나씩 교정을 해주시고, 자신의 논문과 겹치는 점을 지적해 주셨습니다.

기사 끝에서 그는 이 기사의 요점이 출판된 논문이나 저자가 반영한 아이디어를 공격하는 것이 아니라고 밝혔습니다. 핵심은 이러한 아이디어가 LeCun의 논문에 쓰여진 것처럼 "독창적"이지 않다는 것입니다.

그는 이러한 아이디어 중 많은 부분이 나와 내 동료들의 노력으로 제시되었다고 말했습니다. 현재 LeCun이 제안하는 그의 "주요 독창적인 기여"는 실제로 독자들이 스스로 판단할 수 있기를 바랍니다. 내 댓글 중.

LSTM의 아버지부터...

사실 이 남성이 자신의 결과를 다른 사람이 표절했다고 주장한 것은 이번이 처음이 아닙니다.

작년 9월 초, 그는 가장 많이 인용되는 신경망 논문 결과가 내 연구실에서 완료된 작업을 기반으로 한 것이라고 자신의 블로그에 게시했습니다.

"물론 LSTM도 있습니다. 오늘날의 유명한 선구적인 작업은 다음과 같습니다. ResNet, AlexNet, GAN, Transformer 등이 모두 내 작업과 관련이 있기 때문에 일부 작업의 첫 번째 버전은 내가 수행했지만 이제 이 사람들은 무도덕을 따르지 않으며 인용이 불규칙합니다. "삼촌은 매우 화가 났지만, 지난 몇 년간 위르겐 슈미트후버는 다소 화가 났다는 점을 말씀드리고 싶습니다. 두 사람 모두 인공지능(AI) 분야의 최고 권위자이자 획기적인 성과를 많이 거두었지만, 그들이 받는 평판과 인지도는 항상 기대에 크게 뒤떨어지는 것 같다.

특히 2018년 딥 러닝의 3대 거인인 요슈아 벤지오(Yoshua Bengio), 제프리 힌튼(Geoffrey Hinton), 얀 르쿤(Yann LeCun)이 튜링상을 수상했을 때 많은 네티즌들은 왜 LSTM의 아버지인 위르겐 슈미트후버(Jurgen Schmidhuber)에게 튜링상을 수여하지 않았느냐고 의문을 제기했습니다. 그는 딥러닝 분야의 달인이기도 하다.

르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

2015년, 벤지오, 힌튼, 르쿤 세 명의 천재가 공동으로 네이처에 리뷰를 올렸는데, 제목이 바로 '딥러닝'이었습니다.

이 기사는 전통적인 기계 학습 기술에서 시작하여 현대 기계 학습의 주요 아키텍처와 방법을 요약하고 다층 네트워크 아키텍처 훈련을 위한 역전파 알고리즘과 컨볼루션 신경망의 탄생, 분산 표현 및 언어 처리에 대해 설명합니다. 순환 신경망 및 그 응용 등

르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

한 달도 채 지나지 않아 Schmidhuber는 자신의 블로그에 비판 글을 올렸습니다.

르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

Schmidhuber는 딥 러닝에 대한 다른 선구자들의 초기 기여를 언급하지 않은 채 전체 기사에서 세 저자의 연구 결과를 여러 번 인용했기 때문에 이 기사가 자신을 매우 불행하게 만들었다고 말했습니다.

튜링상을 수상한 '딥 러닝 3인방'이 남의 신용을 탐하고 자기 이익만을 추구하는 도둑이 되었다고 생각합니다. 그들은 세상에서 자신의 지위를 이용하여 서로 아부하고 선배들을 억압합니다. .

2016년 Jurgen Schmidhuber는 NIPS 컨퍼런스 튜토리얼에서 "GAN의 아버지" Ian Goodfellow와 정면 대결을 펼쳤습니다.

당시 Goodfellow가 GAN을 다른 모델과 비교하는 것에 대해 이야기하고 있을 때 Schmidhuber가 자리에서 일어나 질문을 했습니다.

르쿤 신문 세탁 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.

Schmidhuber의 질문은 매우 길어서 2분 정도 진행되었습니다. 주요 내용은 그가 1992년에 PM을 제안했다는 점을 강조한 후 PM의 원칙, 구현 프로세스 등에 대해 많은 이야기를 나누는 것이었고 마지막으로 그림이 나왔습니다. 다키미: 당신의 GAN과 내 PM 사이에 어떤 유사점이 있는지 말씀해주실 수 있나요?

Goodfellow는 약점을 보여주지 않았습니다. 이전에 이메일을 통해 여러 번 언급하신 문제에 대해 전달했으며, 이번 기회에 청중의 인내심을 낭비하고 싶지 않습니다.

잠깐, 잠깐...

아마도 Schmidhuber의 이러한 "꿀벌 작전"은 LeCun의 이메일로 설명될 수 있습니다:

"Jurgen은 모든 사람의 인정에 너무 집착하고 항상 자신이 그것을 얻지 못한다고 말합니다. 그는 그는 거의 습관적으로 연설이 끝날 때마다 자리에서 일어나 방금 발표한 결과에 대해 책임이 있다고 말합니다. 일반적으로 이러한 행동은 불합리합니다.

위 내용은 르쿤 신문 '세탁' 혐의? LSTM의 아버지는 화를 내며 다음과 같이 썼습니다. 내 작업을 복사하여 원본으로 표시하세요.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

<gum> : Bubble Gum Simulator Infinity- 로얄 키를 얻고 사용하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Nordhold : Fusion System, 설명
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Mandragora : 마녀 트리의 속삭임 - Grappling Hook 잠금 해제 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

Stable Diffusion 3 논문이 드디어 공개되고, 아키텍처의 세부 사항이 공개되어 Sora를 재현하는 데 도움이 될까요? Stable Diffusion 3 논문이 드디어 공개되고, 아키텍처의 세부 사항이 공개되어 Sora를 재현하는 데 도움이 될까요? Mar 06, 2024 pm 05:34 PM

StableDiffusion3의 논문이 드디어 나왔습니다! 이 모델은 2주 전에 출시되었으며 Sora와 동일한 DiT(DiffusionTransformer) 아키텍처를 사용합니다. 출시되자마자 큰 화제를 불러일으켰습니다. 이전 버전과 비교하여 StableDiffusion3에서 생성된 이미지의 품질이 크게 향상되었습니다. 이제 다중 테마 프롬프트를 지원하고 텍스트 쓰기 효과도 향상되었으며 더 이상 잘못된 문자가 표시되지 않습니다. StabilityAI는 StableDiffusion3이 800M에서 8B 범위의 매개변수 크기를 가진 일련의 모델임을 지적했습니다. 이 매개변수 범위는 모델이 많은 휴대용 장치에서 직접 실행될 수 있어 AI 사용이 크게 줄어든다는 것을 의미합니다.

ICCV'23 논문상 'Fighting of Gods'! Meta Divide Everything과 ControlNet이 공동 선정되었는데, 심사위원들을 놀라게 한 기사가 또 있었습니다. ICCV'23 논문상 'Fighting of Gods'! Meta Divide Everything과 ControlNet이 공동 선정되었는데, 심사위원들을 놀라게 한 기사가 또 있었습니다. Oct 04, 2023 pm 08:37 PM

프랑스 파리에서 열린 최고의 컴퓨터 비전 컨퍼런스 ICCV2023이 막 끝났습니다! 올해 최우수 논문상은 그야말로 '신들의 싸움'이다. 예를 들어 최우수 논문상을 수상한 두 논문에는 빈센트 그래프 AI 분야를 전복한 작품인 ControlNet이 포함됐다. 오픈 소스 이후 ControlNet은 GitHub에서 24,000개의 별을 받았습니다. 확산 모델이든, 컴퓨터 비전 전체 분야이든, 이 논문의 수상은 당연한 것입니다. 최우수 논문상에 대한 명예로운 언급은 또 다른 유명한 논문인 Meta의 "Separate Everything" "Model SAM에 수여되었습니다. "Segment Everything"은 출시 이후 뒤에서 나온 모델을 포함해 다양한 이미지 분할 AI 모델의 "벤치마크"가 되었습니다.

Luo Yonghao는 Honor Anygate의 스마트폰 One Step 모방에 대해 의문을 제기하고 Zhao Ming을 불렀습니다. Apple을 모방할 필요는 없습니다. Luo Yonghao는 Honor Anygate의 스마트폰 One Step 모방에 대해 의문을 제기하고 Zhao Ming을 불렀습니다. Apple을 모방할 필요는 없습니다. Jan 12, 2024 pm 10:03 PM

11일 뉴스에 따르면 아너는 어제 열린 기자간담회에서 매직OS 8.0을 공식 출시했다. '애니 도어(Any Door)'라는 특장점 중 하나가 논란을 불러일으켰다. 루오용호는 아너가 스마티산 휴대폰의 원스텝 기능을 베꼈다는 자신의 계정을 반박하는 루머에 대해 조밍을 비난하며 “이건 스마티잔 휴대폰의 원스텝의 알몸 카피다. 자오 씨가 만든 아이들에게 속은 걸까? 제품?" ? 나는 당신의 회사가 그렇게 뻔뻔하지 않다고 믿습니다. 당신은 Apple이 아닙니다.” Honor는 아직 공개적으로 응답하지 않았습니다. Honor의 공식 소개에 따르면 "모든 문" 기능은 차세대 인간-컴퓨터 상호 작용 경험을 제공합니다.

확산 모델을 사용하여 종이 일러스트레이션을 자동으로 생성할 수도 있으며 ICLR에서도 허용됩니다. 확산 모델을 사용하여 종이 일러스트레이션을 자동으로 생성할 수도 있으며 ICLR에서도 허용됩니다. Jun 27, 2023 pm 05:46 PM

생성형 AI(Generative AI)는 인공 지능 커뮤니티를 휩쓸었습니다. 개인과 기업 모두 Vincent 사진, Vincent 비디오, Vincent 음악 등과 같은 관련 모달 변환 애플리케이션을 만드는 데 열중하기 시작했습니다. 최근 ServiceNow Research, LIVIA 등 과학 연구 기관의 여러 연구자들이 텍스트 설명을 기반으로 논문에서 차트를 생성하려고 시도했습니다. 이를 위해 그들은 FigGen이라는 새로운 방법을 제안했고, 관련 논문도 ICLR2023에 TinyPaper로 포함됐다. 그림 논문 주소: https://arxiv.org/pdf/2306.00800.pdf 어떤 사람들은 '논문에서 차트를 생성하는 데 무엇이 그렇게 어렵나요?'라고 묻습니다. 이것이 과학 연구에 어떻게 도움이 됩니까?

채팅 스크린샷을 통해 AI 리뷰의 숨겨진 규칙을 밝혀보세요! AAAI 3000위안은 강력하게 받아들여집니까? 채팅 스크린샷을 통해 AI 리뷰의 숨겨진 규칙을 밝혀보세요! AAAI 3000위안은 강력하게 받아들여집니까? Apr 12, 2023 am 08:34 AM

AAAI 2023 논문 제출 마감일이 다가오던 무렵, AI 제출 그룹의 익명 채팅 스크린샷이 갑자기 Zhihu에 나타났습니다. 그 중 한 명은 "3000위안 강력한 수락" 서비스를 제공할 수 있다고 주장했습니다. 해당 소식이 알려지자 네티즌들은 곧바로 공분을 샀다. 그러나 아직 서두르지 마십시오. Zhihu 상사 "Fine Tuning"은 이것이 아마도 "언어적 즐거움"일 가능성이 높다고 말했습니다. 『파인튜닝』에 따르면 인사와 갱범죄는 어느 분야에서나 피할 수 없는 문제다. openreview의 등장으로 cmt의 다양한 단점이 점점 더 명확해졌습니다. 앞으로는 작은 서클이 운영할 수 있는 공간은 더 작아지겠지만 항상 여유가 있을 것입니다. 이는 개인적인 문제이지 투고 시스템이나 메커니즘의 문제가 아니기 때문입니다. 오픈R을 소개합니다

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약! NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약! Nov 14, 2023 pm 03:09 PM

Neural Radiance Fields가 2020년에 제안된 이후 관련 논문의 수가 기하급수적으로 늘어났습니다. 이는 3차원 재구성의 중요한 분야가 되었을 뿐만 아니라 자율 주행을 위한 중요한 도구로서 연구 분야에서도 점차 활발해졌습니다. NeRF는 지난 2년 동안 갑자기 등장했습니다. 주로 특징점 추출 및 일치, 에피폴라 기하학 및 삼각측량, PnP 및 번들 조정 및 기존 CV 재구성 파이프라인의 기타 단계를 건너뛰고 메쉬 재구성, 매핑 및 광 추적도 건너뛰기 때문입니다. , 2D에서 직접 입력된 이미지를 이용해 방사선장을 학습한 후, 방사선장에서 실제 사진에 가까운 렌더링 이미지를 출력합니다. 즉, 신경망을 기반으로 한 암시적 3차원 모델을 지정된 관점에 맞추도록 합니다.

중국팀이 최우수 논문상과 최우수 시스템 논문상을 수상하며 CoRL 연구 결과가 발표됐다. 중국팀이 최우수 논문상과 최우수 시스템 논문상을 수상하며 CoRL 연구 결과가 발표됐다. Nov 10, 2023 pm 02:21 PM

CoRL은 2017년 처음 개최된 이후 로봇공학과 머신러닝이 교차하는 분야에서 세계 최고의 학술 컨퍼런스 중 하나로 자리매김했습니다. CoRL은 이론과 응용을 포함하여 로봇공학, 기계학습, 제어 등 다양한 주제를 다루는 로봇학습 연구를 위한 단일 주제 컨퍼런스입니다. 2023 CoRL 컨퍼런스는 11월 6일부터 9일까지 미국 애틀랜타에서 개최됩니다. 공식 자료에 따르면 올해 CoRL에는 25개국 199편의 논문이 선정됐다. 인기 있는 주제로는 운영, 강화 학습 등이 있습니다. CoRL은 AAAI, CVPR 등 대규모 AI 학술회의에 비해 규모는 작지만, 올해 대형 모델, 체화된 지능, 휴머노이드 로봇 등 개념의 인기가 높아지면서 관련 연구도 주목할 만하다.

CVPR 2023 순위 공개, 합격률 25.78%! 2,360편의 논문이 접수되었고, 제출 건수는 9,155편으로 급증했습니다. CVPR 2023 순위 공개, 합격률 25.78%! 2,360편의 논문이 접수되었고, 제출 건수는 9,155편으로 급증했습니다. Apr 13, 2023 am 09:37 AM

방금 CVPR 2023에서는 다음과 같은 기사를 발표했습니다. 올해 우리는 기록적인 9,155편의 논문을 접수했으며(CVPR2022보다 12% 더 많음), 2,360편의 논문을 접수했으며 합격률은 25.78%입니다. 통계에 따르면 2010년부터 2016년까지 7년간 CVPR 제출 건수는 1,724건에서 2,145건으로 증가하는 데 그쳤다. 2017년 이후 급등하며 급속한 성장기에 접어들었고, 2019년에는 처음으로 5,000건을 돌파했고, 2022년에는 투고 건수가 8,161건에 이르렀다. 보시다시피 올해 총 9,155편의 논문이 제출되어 역대 최고 기록을 세웠습니다. 전염병이 완화된 후 올해 CVPR 정상회담은 캐나다에서 개최될 예정입니다. 올해는 단일 트랙 컨퍼런스 형식을 채택하고 기존 구술 선발 방식을 폐지한다. 구글 조사

See all articles