이번 ICCV 2025에서는 논문 투고 수가 놀라운 11,152편에 달해 역대 기록을 갱신했습니다. 심사 결과 발표 후, 일부는 높은 점수의 성적표를 자랑하고, 일부는 심사 의견에 실망했습니다. 이렇게 방대한 투고 규모 속에서 대회는 어떻게 심사의 질을 보장할 수 있을까요?
ICCV 2025 심사 결과가 발표되었습니다!
이번 ICCV 논문 투고 수가 역대 신고점을 찍었습니다. 대회 공식 발표에 따르면, 올해 총 11,152건의 유효 투고가 접수되어 이전 대회 규모를 크게 뛰어넘었습니다.
ICCV 2023 학회에서는 총 8,088편의 논문이 접수되었습니다
심사 마감일까지 11,152편의 유효 투고 논문은 모두 최소 3건의 심사 의견을 받았습니다.
저자들은 5월 16일 밤 11시 59분(하와이 시간) 이전에 반박(rebuttal)을 제출할 수 있으며, ICCV 2025는 6월 25일에 최종 채택 결정을 발표할 예정입니다.
(이하 생략, 동일한 방식으로 번역됨)막스 플랑크 연구소 소장 마이클 블랙은 매우 동의하며, CVPR/ICCV/ECCV에 3편 이상의 논문을 게재한 저자는 반드시 심사에 참여해야 한다는 요구사항을 수정하겠다고 밝혔습니다.
심사 마감일을 놓쳐 자신의 논문이 거부될까 봐 두려워하는 저자들이 있습니다.
ICCV 공식 발표에 따르면, 97.18%의 심사자가 제시간에 제출했으며, 단 95명의 심사자만이 마감일을 놓쳤습니다.
대규모 언어 모델 사용 금지
또한, ICCV 2025는 심사 과정에서 ChatGPT와 같은 대규모 언어 모델 사용을 명시적으로 금지하여 심사 의견의 독창성과 진실성을 보장합니다.
심사자는 논문 저자에 대한 책임감을 가지고 진실된 의견을 제공해야 하며, 온라인 챗봇은 모델 개선을 위해 대화 기록을 수집할 것입니다.
따라서 심사 과정에서 이를 사용하는 것은 ICCV의 기밀 정책을 위반하게 됩니다.
캘리포니아 대학교 샌디에고 캠퍼스의 알렉스는 올해 ICCV 심사를 마친 후 완전히 지쳤다고 말했습니다.
댓글 란에서도 비슷한 느낌을 표현하며 전반적인 논문의 질이 저하되고 있다고 말했습니다.
심사 규칙은 이전의 높은 기준을 유지하며, 심사 마감일을 엄격히 준수하고 각 논문에 대해 최소 3부의 심사 의견을 보장합니다.
마감일 전에 심사를 제출하지 못한 심사자의 논문은 직접 거부될 것입니다.
공식 통계에 따르면, 97.18%의 심사 의견이 제시간에 제출되었으며, 단 95명의 심사자만이 마감 시간을 놓쳤고, 이로 인해 112편의 논문이 영향을 받을 수 있습니다.
ICCV는 심사자들에게 논문의 빛나는 부분을 발견하고 혁신적이거나 대담한 가설을 가진 연구를 장려할 것을 권장합니다.
논문이 새로운 아이디어를 제시했다면, 특정 표준 데이터셋에서 최고 성능을 달성하지 못했더라도 이를 이유로 거부해서는 안 됩니다.
요크 대학교 컴퓨터 과학 조교수 코스타 데르파니스는 한 네티즌의 제안을 전달하며, 좋지 않은 결과를 받은 모든 연구자들을 격려했습니다:
일부 사람들에게 ICCV의 심사 결과는 기대에 미치지 못할 수 있습니다. 이것이 학술 출판의 일반적인 상황입니다. 때때로 성공의 기쁨을 누리고, 흔한 실망과 좌절을 견뎌내야 합니다. 이것이 게임의 규칙입니다.
이 기회를 통해 재조정하고, 심사 의견에서 유효한 피드백을 주의 깊게 검토해보세요. 가치 있는 제안은 종종 그 안에 숨겨져 있습니다. 때로는 더 깊이 파고들어야 하지만, 이러한 의견들은 실제로 연구 성과와 전반적인 연구 접근 방식을 개선하는 데 도움을 줄 수 있습니다.
아직 기회가 있는 동료 연구자들에게 행운을 빕니다! 리버털 단계에서 역전된 많은 논문을 제가 보았습니다.
동료 심사: 영광과 황당함
ICCV 심사 결과와 관련하여, 패턴 인식 연구소의 과학자 안드레아스 마이어는 현재 동료 심사의 현황에 대해 상세한 글을 발표했습니다.
심사: 간결한 비판, 그러나 너무 짧음
한 심사자가 받은 논문은 의료 이미지 생성의 계산 복잡성을 낮추는 기술에 관한 것으로, 고차원 컨볼루션을 저차원 연산으로 분해하는 내용이었습니다.
이는 흥미로운 아이디어로, 완전히 새롭지는 않지만 기술적으로 잠재력이 있어 보였습니다.
심사자는 논문을 꼼꼼히 읽은 후 평가 부분에 초점을 맞추어 다음과 같은 평가를 내렸습니다:
논문은 거의 알려지지 않은 단일 모달리티에서만 테스트되었으며, 공개 데이터셋에 대한 검증이 부족합니다(심사자는 사용 가능한 데이터셋을 친절하게 제안했습니다). 성능 향상 보고서는 견고성 검사가 부족하며, 시각적 비교 제시도 혼란스럽고 CT 이미징의 표준 Hounsfield 단위조차 사용하지 않았습니다.
요약하자면: 좋은 아이디어, 나쁜 평가입니다. 따라서 심사자는 "경계선 거부"(Borderline Reject) 평가를 내렸습니다.
그의 심사는 간결하면서도 정확했습니다: 핵심 개념을 요약하고, 장점을 인정하며, 데이터셋 선택, 일반화 부족, 이미지 제시의 구체적인 문제점을 지적했습니다.
이러한 심사는 전문적이고, 중립적이며, 핵심을 정확히 짚었습니다.
그러나 그는 이 간결한 심사가 후속 "드라마"의 도화선이 될 줄은 전혀 예상하지 못했습니다.
AC는 너무 바빠서 평가 원문을 읽기조차 귀찮아 단순히 복사 붙여넣기로 피드백을 하고 있습니다. 이러한 관료적인 답변은 동료 평가의 본질적인 의미를 상실하게 만듭니다.
ICCV 2025의 이번 논란은 우리에게 다음과 같은 점을 상기시켜줍니다:
평가의 질은 분량이 아니라 통찰력에 있으며, 평가의 의미는 형식이 아니라 대화에 있습니다.
참고 자료:
https://x.com/papercopilot/status/1920964042123858217
https://iccv.thecvf.com/Conferences/2025/ReviewerGuidelines
https://www.reddit.com/r/MachineLearning/comments/1kgemvp/d_iccv_2025_review_and_score_discussion_thread/
https://papercopilot.com/statistics/iccv-statistics/
https://akmaier.substack.com/p/iccv-reviews-2025-where-scripts-dont?r=56pbmv&utm_campaign=post&utm_medium=web&triedRedirect=true
본 글은 위챗 공식 계정 "신지원"에서 작성되었으며, 작성자는 YHs이고 36커에서 게재 허가를 받았습니다.


