Thinking to Recall 게시용 요약
게시용 요약
파트 1 (인사 및 핵심 요약)
오늘의 소개는 Google Research의 "Thinking to Recall"입니다. 추론 모델이 수학/코딩이 아닌 단순 사실 질문에서도 왜 효과적인지를 실험적으로 밝힌 논문입니다. - 추론을 켜면 모델이 "알고는 있지만 꺼내지 못하던" 파라메트릭 지식에 접근 가능 - 두 가지 메커니즘 발견: (1) 추론 토큰의 연산 버퍼 효과 (2) 관련 사실 생성을 통한 factual priming - 단, 추론 중 할루시네이션된 사실이 끼면 최종 답 정답률이 크게 하락 (41.4% → 26.4%) - Gemini-2.5-Flash/Pro, Qwen3-32B에서 검증
댓글에 더 달아두었습니다.
파트 2 (핵심 발견)
pass@100으로 모델의 "지식 경계"를 측정했더니, 추론 ON이 모든 조건에서 pass@k를 높였습니다. 일부는 거의 2배 차이. 복잡한 멀티홉 질문과 단순 질문의 추론 효과가 유의미한 차이가 없어서, 이득이 문제 분해가 아닌 지식 회상 개선에서 온다고 결론냅니다. 덜 유능한 모델일수록 추론의 효과가 더 컸는데, "숨겨진 지식"이 더 많기 때문이라는 해석입니다.
파트 3 (메커니즘)
첫 번째 메커니즘: 추론 trace를 "Let me think."라는 무의미한 문자열로 바꿔도 성능이 오릅니다. 의미와 무관하게 추가 연산 자체가 도움. 다만 이것만으로는 실제 추론 성능에 못 미칩니다.
두 번째 메커니즘: 추론 trace에서 사실만 추출해 컨텍스트로 주면 대부분의 이득을 회복합니다. "네팔의 10번째 왕" 질문에서 1~9번째 왕을 나열하는 것만으로도 10번째를 맞히는 전형적인 factual priming 사례입니다.
파트 4 (리스크와 시사점)
추론 과정에서 할루시네이션된 사실이 포함되면 최종 답도 틀릴 확률이 크게 오릅니다. EntityQuestions에서 clean trace 71.1% vs 할루시네이션 trace 32.2%. 같은 질문 내에서도 이 패턴이 유지되어 난이도 차이가 아닌 사실 정확성의 직접적 영향을 보여줍니다. "할루시네이션 없는 사실을 포함한 trace를 우선 선택"하는 전략만으로도 정확도가 향상되며, 이건 process reward model 설계에 바로 적용 가능한 인사이트입니다.