Akari Asai
아카리 아사이(Akari Asai)는 워싱턴대학교(University of Washington) Paul G. Allen School 박사과정 학생으로, UW NLP 그룹 소속이다. **검색 보강 언어모델(retrieval-augmented language models)**이 주된 연구 영역이다.
대표 작업은 Self-RAG: Learning to Retrieve, Generate, and Critique through Self-Reflection(ICLR 2024 oral, 상위 1%)이다. LM이 필요할 때 능동적으로 검색을 호출하고, 검색 결과와 자체 생성 결과를 reflection token으로 비판·재고하도록 학습시키는 프레임워크다. 7B·13B 규모로 ChatGPT와 RAG-Llama2-chat을 open-domain QA·추론·사실 검증 태스크에서 모두 능가했고, RAG 분야 표준 레퍼런스 중 하나가 됐다.
박사 논문은 *"Beyond Scaling: Frontiers of Retrieval-Augmented LMs"*로, 단순 스케일링을 넘어 검색 보강이 LM의 한계를 어떻게 보완하는지를 다뤘다.
2026년 Guijin Son이 1저자인 SOOHAK 벤치마크의 조직 팀에 합류했다. SOOHAK 인터뷰에서 기여자들이 "LLM의 검색·검토 능력이 좋아지면서 단일 논문 기반 문제는 더 이상 어렵지 않다"고 보고한 부분은, 결국 Self-RAG류 검색 보강 LM이 평가 설계의 난이도 기준선을 끌어올린 결과로 읽을 수 있다.