최근 대규모 언어 모델(Large Language Model, LLM)은 자연어 처리뿐 아니라 수학적 추론 능력 또한 핵심 지표로 강조되어, 이를 강화하기 위해 단계적 사고 과정을 예시에 포함하는 Chain-of-Thought(CoT) 기법이 적극 활용되고 있다. 그러나 복잡한 문제 해결 시, CoT의 효과는 활용 비용이 높은 대규모 모델에서만 두드러지는 한계가 있다. 이에 본 연구는 중소형 모델의 성능 향상을 위해 검색 증강 생성(RAG) 기술을 적용하였는데, 이는 문제와 연관된 외부 정보를 검색·통합해 추론을 보완하는 방법이다. 특히, RAG 성능은 임베딩 품질에 좌우되므로 한국어 수학 문제에 적합한 임베딩 모델의 탐색에 중점을 두었다. 이를 위해 GPT-4o mini 모델을 기반으로 ‘수학 과목 자동 풀이 데이터셋’에 대한 RAG-CoT 기법의 성능을 확인하였으며, 그 결과 제안 방법론을 기반으로 구성된 프롬프트 환경에서 가장 높은 정확도를 기록하였다. 또한 범용 임베딩 모델을 적용하였을 때 RAG 기반 수학추론 성능이 가장 우수하였고, 이는 수학 특화 및 코드 특화 모델을 상회하였다. 본 연구는 한국어 수학 문제 해결을 위한 RAG 설계 방향을 제시하고, 중소형 모델 환경에서도 비용 효율적 성능 향상이 가능함을 실험을 통해 입증하였다.
E-mail: yoseop1850@mobile.re.kr