Generative AI는 빠르게 발전하고 있으며, Retrieval Augmented Generation(RAG)은 대형 언어 모델(LLMs)의 정확성과 관련성을 향상시키는 핵심 기술로 주목받고 있습니다. RAG은 LLMs가 외부 지식 기반에 접근할 수 있게 하여 특정 또는 최신 정보 처리의 한계를 극복할 수 있도록 합니다.
RAG의 작동 원리
RAG은 LLMs와 정보 검색 시스템을 결합한 방법입니다. 작동 과정은 다음과 같습니다:
- 검색 단계: 사용자가 질문을 제출하면, 관련 정보를 지식 기반에서 검색합니다.
- 증강 단계: 검색된 정보는 LLM의 입력 프롬프트를 강화하는 데 사용됩니다.
- 생성 단계: LLM은 내부 지식과 증강된 정보를 바탕으로 응답을 생성합니다.
이 방법은 LLM의 출력이 정확하고 최신 정보를 반영하도록 하며, 환각(hallucinations, 잘못된 정보 생성)을 줄이는 데 효과적입니다.
- 생성 단계: LLM은 내부 지식과 증강된 정보를 바탕으로 응답을 생성합니다.
최근 발전: KG-RAG
KG-RAG는 지식 그래프(KGs)를 RAG에 통합하여 능력을 향상시키는 새로운 접근법입니다.
- 지식 그래프: 엔티티와 관계를 명시적으로 정의한 구조화된 지식 표현입니다.
- KG-RAG 파이프라인: 텍스트에서 KG를 구성하고, 이를 사용하여 질문에 답하기 위해 정보를 검색하며, Chain of Explorations(CoE)라는 방법을 통해 KG 내 노드와 관계를 순차적으로 탐색합니다.
KG-RAG의 이점은 다음과 같습니다:
- KG-RAG 파이프라인: 텍스트에서 KG를 구성하고, 이를 사용하여 질문에 답하기 위해 정보를 검색하며, Chain of Explorations(CoE)라는 방법을 통해 KG 내 노드와 관계를 순차적으로 탐색합니다.
- 환각 감소: 구조화된 지식에 기반하여 부정확한 정보를 줄입니다.
- 창의성 강화: LLM의 창의적이고 추론적인 능력을 유지합니다.
한국 맥락에서의 실용적 적용
“Prompt-RAG: Pioneering Vector Embedding-Free Retrieval Augmented Generation in Niche Domains, Exemplified by Korean Medicine”라는 논문은 한국 의학 분야에서 RAG을 벡터 임베딩 없이 적용한 사례를 보여줍니다. 이 접근법은 자연어 프롬프트를 사용하여 정보를 검색하며, 특정 도메인에서 효과적입니다.
마무리
RAG과 KG-RAG은 외부 지식 기반과 구조화된 데이터를 활용하여 AI 시스템을 더 신뢰할 수 있고, 정확하며 창의적으로 만드는 데 중요한 역할을 할 것으로 보입니다.