본문으로 건너뛰기
버전: Next

AI 채팅

Knowledge 상세 화면의 Chat 탭에서는 수집된 문서 데이터를 기반으로 AI와 대화할 수 있습니다. 단순한 챗봇이 아니라, 사용자가 축적한 Knowledge를 검색하고 그 결과를 바탕으로 답변을 생성하는 방식으로 동작합니다. 따라서 AI가 임의로 지어낸 답변이 아닌, 실제 수집된 문서에 근거한 정확한 응답을 받을 수 있습니다.

이 기능은 RAG(Retrieval-Augmented Generation) 파이프라인을 통해 구현됩니다. 사용자의 질문이 입력되면 먼저 관련 문서 청크를 검색(Retrieval)한 뒤, 검색된 컨텍스트를 LLM에 전달하여 답변을 생성(Generation)합니다. 각 답변에는 참조한 출처 정보가 함께 표시되어, 답변의 근거를 직접 확인하고 검증할 수 있습니다.


화면 구조

AI 채팅 화면은 세 개의 패널로 구성되어 있습니다.

왼쪽 패널 — 대화 세션 목록

이전 대화 내역을 관리하는 영역입니다.

기능설명
새 대화상단의 + 새 대화 버튼을 클릭하여 새로운 세션을 시작합니다.
검색세션 목록 상단의 검색 필드에서 대화 제목으로 이전 세션을 검색합니다.
날짜별 그룹세션은 오늘, 어제, 지난 7일, 지난 30일 등으로 자동 그룹핑됩니다.
세션 삭제각 세션 항목의 컨텍스트 메뉴에서 개별 삭제할 수 있습니다.

중앙 영역 — 채팅 메시지

실제 대화가 이루어지는 핵심 영역입니다.

  • 사용자 메시지: 입력한 질문이 말풍선 형태로 표시됩니다.
  • AI 응답: 검색된 문서 컨텍스트를 바탕으로 생성된 답변이 마크다운 형식으로 렌더링됩니다.
  • 인용 pill: 답변 내에 참조한 출처가 번호 형태의 pill로 표시됩니다. 클릭하여 원문을 확인할 수 있습니다.
  • 입력 필드: 화면 하단의 텍스트 입력 영역에서 질문을 작성하고 전송합니다. Enter 키로 전송하며, Shift + Enter로 줄바꿈할 수 있습니다.

오른쪽 패널 — 설정 및 소스 필터

RAG 전략, LLM 설정, 소스 필터링 등 채팅 동작을 세부적으로 제어하는 영역입니다. 각 설정 항목에 대해서는 아래 섹션에서 자세히 설명합니다.


RAG 전략

RAG 전략은 사용자의 질문에 대해 어떤 방식으로 관련 문서를 검색할지 결정합니다. 질문의 특성에 따라 최적의 전략을 선택하면 답변 품질을 크게 향상시킬 수 있습니다.

전략설명추천 사용 사례
vector임베딩 벡터 기반 의미 유사도 검색입니다. 벡터 DB에서 질문과 의미적으로 가장 유사한 청크를 찾습니다.일반적인 질의, 개념적 질문
textBM25 알고리즘 기반 키워드 전문 검색입니다. 정확한 키워드 매칭에 강점이 있습니다.정확한 용어, 고유명사, 코드명 검색
graph그래프 DB를 활용한 GraphCypherQAChain 기반 탐색입니다. 엔티티 간의 관계를 추론하여 답변합니다.엔티티 관계 질의 (예: "A와 B의 관계는?")
hybrid벡터 검색과 텍스트 검색을 병렬로 수행한 뒤, Reciprocal Rank Fusion(RRF) 알고리즘으로 결과를 병합합니다. 두 검색 방식의 장점을 모두 활용합니다.대부분의 경우 권장 (기본값)
agenticLangGraph 기반 에이전틱 RAG입니다. LLM이 쿼리 리라이트, 문서 관련성 평가, 다단계 검색을 자율적으로 수행합니다. 검색 결과가 불충분하면 질문을 재작성하여 재검색합니다 (최대 3회).복잡한 멀티스텝 질문, 모호한 질의
전략 선택 가이드

대부분의 경우 hybrid 전략이 가장 균형 잡힌 결과를 제공합니다. 특정 용어나 고유명사를 정확히 찾아야 할 때는 text, 의미적 유사성이 중요한 개방형 질문에는 vector를 사용하세요. 복잡하고 여러 단계의 추론이 필요한 질문에는 agentic 전략이 효과적이지만, 응답 시간이 더 길어질 수 있습니다.

graph 전략 사용 조건

graph 전략을 사용하려면 Knowledge 생성 시 저장소 타겟에 GRAPH가 포함되어 있어야 합니다. GRAPH 타겟 없이 생성된 Knowledge에서는 graph 전략을 선택할 수 없습니다.


LLM 설정

오른쪽 패널에서 AI 응답 생성에 사용할 LLM 모델과 파라미터를 설정할 수 있습니다.

모델 선택

사용 가능한 LLM 모델이 Provider별로 그룹화되어 드롭다운에 표시됩니다.

Provider대표 모델
OpenAIGPT-4o, GPT-4o-mini 등
ClaudeClaude 3.5 Sonnet, Claude 3 Haiku 등
노트

사용 가능한 모델 목록은 시스템 관리자의 설정에 따라 다를 수 있습니다. 표시되지 않는 Provider가 있다면 관리자에게 API 키 설정을 확인하세요.

Temperature 조절

Temperature는 AI 응답의 무작위성(창의성) 을 조절하는 파라미터입니다.

범위특성적합한 상황
0.0 ~ 0.3결정적, 일관된 응답사실 기반 질의, 정확한 정보 확인
0.4 ~ 0.6균형 잡힌 응답일반적인 질의응답
0.7 ~ 1.0다양하고 창의적인 응답아이디어 발산, 요약 생성
1.0 ~ 2.0매우 높은 무작위성실험적 용도

기본값은 0.7입니다.

정확한 사실 기반 답변이 필요하면 temperature를 0.1~0.3으로 낮추세요. 창의적 답변이나 다양한 관점이 필요하면 0.7 이상으로 올리세요. RAG 기반 채팅에서는 문서에 근거한 답변이 중요하므로, 일반적으로 0.3~0.5 범위를 권장합니다.


소스 필터링

오른쪽 패널의 소스 필터 섹션에서 AI가 참조할 문서의 범위를 제한할 수 있습니다.

동작 방식

  • 전체 선택 (기본): 필터를 설정하지 않으면 Knowledge에 수집된 모든 문서를 대상으로 검색합니다.
  • 특정 문서 선택: 체크박스로 원하는 문서만 선택하면, 해당 문서의 청크만 검색 대상에 포함됩니다.

활용 시나리오

시나리오설정
Knowledge 전체에서 포괄적으로 검색필터 없음 (전체 선택)
특정 보고서에 대해서만 질문해당 보고서 문서만 체크
최신 문서 기반으로만 답변 받기최근 수집된 문서만 체크
특정 소스 유형으로 한정웹 크롤링/파일 업로드 등 원하는 유형만 체크
내부 동작

선택된 문서 ID 목록은 document_ids 파라미터로 검색 엔진에 전달됩니다. 벡터 검색과 텍스트 검색 모두 이 필터가 동일하게 적용되어, 선택한 문서 범위 밖의 청크는 검색 결과에 포함되지 않습니다.


인용 (Citation)

AI 응답의 신뢰성을 확보하기 위해, 답변에 사용된 출처가 인용 pill 형태로 표시됩니다.

인용 표시 형식

AI 응답 텍스트 내에 [1], [2] 등의 번호가 포함된 pill이 인라인으로 표시됩니다. 각 번호는 답변 생성에 참조된 문서 청크를 가리킵니다.

출처 확인

인용 pill을 클릭하면 출처 상세 모달이 열리며, 다음 정보를 확인할 수 있습니다:

항목설명
문서명출처가 된 원본 문서의 이름
섹션문서 내 해당 청크가 속한 섹션 (있는 경우)
청크 번호문서 내 청크의 순서 번호
원문 내용실제 참조된 청크의 전체 텍스트
유사도 점수질문과의 관련도 점수 (%)

인용 활용

  • 답변의 정확성을 원문 대조로 직접 검증할 수 있습니다.
  • 여러 출처가 인용된 경우, 각 출처를 비교하여 정보의 일관성을 확인할 수 있습니다.
  • 출처 문서를 기반으로 후속 질문을 구체적으로 작성할 수 있습니다.

인용된 출처를 확인하는 습관은 AI 환각(hallucination)을 방지하는 가장 효과적인 방법입니다. 중요한 의사결정에 활용할 때는 반드시 원문을 확인하세요.


대화 관리

세션 저장 방식

대화 세션은 브라우저 로컬 스토리지에 저장됩니다. 서버에는 대화 내역이 저장되지 않으므로(stateless), 브라우저 데이터를 삭제하면 대화 기록도 함께 사라집니다.

세션 자동 타이틀링

새 대화를 시작하면 첫 번째 메시지의 앞 50자가 자동으로 세션 제목으로 설정됩니다. 세션 목록에서 해당 대화를 쉽게 식별할 수 있습니다.

세션 수 제한

항목
최대 세션 수50개
초과 시 동작가장 오래된 세션이 자동으로 삭제됩니다
경고

대화 내역은 브라우저 로컬 스토리지에만 저장되므로, 브라우저 변경, 시크릿 모드, 캐시 삭제 시 모든 대화 기록이 유실됩니다. 중요한 대화 내용은 응답 액션의 복사/공유 기능을 활용하여 별도로 보관하세요.


응답 액션

각 AI 응답 메시지 하단에는 다양한 액션 버튼이 제공됩니다.

액션설명
복사AI 응답 텍스트를 클립보드에 복사합니다.
공유응답을 마크다운 형식으로 내보냅니다. 다른 도구에 붙여넣기할 때 서식이 유지됩니다.
좋아요 / 싫어요응답 품질에 대한 피드백을 제공합니다. 향후 품질 개선에 활용됩니다.
노트로 저장응답 내용을 노트로 저장하여 나중에 참조할 수 있습니다.
재생성 (Regenerate)동일한 질문에 대해 새로운 답변을 생성합니다. 다른 관점의 답변을 원할 때 유용합니다.
중단 (Stop)응답 생성 중에 스트리밍을 즉시 중단합니다. 불필요한 응답을 조기에 멈출 때 사용합니다.
재생성 동작

재생성 시 동일한 RAG 전략과 LLM 설정이 적용되지만, LLM의 temperature 값에 따라 다른 답변이 생성될 수 있습니다. Temperature가 0에 가까울수록 재생성 결과가 기존 답변과 유사합니다.


효과적인 질문 작성 요령

AI 채팅에서 더 나은 답변을 얻기 위한 팁입니다.

방법예시
구체적으로 질문❌ "이 문서 요약해줘" → ✅ "이 문서에서 2024년 매출 목표를 알려줘"
맥락 제공❌ "절차가 뭐야?" → ✅ "신규 직원 온보딩 절차를 단계별로 설명해줘"
출력 형식 지정"핵심 포인트를 bullet list 형태로 정리해줘"
소스 필터 활용관련 문서만 선택하여 검색 범위를 좁히면 정확도가 올라갑니다

다음 단계

  • 검색 테스트 — LLM 없이 순수 검색 결과를 확인하여 Knowledge 품질을 검증
  • 청킹 및 옵션 — 청킹 전략과 임베딩 모델이 검색 품질에 미치는 영향 이해
  • Settings — Knowledge 저장소 타겟 및 임베딩 모델 관리