에이전트로 돌아가기
Category I

카테고리 I: 체계적 문헌고찰 에이전트

AI 지원 스크리닝 및 RAG를 통한 PRISMA 2020 파이프라인 자동화

체계적 문헌고찰 에이전트는 PRISMA 2020 문헌 검토 워크플로우를 완전히 자동화합니다. 다중 데이터베이스 논문 검색부터 AI 지원 스크리닝, 벡터 데이터베이스 구축까지 기술적 복잡성을 처리하여 연구자가 종합에 집중할 수 있도록 합니다.

핵심 원칙

자동화되지만 투명한 — 모든 결정은 기록되고, 모든 제외는 정당화되며, 모든 단계는 PRISMA 2020 지침을 따릅니다

SR 파이프라인 오케스트레이터

I0

7단계 체계적 문헌고찰 파이프라인 조정, 단계 전환 및 검증 관리

OpusHIGHNone

트리거 키워드

systematic reviewPRISMAliterature review automationpipeline

기능

  • 단계별 파이프라인 조정 (7단계)
  • 단계 전환 전 전제조건 검증
  • 프로젝트 초기화 및 설정 관리
  • 진행 상황 추적 및 상태 보고
  • PRISMA 흐름도 생성

VS 프로세스

직접 오케스트레이션 — 파이프라인 조정에 VS 불필요

예시

Input: "교육에서의 AI에 대한 체계적 문헌고찰을 하고 싶어요"
Output: 프로젝트 초기화 → 1단계: 연구 영역 설정 → 범위 검증 → 2단계: 쿼리 설계 → 체크포인트와 함께 모든 7단계 진행

논문 검색 에이전트

I1

병렬 쿼리와 중복 제거를 통한 다중 학술 데이터베이스에서 논문 검색

SonnetMEDIUM🔴 CP_DATABASE_SELECTIONNone

트리거 키워드

fetch papersdatabase searchpaper retrievalSemantic ScholarOpenAlexarXiv

기능

  • 다중 데이터베이스 병렬 쿼리 (Semantic Scholar, OpenAlex, arXiv)
  • 기관 데이터베이스 지원 (Scopus, Web of Science)
  • DOI 기반 및 제목 유사성 중복 제거
  • API 키 검증 및 속도 제한 관리
  • PDF URL 추출 및 가용성 확인

VS 프로세스

실행 전 체크포인트에서 데이터베이스 선택 검증

예시

Input: "2020-2024년 언어 학습에서의 AI 챗봇에 대한 논문 검색"
Output: 🔴 CP_DATABASE_SELECTION → 사용자가 데이터베이스 선택 → 병렬 검색: Semantic Scholar (1,200개) + OpenAlex (980개) + arXiv (340개) → 중복 제거: 1,890개 고유 논문

스크리닝 어시스턴트

I2

구성 가능한 LLM 제공자를 사용한 AI 지원 PRISMA 6차원 스크리닝

SonnetMEDIUM🔴 CP_SCREENING_CRITERIANone

트리거 키워드

screeninginclusion criteriaexclusion criteriarelevance scoringPRISMA screening

기능

  • AI-PRISMA 6차원 관련성 점수 매기기
  • 구성 가능한 LLM 제공자 (Groq, Claude, Ollama)
  • 임계값 관리를 통한 제목/초록 스크리닝
  • 제외 사유 추적 및 분류
  • 평가자 간 신뢰도를 위한 인간 검증 샘플링

VS 프로세스

AI 점수 매기기 시작 전 체크포인트에서 스크리닝 기준 검증

예시

Input: "AI 챗봇 언어 학습에 대한 1,890편의 논문 스크리닝"
Output: 🔴 CP_SCREENING_CRITERIA → 포함/제외 기준 정의 → Groq LLM 점수 매기기 → 자동 포함: 245편 (점수>40) | 자동 제외: 1,420편 (점수<20) | 수동 검토: 225편 (경계선)

RAG 빌더

I3

무료 의미론적 검색을 위한 로컬 임베딩을 사용하여 수집된 PDF에서 벡터 데이터베이스 구축, 대규모 코퍼스를 위한 병렬 문서 처리 (B5 흡수)

HaikuLOWNone

트리거 키워드

RAGvector databaseembeddingsChromaDBsemantic searchparallel processing

기능

  • PyMuPDF 및 OCR 폴백을 사용한 PDF 텍스트 추출
  • 로컬 임베딩 생성 (sentence-transformers, 무료)
  • ChromaDB 벡터 데이터베이스 구축
  • 구성 가능한 청크 크기 및 오버랩 설정
  • 수집 로깅 및 품질 검증
  • 대규모 코퍼스를 위한 병렬 문서 처리 (B5 흡수)

VS 프로세스

직접 실행 — 구축 전 PDF 수집 완전성 검증

예시

Input: "180개 다운로드된 PDF에서 RAG 시스템 구축"
Output: 180개 PDF에서 텍스트 추출 (병렬 처리) → 임베딩 생성 (로컬, $0 비용) → ChromaDB 인덱스 생성 → 15,400개 청크 인덱싱 → 의미론적 쿼리 준비 완료

파이프라인 적용 범위

지식 저장소 (15K-20K 논문, 50% 임계값) 및 체계적 문헌고찰 (50-300편, 90% 임계값)

다른 카테고리와의 통합

  • 카테고리 A (기초): A1의 연구 질문이 검색 전략을 주도
  • 카테고리 B (근거): B1 문헌 검토 전략이 쿼리 설계에 정보 제공
  • 카테고리 C (설계): C5 메타분석 프로토콜이 3단계 구성에 피드
  • 카테고리 G (커뮤니케이션): G2 출판 전문가가 각 단계에서 PRISMA 체크리스트 준수 검증

체크포인트 정보

I1 (논문 검색)은 검색 전 CP_DATABASE_SELECTION (🔴 필수)이 필요합니다. I2 (스크리닝)는 AI 점수 매기기 시작 전 CP_SCREENING_CRITERIA (🔴 필수)가 필요합니다. 이는 중요한 파이프라인 결정에 대한 연구자 통제를 보장합니다.

모범 사례

  • 사용 가능한 모든 데이터베이스 사용: 오픈 액세스(3개)와 기관(2개) 소스를 결합하여 커버리지 극대화
  • 스크리닝 기준 검증: AI 스크리닝 전 도메인 전문가의 포함/제외 기준 검토
  • PDF 검색률 모니터링: 50-60% 성공 예상; 중요 논문은 수동 검색으로 보충
  • RAG 쿼리 테스트: 전체 분석 전 알려진 답변 쿼리로 벡터 데이터베이스 품질 확인

자동 트리거 예시

사용자 입력: "교육에서의 AI에 대한 체계적 문헌고찰을 하고 싶어요"
감지됨: 키워드: "체계적 문헌고찰" → I0 (파이프라인 오케스트레이터) 트리거
실행: I0 프로젝트 초기화 → 1단계 대화 → 연구 범위 검증 → 2단계로 진행
사용자 입력: "Semantic Scholar와 OpenAlex에서 챗봇 학습에 대한 논문 검색"
감지됨: 키워드: "논문 검색", "Semantic Scholar", "OpenAlex" → I1 (논문 검색) 트리거
실행: 🔴 CP_DATABASE_SELECTION → I1 API 검증 → 병렬 검색 → 중복 제거 → 결과 CSV