P0~P2에서 구축한 시스템의 AI 모델 품질을 지속적으로 개선하기 위한 학습 파이프라인을 구축합니다. 전문가가 편집한 결과물을 학습 데이터로 변환하고, Fine-tuning을 통해 해설 품질을 향상시킵니다.
| 항목 | 내용 |
|---|
| 우선순위 | P3 — 고도화 |
| 예상 기간 | 3~4주 |
| 핵심 목표 | 사용이 늘어날수록 AI 해설 품질이 자동 개선되는 선순환 구축 |
| 전제 조건 | P2 완료 + 충분한 편집 데이터 축적 (최소 100건 이상 권장) |
| 항목 | 내용 |
|---|
| 기간 | 1주 (0.23 M/M) |
| 투입 인력 | AI/ML 엔지니어 1명 |
| 적용 단가 | 특급 ₩14,000,000/M |
| 기능 | 상세 | 복잡도 |
|---|
| ETL 파이프라인 | 편집 완료 데이터를 학습용 포맷(JSONL)으로 변환 | 중 |
| 데이터 전처리 | 불완전/중복 데이터 필터링, 품질 임계값 설정 | 중 |
| 입출력 쌍 생성 | (영상 분석 결과 → 편집 완료 해설) 쌍 구성 | 중 |
| 배치 처리 | 정기적 데이터 수집 및 변환 자동화 (Celery Beat) | 하 |
| 데이터 관리 | 학습 데이터 버전 관리, 통계 대시보드 | 하 |
| 항목 | 산출 근거 | 금액 |
|---|
| 인건비 | 0.23 M/M × ₩14,000,000 | ₩3,220,000 |
| 예비비 (10%) | | ₩322,000 |
| 소계 | | ₩3,542,000 |
| 항목 | 내용 |
|---|
| 기간 | 2~3주 (0.45~0.68 M/M) |
| 투입 인력 | AI/ML 엔지니어 1명 |
| 적용 단가 | 특급 ₩14,000,000/M |
| 기능 | 상세 | 복잡도 |
|---|
| Fine-tuning 파이프라인 | Gemini / OpenAI Fine-tuning API 연동, 학습 작업 제출 | 상 |
| 하이퍼파라미터 관리 | 학습률, 에폭 수, 배치 크기 등 설정 관리 | 중 |
| 모델 평가 | Fine-tuned 모델 vs 기본 모델 A/B 비교 테스트 프레임워크 | 상 |
| 자동 배포 | 평가 통과 시 Fine-tuned 모델 자동 전환 | 중 |
| 모델 버전 관리 | Fine-tuned 모델 버전 이력, 롤백 기능 | 중 |
| 모니터링 | 모델 성능 지표 추적 (해설 품질 점수, 편집률 변화) | 중 |
| 항목 | 산출 근거 | 금액 |
|---|
| 인건비 (최소) | 0.45 M/M × ₩14,000,000 | ₩6,300,000 |
| 인건비 (최대) | 0.68 M/M × ₩14,000,000 | ₩9,520,000 |
| 예비비 (10%) | | ₩630,000 ~ ₩952,000 |
| 소계 | | ₩6,930,000 ~ ₩10,472,000 |
핵심 난이도 요소: Fine-tuning 자체보다 평가 체계 구축이 핵심 도전 과제입니다. 화면해설의 품질을 정량적으로 측정하는 기준(BLEU, 전문가 평가 등)을 수립하고, Fine-tuned 모델이 실제로 해설 품질을 향상시키는지 검증하는 파이프라인이 필요합니다.
| 모듈 | 기간 | 인력 | 최소 비용 | 최대 비용 |
|---|
| 학습 데이터 생성부 | 1주 | AI/ML (특급) | ₩3,542,000 | ₩3,542,000 |
| AI 모델 갱신부 | 2~3주 | AI/ML (특급) | ₩6,930,000 | ₩10,472,000 |
| P3 합계 | 3~4주 | | ₩10,472,000 | ₩14,014,000 |
| 통화 | 최소 | 최대 |
|---|
| KRW | ₩10,472,000 | ₩14,014,000 |
| USD | ~$7,589 | ~$10,155 |
투입 공수: 총 0.68~0.91 M/M (AI/ML 전담)
P0~P3 전체 누적: ₩53,331,000 ~ ₩78,449,000 (약 $38,646 ~ $56,848) — 전 기능 구현 완료
참고: P3는 PoC 초기에 반드시 필요한 단계는 아닙니다. P0~P1으로 기본 서비스를 운영하면서 편집 데이터가 충분히 축적된 후(최소 100건 이상) 시작하는 것이 효과적입니다.