크릴린 AI(Krillin AI)는 번역, 더빙, 음성 복제에서부터 화면 비율 변환까지 모든 과정을 처리하는 올인원 비디오 현지화 및 향상 솔루션입니다. 이 미니멀하면서도 강력한 도구는 유튜브, 틱톡, 빌리빌리, 더우인, 위챗 채널, 레드노트, 쿠아이쇼우 등 모든 콘텐츠 플랫폼에 최적화된 가로/세로 영상 변환을 자동으로 수행합니다. 엔드투엔드 워크플로우로 원본 영상을 클릭 몇 번만에 각 플랫폼에 맞는 완성된 콘텐츠로 변환해 줍니다.
🎯 원클릭 시작 - 즉시 작업 프로세스 실행
📥 비디오 다운로드 - yt-dlp 지원 및 로컬 파일 업로드 가능
📜 정밀 자막 - Whisper 기반 고정확도 음성 인식
🧠 스마트 분할 - LLM 기반 자막 청크 분할 및 정렬
🌍 전문가 수준 번역 - 문단 단위 자연스러운 번역
🔄 용어 대체 - 분야별 전문 어휘 한 번에 변경
🎙️ ** 더빙 및 음성 복제** - CosyVoice 선택 또는 개인 음성 클로닝
🎬 비디오 합성 - 가로/세로 레이아웃 자동 포맷팅
46분 분량의 로컬 비디오 파일을 불러온 후 원클릭 작업으로 생성된 자막 파일을 트랙에 삽입한 결과입니다. 전혀 수동 조정 없이도 자막 누락이나 겹침 현상 없이 문장 분할이 자연스럽게 이루어졌으며, 번역 품질 또한 매우 우수합니다.
subtitle_translation.mp4 |
tts.mp4 |
아래 표의 모든 로컬 모델은 실행 파일 + 모델 파일의 자동 설치를 지원합니다. 원하는 모델을 선택하기만 하면 KrillinAI이 나머지 모든 작업을 처리합니다.
서비스 | 지원 플랫폼 | 모델 옵션 | 로컬/클라우드 | 참고사항 |
---|---|---|---|---|
OpenAI Whisper | 크로스 플랫폼 | - | 클라우드 | 빠른 속도와 우수한 결과 |
FasterWhisper | Windows/Linux | tiny /medium /large-v2 (medium+ 권장) |
로컬 | 더 빠른 속도, 클라우드 서비스 오버헤드 없음 |
WhisperKit | macOS (Apple Silicon 전용) | large-v2 |
로컬 | Apple 칩에 최적화 |
Alibaba Cloud ASR | 크로스 플랫폼 | - | 클라우드 | 중국 본토 네트워크 문제 회피 |
✅ OpenAI API 호환 클라우드/로컬 LLM 서비스와 완벽 호환 (다음 포함):
- OpenAI
- DeepSeek
- Qwen (Tongyi Qianwen)
- 자체 호스팅 오픈소스 모델
- 기타 OpenAI 형식 호환 API 서비스
입력 언어: 중국어, 영어, 일본어, 독일어, 터키어, 한국어 지원 (추가 언어 계속 확장 중) 번역 언어: 영어, 중국어, 러시아어, 스페인어, 프랑스어 등 101개 언어 지원
- 릴리스에서 사용자 기기 시스템에 맞는 실행 파일을 다운로드 후 빈 폴더에 배치하세요.
- 해당 폴더 내부에 config 폴더를 생성하고, config 폴더 안에 config.toml 파일을 만드세요. 소스 코드의 config 디렉토리에 있는 config-example.toml 파일 내용을 복사해 config.toml에 붙여넣은 후 설정 정보를 입력하세요.
- 실행 파일을 더블클릭해 서비스를 시작하세요.
- 브라우저에서 http://127.0.0.1:8888 주소로 접속하면 사용이 가능합니다(8888은 config.toml에서 설정한 포트 번호로 변경해주세요).
본 소프트웨어는 서명되지 않았으므로, "기본 단계"의 파일 구성 완료 후 macOS에서 수동으로 애플리케이션 신뢰 설정이 필요합니다. 다음 절차를 따라주세요:
- 터미널을 열고 실행 파일(예: 파일명이 KrillinAI_1.0.0_macOS_arm64인 경우)이 위치한 디렉토리로 이동합니다.
- 다음 명령어들을 순차적으로 실행해주세요:
sudo xattr -rd com.apple.quarantine ./KrillinAI_1.0.0_macOS_arm64
sudo chmod +x ./KrillinAI_1.0.0_macOS_arm64
./KrillinAI_1.0.0_macOS_arm64
이렇게 하면 서비스가 시작됩니다.
이 프로젝트는 도커 배포를 지원합니다. 자세한 내용은 Docker Deployment Instructions를 참고해주세요.
비디오 다운로드 실패 시 Cookie Configuration Instructions 를 참조하여 쿠키 정보를 설정해주세요.
가장 빠르고 편리한 설정 방법:
- transcription_provider와 llm_provider 모두 openai를 선택하세요. 이 경우 다음 3가지 주요 설정 항목 카테고리(openai, local_model, aliyun) 중 openai.apikey만 입력하면 자막 번역을 수행할 수 있습니다. (app.proxy, model, openai.base_url은 각자의 상황에 맞게 입력하세요.)
로컬 음성 인식 모델 사용 설정 방법 (현재 macOS 미지원) (비용, 속도, 품질을 고려한 선택):
- transcription_provider에는 fasterwhisper를, llm_provider에는 openai를 입력하세요. 이 경우 openai와 local_model 카테고리에서 openai.apikey와 local_model.faster_whisper만 입력하면 자막 번역이 가능합니다. 로컬 모델은 자동으로 다운로드됩니다. (위에서 언급한 app.proxy와 openai.base_url도 동일하게 적용됩니다.)
다음 사용 상황에서는 알리바바 클라우드 설정이 필요합니다:
- llm_provider에 aliyun을 입력한 경우: 알리바바 클라우드의 대형 모델 서비스를 사용하게 되므로, aliyun.bailian 항목 설정이 필요합니다.
- transcription_provider에 aliyun을 입력하거나 작업 시작 시 "보이스 더빙" 기능을 활성화한 경우: 알리바바 클라우드의 음성 서비스를 사용하게 되므로, aliyun.speech 항목 설정이 필요합니다.
- "보이스 더빙" 기능을 활성화하면서 동시에 로컬 오디오 파일을 업로드해 음색 복제를 하는 경우: 알리바바 클라우드의 OSS 클라우드 스토리지 서비스도 사용하게 되므로, aliyun.oss 항목 설정이 필요합니다. 설정 가이드: Alibaba Cloud Configuration Instructions
자세한 내용은 Frequently Asked Questions를 참조해주세요.
- .vscode, .idea 등 불필요한 파일은 제출하지 마세요. .gitignore 파일을 활용해 필터링해주세요.
- config.toml 대신 config-example.toml 파일을 제출해주세요.