
Open WebUI는 사용자가 자신의 머신에서 바로 AI 언어 모델을 운영할 수 있도록 지원하는 강력하고 자체 호스팅되는 오픈소스 플랫폼으로, 완벽한 데이터 제어를 보장합니다. Ollama를 포함한 다양한 로컬 모델을 지원하는 동시에 OpenAI 호환 API도 지원합니다. Docker, Python 또는 Kubernetes를 사용하여 Open WebUI를 설정할 수 있으므로 설치 유연성이 핵심 특징입니다.다음 가이드에서는 개인용 컴퓨터에 Open WebUI를 설치하는 포괄적인 단계별 프로세스를 소개합니다.
Open WebUI 사용의 이점
Open WebUI는 AI 활용을 위한 직관적이고 유연한 플랫폼을 제공하며, 사용자의 특정 요구 사항에 맞춰 최적화되어 있습니다.다양한 AI 모델을 지원하고 모든 주요 운영 체제와 호환되며 ChatGPT를 연상시키는 사용자 친화적인 인터페이스를 제공합니다.주요 기능으로는 마크다운, LaTeX, 플러그인 통합, 그리고 효과적인 콘텐츠 저장을 위한 고급 메모리 시스템 등이 있습니다.
이 다재다능한 도구를 사용하면 플러그인을 연결하고, 여러 채팅 스레드를 관리하고, 나중에 참조할 수 있도록 메시지를 저장할 수 있습니다.오픈 소스 이니셔티브인 Open WebUI는 커뮤니티 중심의 개선을 통해 빠른 진화적 업그레이드와 새로운 기능을 지원합니다.
Open WebUI 설치
Docker를 통해 Open WebUI를 시작하려면 먼저 프로젝트 디렉토리를 설정하고 해당 디렉토리로 이동해야 합니다.
mkdir openwebuicd openwebui
다음으로, 선호하는 텍스트 편집기(예: 메모장)를 사용하여 “docker-compose.yml”이라는 새 파일을 만듭니다.
nano docker-compose.yml
새로 만든 “docker-compose.yml” 파일에 다음 구성을 삽입합니다.
services: ollama: image: ollama/ollama:latest container_name: ollama ports: - "11434:11434" environment: - OLLAMA_USE_GPU=false volumes: - ollama_data:/root/.ollama restart: unless-stopped openwebui: image: ghcr.io/open-webui/open-webui:main container_name: openwebui ports: - "3000:8080" environment: - OLLAMA_BASE_URL=http://ollama:11434 depends_on: - ollama volumes: - open-webui:/app/backend/data restart: unless-stopped volumes: open-webui: ollama_data:
이 구성은 ollama 와 OpenWebUI라는 두 가지 필수 서비스를 초기화합니다.ollama 서비스는 ollama/ollama 컨테이너를 활용하고, 포트 11434에 매핑하고, GPU 가속을 비활성화하고, ollama_data 볼륨에 데이터를 저장합니다.한편, OpenWebUI 서비스는 open-webui 컨테이너에 액세스하여 포트 3000에서 포트 8080으로 트래픽을 라우팅하는 동시에 ollama 서비스에 의존하여 작업을 수행합니다.두 서비스 모두 수동으로 중지하지 않는 한 자동 재시작 옵션을 제공하며, 명명된 볼륨을 통해 데이터 지속성을 보장합니다.
Docker Compose 구성을 저장한 후 다음 명령을 사용하여 Docker 서비스를 시작합니다.
docker compose up -d

Open WebUI에 액세스하기
컨테이너가 실행되면 원하는 웹 브라우저를 열고 http://localhost:3000 으로 이동하세요.이렇게 하면 컴퓨터에서 Open WebUI 인터페이스가 바로 로드됩니다.설정 과정을 시작하려면 ” 시작하기” 버튼을 클릭하세요.

다음으로, 이름, 이메일, 비밀번호를 입력한 후 관리자 계정 만들기 버튼을 클릭하여 관리자 계정을 만드세요.

이제 계정이 생성되었으므로 Open WebUI 대시보드에 액세스하기 위해 로그인할 수 있습니다.

Ollama를 사용하여 AI 모델 설치
Open WebUI는 포괄적인 인터페이스를 제공하지만, 제대로 작동하려면 최소 하나의 로컬 AI 모델을 설치해야 합니다.다행히 Ollama를 사용하면 설치 과정이 간소화됩니다.요구 사항과 사용 가능한 시스템 리소스에 따라 llama3, mistral, gemma, vicuna 등 다양한 모델 중에서 선택할 수 있습니다.
이 데모에서는 대형 모델에 비해 리소스 사용량이 효율적인 것으로 알려진 gemma:2b를 설치합니다.설치를 시작하려면 프로필 아이콘을 클릭하고 관리자 패널 옵션을 선택하여 관리 대시보드에 액세스하세요.

대시보드에서 오른쪽 상단에 있는 다운로드 아이콘을 찾아 클릭하여 모델 다운로드를 시작하세요.

모델명을 지정한 후 다운로드 버튼을 클릭하여 계속 진행하세요.

모델을 성공적으로 다운로드하면 다운로드 성공 확인 메시지가 표시됩니다.

이 시점에서 Open WebUI 인터페이스에서 모델을 선택하여 쿼리에 활용할 수 있습니다.

Open WebUI 활용
모델을 선택하면 질문을 던질 수 있습니다.예를 들어, 제가 “Docker Compose란 무엇인가요?”라고 질문했을 때 Open WebUI는 다음과 같은 귀중한 답변을 제공했습니다.

이전 대화의 맥락을 그대로 유지한 채 새 대화를 시작하려면 왼쪽 메뉴에서 ‘새 채팅’을 클릭하세요.이 기능은 이전 대화의 맥락을 그대로 유지한 채 완전히 다른 주제로 전환하고 싶을 때 특히 유용합니다.

검색 섹션을 통해 저장된 채팅에서 이전 대화나 특정 키워드를 찾을 수 있습니다.검색어나 문구만 입력하면 결과가 필터링되어 이전 인사이트나 메시지를 빠르게 다시 확인할 수 있습니다.


Workspace 는 다양한 프로젝트를 원활하게 관리하고 프로젝트 간 혼용을 방지할 수 있는 체계적인 환경을 제공합니다.특히 코딩, 문서 작성 또는 장기 작업에 유용합니다. Open WebUI에는 다음과 같은 탭이 포함되어 있습니다.
- 모델 탭 – 커뮤니티 모델이나 사전 설정을 검색하여 다운로드하고, 외부 소스에서 모델을 가져오고, 설치된 모델을 관리합니다.
- 지식 탭 – 커뮤니티 지식 팩을 찾아보거나 AI가 응답에 활용할 수 있도록 파일(PDF, 텍스트, CSV)을 가져옵니다.
- 프롬프트 탭 – 커뮤니티 템플릿을 탐색하고, 기존 프롬프트를 가져와서 다양한 채팅에 적용합니다.
- 도구 탭 – 코드 실행기, 스크래퍼, 요약기 등의 도구를 찾거나 가져와서 자동화나 특수 작업을 위한 채팅에서 직접 사용할 수 있습니다.

채팅 섹션에는 AI와의 대화 기록이 표시되어 이전 채팅을 다시 열거나 더 이상 필요하지 않은 채팅을 삭제할 수 있습니다 .

Open WebUI의 채팅 컨트롤
채팅 제어 패널은 AI의 대화 스타일과 응답을 조정할 수 있는 옵션을 제공합니다.시스템 프롬프트를 설정 하여 어조나 행동에 영향을 미칠 수 있으며, 스트리밍 채팅 답변, 청크 크기, 함수 호출, 시드, 중지 순서, 온도, 추론 노력 등의 고급 매개변수를 사용자 지정할 수 있습니다.이러한 매개변수를 자유롭게 사용자 지정하거나 표준 성능을 위해 기본 설정을 유지할 수 있습니다.

프로필 아이콘을 클릭하면 설정, 보관된 채팅, 플레이그라운드, 관리자 패널, 문서, 릴리스 노트, 키보드 단축키, 로그아웃, 활성 사용자 보기 옵션이 포함된 사용자 메뉴에 액세스할 수 있습니다.

결론
Open WebUI 설정에는 초기 시간 투자가 필요하지만, 그 효과는 노력에 비해 훨씬 큽니다.이 플랫폼을 통해 사용자는 데이터에 대한 완전한 제어권을 행사하고, 원하는 모델을 선택하고, 인터페이스를 개인화할 수 있어 타사 서버에 대한 의존성을 없앨 수 있습니다.설치 후에는 터미널에서 Gemini CLI AI Agent를 사용하는 것처럼 모델을 완전히 오프라인으로 운영할 수 있습니다.
답글 남기기