[실패 2회차] Ollama를 이용한 코드 리뷰 봇 만들기

컨테이너 환경을 바꾸어 보았다.

람다 -> ECS + Fargate
이미지: DockerHub 이용하기

 

알고보니 GPU를 이용하려면 EC2를 이용해야 하는 것이었고,

GPU를 사용하는 경우 엄청 비싸기 때문에 그냥 Fargate로 사용해보기로 했다.

 

처음에는 2vCPU + 16GB를 줬었는데, 배포가 잘 되지 않았다.

 

혹시나 하고 4vCPU + 30GB를 배정해줬는데도 불구하고 배포 되면 죽고, 배포 되면 죽고의 반복이었다.

 

그렇다고 해서 컨테이너 자체의 로그를 볼 수 있는 부분인 CloudWatch 내 로그 이벤트에 '실패'가 뜨는 것도 없었다.
Ollama 서버용 컨테이너 자체는 잘 동작하고 있는 것이다.

 

아래의 여러가지 시도를 해봤는데 되지 않았다.

  1. CPU 및 메모리 재설정
  2. 상태 확인 경로 '/'로 변경해보기
  3. 상태 확인 명령어 수정해보기: "CMD-SHELL,wget -q -O - http://localhost:11434 || exit 1"
  4. 상태 확인 간격 및 제한 시간 늘려보기
  5. CPU가 적어서 데드락 걸리는 건가싶어서 용량 늘려보기(최대치인 16vCPU까지 늘려봤음)

음 ... 지금은 뭐 때문인지 잘 모르겠는데...

 

다음에는 그냥 EC2로 한 번 이미지 실행 먼저 시켜보고 컨테이너에 재시도 해봐야겠다.


오늘 사용한 Dokerfile은 다음과 같다.

FROM ollama/ollama:latest

WORKDIR /models/llama3-1

COPY Modelfile_llama-3-Korean-Bllossom-8B-Q4_K_M .
COPY llama-3-Korean-Bllossom-8B-Q4_K_M.gguf .

# 실행 스크립트 생성
RUN echo '#!/bin/sh\n\
ollama serve &\n\
sleep 5\n\
ollama create llama-3-Korean-Bllossom-8B-Q4_K_M -f Modelfile_llama-3-Korean-Bllossom-8B-Q4_K_M\n\
exec "$@"' > /run.sh && chmod +x /run.sh

ENTRYPOINT ["/run.sh"]

EXPOSE 11434

CMD ["ollama", "run", "llama-3-Korean-Bllossom-8B-Q4_K_M"]