본문 바로가기

project5

[DevPrep] 6. koalpaca 모델 저장 모델이 제대로 저장이 안되는 이유가 뭘까..? ▶ 시도 1 - 그냥 torch 모델 저장하는 방법 대로 저장함 model = TheModelClass(*args, **kwargs) model.load_state_dict(torch.load(PATH)) model.eval() 여기서 모델이 빈 상태로라도 정의가 되어 있어야 저장한 걸 불러올 수 있는데.... 일단 저 부분을 모른다 그럼 어떻게 저장하지? 라는 생각에서 transformers 라이브러리를 사용한 모델의 저장 방법을 검색해봤다! 실제로 transformers 라이브러리를 사용한 모델은 다른 방법을 사용해야 했다. transformers 라이브러리 사용한 모델을 그냥 model.load_state_dict(torch.load(PATH)) 하면 .. 2024. 3. 28.
[DevPrep] 5. koalpaca fine-tuning test gpt를 사용했을 때 api 사용시 비용이 발생하기 때문에 혹시 사용을 못하게 될 경우를 대비하여 koalpaca의 파인튜닝 기법에 따라 lm을 파인튜닝하는 것을 테스트해보고자 함. colab pro A100이랑 V100 둘 다 가능했음! 한국어 기반 lm 파인튜닝한 koalpaca Alpaca Instruct Set으로 명령에 따르는 능력을 갖도록 한 것. Llama 모델은 이미 수많은 정보를 알고 있지만, 어떻게 말할지 모른다. 데이터셋 생성 방법 52000개의 데이터 davinci로 생성 -> 자동 생성 & 중복 제거 Llama 모델 파인튜닝 -> 작은 파라미터수로 상당히 괜찮은 결과가 나옴. Beomi님> 한국어 버전을 만들어보자! 한국어 LM에 instruction set 학습 시킨 것 두가지 .. 2024. 3. 7.
[DevPrep] 4. gpt 프롬프팅 테스트 & 데이터 모범 답안 프롬프트 테스트 Array와 LinkedList의 차이가 무엇인가요? 에 대한 모범 답안 생성 당신은 google의 프론트엔드 개발자를 뽑는 면접관입니다. 당신은 지원자에게 "Array와 LinkedList의 차이가 무엇인가요?" 라고 질문을 하였습니다. 이 때 당신이 뽑을 만한 가장 적절한 대답을 5줄 이내로 만들어주세요. Array는 연속된 메모리 공간에 요소들을 저장하고, 인덱스를 사용하여 빠르게 접근할 수 있습니다. 반면 LinkedList는 각 요소가 다음 요소를 가리키는 링크로 연결되어 있어, 중간에 요소를 삽입 또는 삭제할 때 유연하게 처리할 수 있습니다. Array는 빠른 접근이 가능하지만 삽입/삭제에 취약하며, LinkedList는 삽입/삭제가 용이하지만 접근 시간이 더 많이 .. 2024. 3. 4.
[DevPrep] 3. gpt 파인튜닝과 프롬프트 엔지니어링 gpt 파인튜닝 가능한 모델 - gpt-3.5-turbo-1106 (추천) -> turbo : chat gpt를 지원하는 모델 - gpt-3.5-turbo-0613 - babbage-002 -> 간단한 분류, 검색을 잘함, 검색 쿼리 일치 순서 매기 - davinci-002 -> 복잡한 의도를 이해하거나 요약, 창의적인 콘텐츠 생성 등을 잘함. - gpt-4-0613 (experimental). 이용 예시 - 스타일, 톤, 포맷 등을 설정할 때 - 신뢰성 향상과 바라는 결과를 얻기 위해 - 복잡한 프롬프트에 따른 오류를 바로잡기 위해서 - 특수한 경우에 대한 핸들링 등 -> 일단 프롬프팅부터 해보라고 계속 강조함.... 프롬프팅부터 하고 프롬프팅으로 어려운 것 파인튜닝 하기 데이터 셋 준비하기 You s.. 2024. 2. 17.
[DevPrep] 2. llm 비교해서 선정하기 사용가능한 llm - chat-gpt 3.5 turbo - llama - LaMDA - PaLM2 - stanford alphaca api 제공여부 비용 (토큰 단위) 파인튜닝 용이성 한국어 사용 가능 여부 기타 특징 chat-gpt o api 사용 비용+파인튜닝 비용 용이함, 자료 많음 가능 llama2 o (소스코드 공개) 파인튜닝 gpu 비용 가능함 어려움 gpu 사용 가능할 경우 고려해볼만함 LaMDA o ? 자료 적음 지원 x google의 언어모델 PaLM2 o ? 자료 적음 지원 x google의 언어모델 standford alphaca o gpu 비용 koalphaca는 가능 gpu 사용 가능할 경우 고려해볼만함 , llama2랑 비교해봐야함 결론 자료의 양과 비용을 생각해봤을 때 api .. 2024. 2. 17.