사용가능한 llm
- chat-gpt 3.5 turbo
- llama
- LaMDA
- PaLM2
- stanford alphaca
api 제공여부 | 비용 (토큰 단위) | 파인튜닝 용이성 | 한국어 사용 가능 여부 | 기타 특징 | |
chat-gpt | o | api 사용 비용+파인튜닝 비용 | 용이함, 자료 많음 | 가능 | |
llama2 | o (소스코드 공개) | 파인튜닝 gpu 비용 | 가능함 | 어려움 | gpu 사용 가능할 경우 고려해볼만함 |
LaMDA | o | ? | 자료 적음 | 지원 x | google의 언어모델 |
PaLM2 | o | ? | 자료 적음 | 지원 x | google의 언어모델 |
standford alphaca | o | gpu 비용 | koalphaca는 가능 | gpu 사용 가능할 경우 고려해볼만함 , llama2랑 비교해봐야함 |
결론
자료의 양과 비용을 생각해봤을 때
api 비용을 감당할 수 있으면 gpt를 쓰는 게 좋을 것 같고,
아니면 gpu를 써서 llama2 모델을 돌리고 파인튜닝해야할 것 같다.
1. 프롬프팅으로 얼만큼 성능 향상이 가능한지 실험해보기 -> 프롬프팅으로 솔루션 얻을 수 있음
2. gpt 파인튜닝의 대략적인 비용을 계산해보자.
-> 파인튜닝과 api 이용 비용이 부담스러울 것
-> koalpaca 파인튜닝도 해보자 !
'project' 카테고리의 다른 글
[DevPrep] 6. koalpaca 모델 저장 (0) | 2024.03.28 |
---|---|
[DevPrep] 5. koalpaca fine-tuning test (1) | 2024.03.07 |
[DevPrep] 4. gpt 프롬프팅 테스트 & 데이터 (0) | 2024.03.04 |
[DevPrep] 3. gpt 파인튜닝과 프롬프트 엔지니어링 (0) | 2024.02.17 |