You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
LLM 베이스 모델을 이용하여 프로젝트를 사용할 때, RAG와 파인튜닝(LoRA) 전략을 많이 사용하는 것 같습니다. 두 방법 모두 모델을 특정 분야에서 양질의 답변을 유도하기 위한 방법인 만큼, 어떤 상황에서 어느 방법이 더 장점을 가지는지 여쭙고 싶습니다. (어느 상황에 뭘 써야 할지)
어느 정도의 데이터 수집하여 적용하여야 유의미한 성과가 이어진다고 가늠을 하시는지 궁금합니다.
COT, Few-shot, multi-turn은 각각 어느 상황에서 경험적으로 장점을 잘 발휘했는지. 그리고 모델 튜닝 없이 프롬프팅으로 성능을 향상시키는 방법으로 노하우를 전수해주실 수 있으실까요?
reacted with thumbs up emoji reacted with thumbs down emoji reacted with laugh emoji reacted with hooray emoji reacted with confused emoji reacted with heart emoji reacted with rocket emoji reacted with eyes emoji
Uh oh!
There was an error while loading. Please reload this page.
Uh oh!
There was an error while loading. Please reload this page.
-
🙋질문자
카테부 판교 2기 / 21조 - yohan.kim(김영홍)/인공지능
✏️ 궁금한 내용
Beta Was this translation helpful? Give feedback.
All reactions