ChatGPT와 Claude를 쓸 때에는 겪지 않았는데 오픈 모델은 LLM SaaS를 써도 여러 나라 말이 섞여 나오는군요! 한국어로 답변하다 중간중간 필요한 용어를 적절하게 영어로 표시하는 타당한 용례가 아닙니다. 아래 스크린샷에 나온 화상회의 번역 서비스같이 의도하지 않게 뜬금없이 외국어 어휘를 섞는 사고를 지칭합니다. 때로는 태국, 베트남, 아랍 말까지 다양하게 섞습니다. 샘플링해서 사전을 찾아보니 아예 허튼 낱말을 출력하지는 않았습니다. 지지난 달인가 Coplilot도 그랬나 싶은데 최근에는 본 적이 없습니다.
이 외에도 오픈 LLM은 한국어로 답변하라는 지시를 무시하고 영어로 답변하는 사고도 흔하게 칩니다. 다시 한 번 한국어로 다시 답변하라고 하면 대개는 잘 하되, 간혹 맥락을 잊었는지 질문을 다시 해달라는 사고를 일으키기도 합니다. Ollama(https://ollama.com/)로 할 때에 자주 나오고 MS Coplilot도 꽤 자주 벌이는 짓입니다. IBM의 생성형 AI trial 서비스에서도 겪었습니다. ChatGPT와 Claude는 대체 어떻게 이런 혼란을 막는지 궁금합니다.
아예 rtzr/ko-gemma-2-9b-it(https://huggingface.co/rtzr/ko-gemma-2-9b-it) 모델을 쓰면 한국어 출력만 받을 수 있습니다만 결과물에 좀 아쉬운 구석이 있습니다. 문장을 생성하는 품질 자체는 mistral이 마음에 들어도 언어가 섞이는 문제를 해결하지 못해서 다른 방법을 찾아보는 중입니다. 설마 ChatGPT와 Claude가 최종적으로 출력할 언어 별로 모델을 따로 두지는 않았겠지요? 이런 혼란이 없도록 무슨 방법을 썼는지 아주 많이 궁금합니다.
'BI > 인공지능' 카테고리의 다른 글
탈바꿈을 최소 한 번은 더 해야 로봇 전성시대가 온다 (4) | 2024.11.07 |
---|---|
두루 따라 할 만한 '월 20달러로 비즈니스 글쓰기 with 챗GPT' (2) | 2024.11.03 |
SpaceX는 AI 기술을 잘 쓰겠지요 (0) | 2024.10.28 |