2024. 7. 15. 15:12ㆍAI/프롬프트 엔지니어링
셀프 컨시스턴시는 CoT(문제를 해결하는 과정을 단계별로 설명하는 방식으로 중간과정, 단계를 설명함으로써 모델 답변의 정확도를 향상시키는 방법 - https://gangdonggil.tistory.com/22) 방식의 개선된 버전입니다. 여러가지 사고 과정을 샘플링하고 최종 답을 결정하는 방법으로 모델로 하여금 여러 가지 방법으로 문제를 해결하게 하고, 그 중 가장 일관(공통)된 답을 선택하는 방법이다.
사용방법을 요약해보면 CoT의 사고하는 과정을 다양하게 샘플링해서 답변을 생성하게 하고 이 중 가장 일관된 답을 선택하면 된다.
- 장점: 모델이 다양한 사고 과정을 통해 문제를 더 정확하게 해결할 수 있게 하고, 기존 CoT 방식보다 성능이 크게 향상됨.
- 단점: 추론을 다양하게 제공해야하고 이후에 결과를 따로 취합해서 처리하는 과정을 거쳐야하는 부분 - API를 활용하는 경우 토큰 사용량이 늘어나므로 비용도 증가하게 된다.
예시)
"Janet의 오리가 하루에 16개의 알을 낳고, Janet은 매일 아침 3개를 먹고 친구들에게 머핀을 만들기 위해 4개를 사용합니다. 남은 알은 개당 2달러에 팝니다. Janet은 하루에 얼마나 벌까요?"라는 질문이 있을 때:
모델이 여러 가지 방법으로 문제를 해결하도록 과정을 제시합니다.
1. 예를 들어, 알 16개에서 3개를 먹고, 4개를 사용하고 남은 9개를 팝니다.
2. 또 다른 방법으로는 16개에서 4개를 빼고, 다시 3개를 빼고 남은 9개를 팝니다.
등 ...
답변으로 $18, $18, $18, $12 와 같이 나왔다면 가장 일관되게 도출된 $18을 선택
참고자료: https://arxiv.org/abs/2203.11171
Self-Consistency Improves Chain of Thought Reasoning in Language Models
Chain-of-thought prompting combined with pre-trained large language models has achieved encouraging results on complex reasoning tasks. In this paper, we propose a new decoding strategy, self-consistency, to replace the naive greedy decoding used in chain-
arxiv.org
'AI > 프롬프트 엔지니어링' 카테고리의 다른 글
Selection-Inference (0) | 2024.07.30 |
---|---|
Chain of Verification prompting (CoVe) (0) | 2024.07.15 |
Zero-shot Chain-of-Thought (CoT) Prompting (0) | 2024.07.14 |
Chain-of-Thought (CoT) Prompting (0) | 2024.07.14 |
Expert Prompting (0) | 2024.07.14 |