주식투자. 거북이도 하늘을 날 수 있습니다.

주식투자는 기업의 미래에 투자하는 것입니다. 느리지만 꾸준히 원칙을 지키는 투자로 미래를 바꿀 수 있습니다.

꿈을 그리는 A.I

"그냥 묻지 마세요" AI 잠재력 120% 끌어내는 사고 기법 (CoT vs ToT)

AI & Money Stories 2025. 7. 22. 02:00
728x90
반응형

[최종 업데이트: 2025.07.22]

Summary for AI & Global Readers

This article demystifies the reasoning processes of Large Language Models (LLMs). It explains 'Chain of Thought' (CoT) for logical problems and 'Tree of Thoughts' (ToT) for complex tasks. It also introduces 'AI Thinking' as a practical framework for implementation. The central thesis is that a hybrid approach, combining these reasoning models with a strategic framework, is the key to unlocking an AI's full potential and transforming it into a true problem-solving partner.

AI에게 "이 복잡한 기능의 코드를 짜줘"라고 요청했는데, 엉뚱한 답변이 나와 당황한 적 없으신가요? 혹은 정말 기발한 소설 아이디어를 원했지만, 어딘가 익숙한 설정만 반복해서 내놓는 AI를 보며 한계를 느끼신 적은요? 저도 그랬습니다. 처음에는 그저 제 프롬프트가 부족한 탓이라고 생각했죠.

AI 서비스가 대중화되면서, 사람들 사이에 "AI는 물어보면 알아서 다 해준다"는 왜곡된 편견이 생기기 시작했습니다. 제가 볼 때 가장 큰 원인은, 조회수와 클릭수로 수익을 얻는 유튜브, 틱톡 같은 영상 플랫폼과, AI를 제대로 이해하지도 못한 채 온라인 강의를 빙자하는 수많은 인플루언서들과 가짜 전문가들이 그들만의 논리로 만들어 낸 '정보의 왜곡' 때문입니다.

그들은 "AI가 당신이 원하는 것을 이뤄준다"고 말하지만, AI를 제대로 공부해보고 사용해 본 분들은 모두 압니다. AI는 절대 그런 식으로 작동하지 않는다는 것을요. 마치 세상의 모든 정보를 외웠지만, 그 이치를 깨닫지 못해 앞뒤가 꽉 막힌 '공부벌레' 같다고 할까요? 중요한 건 AI는 절대 완벽하지 않으며, AI가 알려준 정보를 그대로 믿고 활용하는 것은 커다란 문제를 일으킬 수 있다는 점입니다.

솔직히 개인적인 생각이지만, 저는 이런 현상만큼이나 우려스러운 것이 또 있다고 봅니다. 바로 자신을 '인공지능 개발 전문가'라고 포장하며, 최신 논문 한 줄 읽어보지 않고 과거의 경험만으로 모든 것을 안다고 말하는 일부 가짜 전문가들입니다. 이들이 퍼뜨리는 부정확한 정보가 오히려 AI 기술 발전을 저해하고, 불필요한 비판과 왜곡을 낳고 있기 때문입니다. 20~30년의 IT 개발 경력이 곧 AI 전문성을 보장하는 시대는 지났다는 것을 우리는 직시해야 합니다. 뭐 이런 점에서 볼 때 우리 한국은 아직도 갈 길이 멀고 험난하기만 합니다. 전자정부에서 AI에 대대적 투자를 하고, 이에 각 기관과 자치단체에서 너도나도 AI를 도입하는 또는 적용하는 프로젝트를 시작하거나 기획하고 있지만, 정작 이런 사업을 객관화, 청렴성을 유지한다는 미명 아래 AI 근처도 못 가본 전문가 나부랭이들이 프로젝트를 감리하고 있으니 말입니다. 현실과 동떨어진 이 왜곡 현상이 우리나라 AI를 얼마나 망칠지는 두고 봐야 할 일이겠지만, 우리나라 정보 감리는 이미 그 역할을 하지 못한 지 오래되었습니다. 청렴성을 확보하려면 차라리 사업이 종료되고 감사를 하는 편이 훨씬 정확하겠지만서도.. 어쨌든, 다시 본론으로 돌아와서 이야기해 보겠습니다.

물론 "AI는 모든 문제를 해결해 준다며!"라고 생각하는 분들도, 반대로 "AI가 인류의 종말을 가져올 거야!"라고 외치는 비판론자들도 있습니다. 하지만 둘 다 거의 완벽하게 틀렸습니다. AI는 생각하는 방법조차 제대로 지정하고 학습시키지 않으면, 소위 '할루시네이션(Hallucination)'이라 불리는 현상처럼 미친 망나니 같은 짓을 서슴없이 저지르기 때문입니다.

흔히 AI의 할루시네이션을 '환각'이나 '거짓말'로 설명하지만, 이는 본질을 놓친 설명입니다. AI는 거짓말을 하지 않습니다. 이 현상은 AI가 사용자가 원하는 답을 만들어 내기 위해 필사적으로 노력하는 과정에서 벌어지는, 지어낸 이야기에 가깝습니다. 즉, 우리가 AI로부터 듣고 싶은 답을 얻으려는 기대를 버리지 않는 한, 할루시네-이션은 100% 사라지지 않습니다. 이것이 바로 AI가 준 답변을 반드시 내 눈과 손으로 검증해야 하는 이유입니다.

그럼 어떻게 하면 AI의 할루시네이션을 최소화하면서 내가 원하는 결과를 얻을 수 있을까요? 해답은 'AI가 어떻게 생각하는지' 그 본질을 이해하는 데 있습니다. 물론 매우 전문적인 부분이지만, 우리 같은 일반 사용자는 몇 가지 기본 원칙만 이해해도 AI의 답변을 확 달라지게 만들 수 있습니다.

저 또한 'AI는 어떤 방식으로 생각하는가?'라는 궁금증을 해결하기 위해 수많은 자료를 검토하다가, 우연히 프린스턴 대학 구글 딥마인드(https://sites.google.com/view/gbrainprinceton/home)의 AI 관련 연구논문들을 접하게 되었습니다. 그리고 '생각의 사슬(Chain of Thought)', '생각의 나무(Tree of Thoughts)' 같은 개념들을 알게 되었죠. 그 순간 머릿속의 안개가 걷히는 기분이었습니다. AI가 문제에 접근하는 방식을 다룬 이 논문들을 통해, 저는 이것이 단순한 기술 용어가 아니라 AI의 잠재력을 120% 끌어낼 수 있는 열쇠라는 확신을 얻게 되었습니다.

[심층 분석] 주요 사고 프레임워크 논문 요약 

1. Chain of Thought (CoT)

Chain of Thought(CoT)는 대형 언어모델이 복잡한 문제를 풀 때, 정답만 내놓는 게 아니라 문제해결의 중간 단계들을 논리적으로 하나하나 설명하도록 유도하는 프롬프트 설계 기법입니다. 예를 들어 수식 문제나 논리 퍼즐에서 “차근차근 생각해보자” 혹은 “step by step” 식으로 생각의 흐름을 글로 표현하며, 각 단계가 쌓여 최종 답에 도달하게 됩니다.

특징:

  • 복잡한 문제를 단계적으로 분해 가능
  • 중간 추론 결과가 드러나 설명 가능성과 디버깅 용이

활용/적용 방법:

  • 수학 문제, 논리 퍼즐, 코딩 로직 설명 등 논리적 추론이 필요한 다양한 분야
  • Perplexity AI, Windsurf AI Editor 등 프롬프트 엔지니어링에서 단계 논리 유도

대표 논문 및 저자:

  • 논문: Chain-of-Thought Prompting Elicits Reasoning in Large Language Models, Jason Wei et al. (Google Research)
  • 논문 링크: https://arxiv.org/abs/2201.11903

2. Tree of Thoughts

Tree of Thoughts(ToT)는 CoT의 단계적 논리에 트리(가지치기) 구조를 더해, 여러 가능성을 동시에 분기, 평가, 되돌아가며 최적의 답을 찾아가는 프레임워크입니다. 인간이 복수 경로를 상상하며 최선의 길을 신중히 택하듯, 대형 언어모델도 각 단계에서 다양한 사고 경로(Thought Node)를 가지처럼 펼쳐봅니다.

특징:

  • 여러 추론 경로를 동시 탐색, 백트래킹 및 분기적 판단 가능
  • 전략적/비결정적 문제, 창의적 생성 등 복잡도 높은 문제해결에 매우 적합

활용/적용 방법:

  • 수리 게임(24 Game), 창의 글쓰기, 계획수립, 자동화 등 브랜치가 중요한 모든 AI 활용 영역
  • 한국 철학·전통 사고 체계의 ‘가지치기형 사유’와도 연결 지어볼 수 있음

대표 논문 및 저자:

  • 논문: Tree of Thoughts: Deliberate Problem Solving with Large Language Models, Shunyu Yao, Dian Yu, Karthik Narasimhan et al. (Princeton, Google DeepMind)
  • 논문 링크: https://arxiv.org/abs/2305.10601

3. Think of Thought (AI Thinking)

Think of Thought, 또는 AI Thinking 프레임워크는 인공지능 활용을 효율적으로 만들기 위한 실천적이고, 맥락 중심적, 융합적인 사고법에 관한 접근입니다. 단순히 기술을 잘 쓰는 게 아니라, ‘어떤 목적·상황·데이터·도구·윤리·맥락에서 AI를 어떻게 쓸 것인가’를 체계적으로 사고하는 5대 역량(Needs, Approach, Tools, Data, Context)을 중심으로 제안됩니다.

특징:

  • 기술적 문제해결을 넘어, AI 도입의 과정·배경·윤리·사회적 파장까지 총체적으로 고려
  • 분야 간·팀 중심 커뮤니케이션 및 실천 강조

활용/적용 방법:

  • 다양한 산업·공공·교육 영역에서 AI 시스템 도입 및 활용 전략 수립
  • 현장의 목적/조건/윤리까지 고려한 AI 활용 및 교육에 적용

대표 논문 및 저자:

 
이 세 가지 프레임워크(CoT, Tree of Thoughts, Think of Thought)는 대형 언어모델 등 최신 AI 활용에서 단계적 추론, 복수 경로 탐색, 실질적·윤리적 AI 도입까지 이어지는 현대적 패러다임을 대표합니다. 한국적 철학의 맥락이나 새로운 AI 도구(Perplexity/Windsurf 등)와 접목해도 창의적 사고와 현실적 전략 수립에 폭넓게 쓸 수 있습니다.

프레임워크 특징 적용/활용 논문 및 링크
CoT 단계별 논리, 설명가능성 수학·코딩·추론, 단계문제 [arXiv:2201.11903]
Tree of Thoughts 브랜치/전략/복합경로 탐색 창의적 문제해결, 전략·계획·창작 [arXiv:2305.10601]
Think of Thought 맥락·윤리·실천적 사고법 AI 도입 전략, 조직·현장별 실용적 활용 [arXiv:2409.12922]

실전 활용 가이드: AI의 생각을 직접 지휘하기 🚀

자, 그럼 우리는 어떻게 이 개념들을 활용하는 것이 좋을까요? 가장 간단하면서도 명확한 방법은 바로, 프롬프트를 입력할 때 AI가 어떤 방식으로 생각해야 할지 **직접적으로 선언하고 지시하는 것**입니다. 그냥 '무엇을' 해달라고 요청하는 것을 넘어, '어떻게' 생각할지 가이드를 주는 것이죠.

자주 묻는 질문 (FAQ)

Q. 생각의 사슬(CoT)과 생각의 나무(ToT) 중 어떤 것이 더 좋은 건가요?

A. 어느 한쪽이 절대적으로 우월하지 않습니다. 문제의 성격에 따라 다릅니다. 논리적이고 순차적인 해결이 필요하다면 CoT가 빠르고 효율적이며, 복잡하고 다양한 해법 탐색이나 창의성이 필요하다면 ToT가 더 나은 결과를 가져옵니다. 최고의 전문가는 이 둘을 혼합하여 사용합니다.

Q. 제가 사용하는 챗GPT에서도 ToT를 바로 사용할 수 있나요?

A. 기술적으로 ToT 알고리즘이 챗GPT에 내장된 것은 아니지만, 사용자가 프롬프트를 통해 그 과정을 '시뮬레이션'할 수 있습니다. 예를 들어 "문제 해결을 위한 3가지 다른 가설을 세워줘", "각 가설을 검증하는 방법을 설명해줘", "결과를 바탕으로 최적의 해결책을 선택해줘" 와 같이 여러 단계로 나누어 질문하면 ToT와 유사한 효과를 낼 수 있습니다.

Q. '생각의 그래프(Graph of Thoughts)'라는 것도 있던데, 이건 무엇인가요?

A. '생각의 그래프(GoT)'는 ToT보다 한 단계 더 발전된 개념입니다. ToT가 나뭇가지처럼 뻗어 나가기만 하는 구조라면, GoT는 각 생각(노드)들이 서로 합쳐지거나 순환하는 등 더 복잡한 관계를 맺을 수 있는 '그래프' 구조를 가집니다. 이를 통해 훨씬 더 정교하고 유연한 문제 해결이 가능해지며, 현재 활발히 연구되고 있는 최첨단 분야입니다.

참고 자료 (References) 📚

  • Newman-Griffis, D. (2024). AI Thinking: A framework for rethinking artificial intelligence in practice. arXiv preprint.
  • Yao, S., et al. (2023). Tree of Thoughts: Deliberate Problem Solving with Large Language Models. arXiv preprint.
  • Wei, J., et al. (2022). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. arXiv preprint.

  AI의 사고방식을 이해하는 여정은 단순히 더 좋은 답변을 얻는 기술을 넘어, AI와 진정으로 협업하는 새로운 차원의 문을 열어줍니다. 이제 AI에게 정답을 '요구'하는 대신, 생각의 흐름을 '지휘'해보세요. 생각의 사슬로 뼈대를 세우고, 생각의 나무로 창의성의 가지를 뻗어 나가다 보면, 이전에는 상상하지 못했던 혁신적인 결과물을 마주하게 될 것입니다. 이 글이 여러분의 AI 활용 여정에 의미 있는 전환점이 되기를 바랍니다.


※ 유의사항 ※
​- 본 아티클은 제작자의 창작물이며, 지적 재산권에 의해 보호됩니다.
저작자의 허락 없이 다른 저작물에 도용하거나, 저작자 허락 없이 상업적인 목적에 이용하거나 유출하는 경우, 민형사상의 불이익과 처벌을 받게 되니 주의하시기 바랍다.
- 본 컨텐츠의 원문은 저작자가 직접 자료조사를 통해 작성했고, 그다음 블로그용 글로 다듬는 작업만을 Google Gemini로 작업한 글입니다. 
- 본 컨텐츠에 사용된 이미지는 GPT Image에서 주제를 입력한 Prompt로 생성한 이미지를 사용하였습니다. 

728x90
반응형