이런 미칠 듯한 순간을 겪어본 적 있나요? 같은 질문인데 ChatGPT는 A라고 하고, Claude는 B라고 하고, Gemini는 링크만 한가득 던져서 다 보고 나면 더 헷갈리는. 인생을 의심할 필요는 없어요. 대부분은 당신이 질문을 못해서가 아니라, 모델의 ‘작동 방식’이 다르기 때문입니다.
왜 같은 질문에 답이 다를까
훈련의 중점이 다름:Claude는 말을 더 두루두루 완결적으로 하는 편이고, ChatGPT는 구조화된 출력에 더 강하며, Gemini는 웹 연결 검색 상황에서 더 적극적입니다.
기본 가정이 다름:예산, 지역, 타깃층을 명확히 말하지 않으면 각자 알아서 가정(추정)해버리니, 답변이 빗나가는 건 당연합니다.
버전과 도구의 차이:어떤 것은 인터넷 연결이 되고, 어떤 것은 안 되며; 어떤 것은 파일을 읽을 수 있고, 어떤 것은 당신이 붙여넣은 텍스트만 봅니다. 정보 출처가 다를 수밖에 없습니다.
제가 자주 쓰는 정렬(얼라인) 작은 팁
제약 조건을 목록으로 쓰기
그냥 “어떻게 해?”만 묻지 말고, “초보자 대상, 3단계 이내, 이론 금지, 그대로 복사 가능한 말하기/문구 제공”처럼 경계를 바로 추가하세요.


