챗GPT 거짓 정보 생성을 막는 프롬프트 작성법: 실무 Before & After

⏱️ 10초 핵심 요약

  • 기업 AI 도입의 가장 큰 리스크인 거짓 정보(Hallucination) 생성은 사용자의 프롬프트(명령어) 구조로 철저히 통제해야 합니다.
  • AI에게 답변의 출처를 엄격하게 제한하고, 정보가 없을 때의 행동 지침을 명시하는 것이 첫걸음입니다.
  • 명확한 전문가 역할을 부여하고 참조할 문서를 직접 제공(Context Bounding)하여 업무의 정확도를 높일 수 있습니다.

생성형 AI는 기본적으로 ‘모른다’고 답하기보다, 확률적으로 가장 그럴싸한 단어를 이어 붙여 허구의 사실을 만들어내는 습성이 있습니다. 이를 방치하면 보고서에 치명적인 수치 오류가 발생합니다.

오류를 시스템적으로 통제하고, 기업 실무에 바로 적용할 수 있는 프롬프트 구조화 기법을 직관적인 예시로 분석합니다.


1. 정보 출처 통제: “모르면 지어내지 마라”

AI에게 자유도를 너무 많이 주면 지어낼 확률이 급증합니다. 질문을 던질 때 제약 조건을 반드시 걸어두어야 합니다.

❌ 잘못된 프롬프트 (자유도 과다)

“2026년 1분기 한국 클라우드 시장 점유율에 대해 보고서 써줘.”
(결과: 인터넷에 떠도는 부정확한 추정치를 사실인 것처럼 섞어서 문서를 생성함)

✅ 올바른 프롬프트 (통제력 강화)

“너는 IT 산업 분석가야. 내가 아래에 제공하는 [통계청 원본 데이터] 안에서만 정보를 추출해. 만약 제공된 데이터에 시장 점유율 수치가 없다면, 절대 지어내지 말고 ‘제공된 문서에 해당 정보가 없습니다’라고만 답변해.

2. 외부 지식 차단 (Context Bounding)

AI가 기존에 학습한 방대한 일반 지식이 오히려 독이 될 때가 있습니다. 회사 내부의 규정이나 특정 재무제표만 보고 판단해야 할 때는, 프롬프트 안에 ‘역할(Role)’‘참조 문서(Reference)’를 하나의 세트로 묶어서 지시합니다.

🎯 실무 적용: 페르소나 및 데이터 제한 기법

  • 역할 부여: “너는 B2B SaaS 기업의 10년 차 재무 담당자야.”
    (→ 답변의 톤과 전문성 고정)
  • 참조 문서 제공: “인터넷 검색을 하지 말고, 아래 첨부한 [2026년 1분기 재무제표] 텍스트만 읽고 분석해.”
    (→ 외부 데이터 유입 및 거짓 정보 원천 차단)
  • 출력 형식 지정: “분석 결과는 표(Table) 형태로 핵심 3가지 항목만 요약해.”
    (→ 결과물 규격화)

💡 기업의 AI 도입 시사점

생성형 AI의 품질은 챗봇 모델 자체의 성능에도 좌우되지만, 결국 그 모델을 조작하는 실무자의 ‘명령어 구조화 능력’에서 가장 큰 격차가 벌어집니다.

사내 직원들에게 막연하게 AI 계정을 쥐여주는 것은 업무 효율에 큰 도움이 되지 않습니다. 기업 내부 문서를 다룰 때 반드시 지켜야 하는 ‘프롬프트 표준 양식(Template)’을 배포하고, 데이터의 한계선을 명확히 긋는 작업이 안전한 B2B AI 도입의 필수 조건입니다.