AI 활용 실패 사례 : ChatGPT 환각에 당함

AI는 만능이 아니다 – 그걸 몸소 깨닫다

요즘은 궁금한 게 생기면 유튜브보다 먼저 ChatGPT 같은 AI에게 질문을 던진다. 나 역시 그렇게 사용하던 사람 중 한 명이었다. 간단한 영어 표현부터 업무 이메일 작성, 일정 정리나 자기소개서 문장 교정까지 다양하게 써봤고, 대부분 만족스러웠다.

하지만 이번 경험은 달랐다. 정확히 말하자면 AI를 무조건 믿는 게 얼마나 위험한 선택이 될 수 있는지, 직접 체험한 사건이다.

 

취업 준비 중, 갑작스런 마약검사 통보

회사에 최종 합격하고, 입사 전 건강검진과 함께 마약검사를 하게 되었다. 문제는 그때 내가 감기약을 복용 중이었다는 점이다.

혹시나 약 성분이 마약검사에 영향을 미치지 않을까 걱정되었고, 병원에 전화해서 물어보자니 번거롭기도 하고 시간이 애매했다. 그래서 나는 내가 평소처럼 의지하던 ChatGPT에게 물어봤다.

“감기약 먹고 마약검사 해도 되나요?”

 

ChatGPT의 첫 번째 답변 – “문제 없습니다”

AI의 답변은 아주 명쾌했다.

“일반적인 감기약은 마약검사에 영향을 주지 않습니다.”

“특정 성분(예: 코데인 등)이 포함된 약이 아니라면 문제될 가능성은 낮습니다.”

그 말에 안심했고, ‘내가 먹은 건 일반 감기약이니까 괜찮겠지’라고 생각했다.

그래서 별 의심 없이 병원에 갔다. 그런데…

 

병원에서의 날벼락 – “재검사 하셔야겠어요”

마약검사 결과가 하루 이틀 후에 나왔다. 그런데 병원 측에서 다시 연락이 왔다.

“검사 결과가 모호하게 나왔습니다. 복용 중인 약이 있으셨나요?”

“감기약이요. 약국에서 파는 약이에요.”

그러자 돌아온 말,

“해당 감기약에 포함된 성분이 검사에서 영향을 줄 수 있어서, 재검사를 진행해야 합니다.”

솔직히 얼굴이 화끈거렸다. 나는 분명히 AI에게 물어보고, 문제가 없다는 말에 따라 행동했는데 결국 병원에서는 재검이라는 번거로움과 오해의 여지를 남긴 상황이 된 것이다.

 

다시 같은 질문, 이번엔 다른 답변?

이 일이 있고 나서 며칠 뒤, 궁금한 마음에 다시 같은 질문을 던졌다.

“감기약 복용 후 마약검사 괜찮나요?”

그런데 이번엔 답변이 완전히 달랐다.

“일부 감기약 성분(예: 데스트로메토르판, 페닐에프린, 코데인 등)은 마약 검사에 영향을 줄 수 있습니다.”

“특히 면역분석법 등 간이 검사에서 오탐지될 수 있으므로 주의가 필요합니다.”

이게 뭐지? 며칠 전에는 ‘문제 없다’고 해놓고, 이번에는 ‘문제 될 수 있다’는 이중적인 답변. 순간 좀 황당했다. 그리고 깨달았다. AI도 결국 ‘정답’이 아니라 ‘가능한 설명’을 줄 뿐이라는 것.

 

왜 이런 일이 생겼을까? AI의 한계

 

이 사건을 겪으면서 몇 가지 교훈을 얻었다.

1. 질문 방식에 따라 답변이 달라진다

“감기약 괜찮나요?”라고 하면 일반론적인 무해함을 얘기하지만,

“감기약 성분이 마약검사에 영향을 줄 수 있나요?”라고 구체적으로 물어보면 리스크까지 언급한다.

즉, 내가 질문을 너무 단순하게 한 것도 문제였다.

 

2. AI는 맥락을 정확히 파악하지 못한다

AI는 실제 검사 방식(면역분석, GC-MS 등)을 알지 못한 채, 일반적인 정보만 기반으로 말한다.

그러다 보니 감기약 종류, 검사 방법, 검사 시점 등 구체적인 상황 변수는 고려하지 못했다.

 

3. 정보의 출처나 책임이 없다

ChatGPT는 매우 유용하지만, 정확한 근거를 제시하거나 책임을 지지 않는다.

단순 참고 용도로 써야지, 의료적 판단이나 공식적 조치에 의존하는 것은 위험하다.

 

AI를 어떻게 써야 할까 – 실패에서 얻은 교훈

이번 사건을 계기로 나는 ChatGPT를 대하는 태도를 조금 바꿨다.

1. 중요한 결정은 전문가에게 다시 확인하자

의학, 법률, 취업처럼 결과에 책임이 따르는 상황이라면 반드시 병원이나 공식 기관에 직접 문의하는 게 정답이다.

 

2. ChatGPT는 ‘보조 도구’일 뿐이다

정보 정리, 개념 이해, 방향 잡기에는 좋지만 결론을 내릴 권한을 AI에 주면 안 된다.

AI는 내가 ‘이해하는’ 데 도움이 되지, ‘판단’까지 대신하진 못한다.

 

3. 질문은 구체적으로 하자

애매한 질문에는 애매한 답이 돌아온다. 질문을 구체적으로, 상황을 명확히 설명해야 그나마 정확한 답변을 받을 수 있다.

 

마무리 – AI는 똑똑하지만, 사람보다 낫진 않다

이번 사건으로 인해 며칠 동안 마음이 불편했다. 입사 일정도 미뤄질까 걱정됐고, 병원에 해명하고 재검받는 것도 번거롭고 민망했다. 무엇보다, ‘AI가 그렇게 말했는데…’라는 생각이 한참 동안 머릿속을 맴돌았다.

물론 ChatGPT가 틀렸다기보다, 내가 AI를 믿은 방식이 잘못됐다는 걸 인정하게 된 경험이었다.

앞으로도 AI는 계속 사용할 거다. 너무 유용하니까. 하지만 이번 일을 계기로, 언제 어떻게 AI를 활용해야 하는지에 대한 기준이 생겼다.

결론: 중요한 일일수록, 마지막 확인은 사람이 직접 해야 한다.

아무튼 나는 마약검사 비용 2만원을 날렸다. 끝~