거짓말을 밥먹듯이 하는 챗gpt(chatgpt)
본문 바로가기

IT/IT기타

거짓말을 밥먹듯이 하는 챗gpt(chatgpt)

거짓말을 밥먹듯이 하는 챗gpt(chatgpt)에 대해 이야기를 해보는 시간을 가져볼까 합니다.

 

 

▶ 챗gpt는 왜 있지도 않은 일을 꾸며 말하는것일까요?

사람이 보기에 적합하게 꾸미는 것 같습니다.

▶ 챗gpt는 모르는걸 모른다고 하나요?

대다수의 상황에서 답을 내놓으며 모른다고 하지 않습니다.

 

 

이 내용은 정답을 찾아가는 글이 아닌 본인의 검색결과를 토대로 이야기만 하는 글입니다.

 

거짓말을 밥먹듯이 하는 챗gpt(chatgpt)


대화형 인공지능 AI 서비스 챗gpt가 나온지 많은 시간이 흐른것은 아니지만 그로인해 검색시장의 상황이 많이 달라졌습니다. 검색엔진 빙이 ai를 도입하고난 뒤 이용자수가 크게 증가하였으며 구글 역시 대화형 인공지능 서비스 바드를 출시함으로서 챗gpt를 넘어서려는 모습을 보이고 있습니다. 네이버도 곧 비슷한 모델을 출시한다고 하던데 어떻게 될지는 두고 볼 일입니다.

대화형 인공지능 서비스가 나오며 우리 삶에 엄청난 변화를 줄 것 같았지만 실상은 그렇지 않습니다. 어쩌면 조금은 먼 미래 이야기라고나 할까요? 왜 그런가 하니 아직은 완벽하지 못한 질문에 대한 대답에 실망을 하는 모습을 수시로 볼 수 있었기 때문입니다. 대답을 이상하게 하는것도 모자라 없는것을 마치 지어내는듯한 답을 보고 있자면 황당하기 그지 없기 때문입니다.

챗gpt는 왜 거짓말을 하는걸까?


거짓말을 하는 챗gpt 이것을 접하는 것은 어렵지 않은데요 있지도 않은 사건을 나열하면 답을 주는 것이 그 예입니다. 예를들면 세종대왕의 맥북던짐 사건과 같이 있지도 않은 일을 질문하면 답이 술술나오는 어처구니 없는 경우가 많이 있습니다.

그렇다면 실제 존재하는 정답을 물어봤을때는 답을 제대로 할까요? 답이 명확하게 정해져 있는 '사과의 효능' '임신 중 피해야 할 음식' 등으로 질문을 하면 대부분 제대로 된 대답을 들을 수 있습니다. 하지만 그렇지 않은 경우도 있었습니다.

◎ 군복무기간 연장 사례를 물어보았다

질문은 '대한민국에서 군대 복무기간이 연장되었던 사례를 모두 알려줘' 였으며 되돌아온 대답은 아래와 같습니다.


총 8종류의 군복무 연장 사례가 있는데 아무것도 모르는 사람이 해당 내용을 보면 이게 진짜인지 혼동이 오는 정도의 답변입니다. 여기서 여러분은 정답을 알고 계시나요? 정답은 2번 외에 군복무 기간이 연장된 공식적인 사례(한국전쟁 제외)는 없다는 것입니다. 2번은 김신조일당이 청와대를 습격한 일명 121사태이며 복무기간이 3개월 연장되긴 했지만 내용은 틀렸다고 볼 수 있습니다. 파란색은 대체 어디서 가져온건지...


그래서 다른건 다 제쳐두고 코로나 바이러스로 인해 군복무기간이 연장되었다는 기사를 본적이 없어서 관련기사 링크를 달라고 했습니다. 그랬더니 링크를 주는데 하나같이 접근이 되지 않는 주소였습니다.


아니라고 반박을 한 뒤 다시 질문을 했는데 이번에는 태풍과 월드컵으로 군복무기간이 연장되었었다는 다소 황당한 답변을 내놓습니다.


마이크로소프트 빙 검색엔진에 등록된 대화형 ai 챗봇입니다. 동일하게 질문을 해보았는데 질문의 의도와 다른 답변을 했지만 적어도 거짓말을 하지는 않았습니다.


약간의 훼이크를 주기 위해 조선시대에 노트북 수리사건을 물어보았으나 그런거 없다라고 답변을 해주는 것이 챗gpt와의 차이라 할 수 있습니다.

거짓말을 하는 챗gpt 그 이유는?


이렇듯 위 예시에서 알 수 있듯이 챗gpt는 질문에 대해 모른다고 하기보다는 가능하면 그럴듯한 답변을 내놓고 있습니다. 정답이 있든 없든 그것이 사실이건 아니건간에요. 왜 이러는걸까요? 생각을 해보면 크게 몇가지 이유로 나뉘는 듯 합니다.

1. 업데이트 시점이 2021년?
2. 한국어 학습화가 덜 되어 있음
3. 모른다고 하지 않도록 고의로 설계
4. 확신의 능력 부족

무언가 물어보면 간혹 업데이트 시점이 2021년까지라는 답변을 종종 할때가 있습니다. 이는 곧 정보 습득의 한계로 올 수 있고 이것이 올바른 답을 내놓기 어렵다는 결론에 도달할 수 있습니다. 또한 해외 모델이다보니 한국어 질문을 영어로 치환하고 그에 맞는 대답을 찾느라 의도와 다른 답이 나올 수 있으며 모른다고 하지 않도록 알고리즘이 짜여져 있을 가능성도 있습니다.

가장 큰 문제는 본인이 한 답변이 확실하다고 할 수 있는 제대로 된 근거를 내놓지 못하는 일명 확신력의 부족이라 할 수 있는데요 빙 ai 역시 출처를 공식 홈페이지가 아닌 블로그 영역(네이버블로그/티스토리 등)으로 표기하는 경우가 더러 있지만 이놈은 그런것조차 없습니다. 근거를 내놓으라 했더니 제대로 도니 근거는 내놓지 못하고 엉뚱한 답을 연속으로 하는 챗 gpt 이걸 어떻게 봐야 할까요?

 

 

거짓말을 밥먹듯이 하는 챗gpt(chatgpt)에 대해 이야기를 해보는 시간을 가져보았습니다. 정답이 있는 질문과 없는 질문 모두 대답하지만 신뢰도에 의문이 가는 이녀석 어떻게 하죠?

그리드형