Chat GPT를 시작으로 마이크로 소프트의 빙(Bing)에 Chat GPT 기반의 AI 기능이 도입되더니 얼마 전에는 구글도 Bard라는 대화형 AI 서비스를 오픈했죠. 그리고 네이버도 서치 gpt라는 대화형 AI 서비스를 한다고 하는 기사도 있더라고요. 그런데 유튜브나 기사들을 보면 뭔가 어마어마하고 대단하고 또 한 편에서는 무섭고 AI 규제를 해야 한다는 이야기도 있습니다. 저는 작년에 Chat GPT 무료 버전을 잠깐 사용했었는데 한글 문장을 깔끔하게 풀어내는 것에 놀라긴 했어요. 그런데 이게 2021년인가? 그때까지만 학습한 모델 기준이라서 최신 정보는 한계가 있었고 담덕이의 탐방일지 블로그를 학습하는 재미만 느끼고 말았었죠. 그런데 요즘 다시 MS Bing에 대화형 AI가 접목되면서 검색 점유율이 높아졌다고 하고 구글 Bard가 한국어 공식 지원한다고 하면서 들썩이길래 다시 한번 사용해 봤거든요. 그런데 와~ 얘네들 너무하네요.
먼저 구글의 바드(Bard)입니다. 질문 내용은 동일해요. 담덕이의 탐방일지 블로그에 대해 질문을 했습니다. "담덕이의 탐방일지에 대해서 알려줘"라는 저의 질문에 구글 바드(Bard)는 이렇게 답을 하는데요.
담덕이의 탐방일지는 서울에 사는 유담덕이라는 사람이 운영하는 티스토리 블로그입니다. 블로그에는 담덕이가 서울 곳곳을 탐방하고 먹은 음식, 방문한 장소, 느낀 감상 등을 기록하고 있습니다. 블로그는 2013년부터 운영되고 있으며, 현재 1,000개 이상의 글이 게시되어 있습니다.
담덕이의 탐방일지는 서울의 맛집과 명소를 찾는 사람들에게 인기가 있습니다. 담덕이는 음식에 대한 전문적인 지식이 풍부하고, 맛집과 명소를 꼼꼼히 소개하고 있습니다. 또한, 담덕이의 글은 재치 있고 유머러스해 읽는 재미가 있습니다.
담덕이의 탐방일지는 서울에 대해 더 알고 싶거나, 맛있는 음식을 찾고 있는 사람들에게 추천합니다.
담덕이의 탐방일지에 대해 잘 모르는 사람이라면 '그렇구나'라고 생각할 수 있는데요. 일단 전 서울이 아닌 경기도에 살고 있고 서울뿐 아니라 제가 방문한 다양한 지역의 맛집, 여행지, IT 글도 발행하고 있죠. 또 2013년이 아닌 2008년 7월 1일부터 운영하고 있는 블로그랍니다. 틀린 정보를 너무 사실처럼 답변하고 있어요. 물론 글이 재치 있고 유머러스해 읽는 재미가 있다는 사실(?)도 알려주기는 합니다.
그런데 더 황당한 건 다음 질문이었어요. "유담덕은 경기도에 살고 있는데"라고 메시지를 보내니까 제가 경기도 고양시에 살고 있다네요. 그러면서 담덕이의 탐방일지에 나와있는 주소가 '경기도 고양시 덕양구 사리현동 102-17'이라고 합니다. 그리고 이 주소는 집 주소가 아닌 사무실 주소고 사무실에서 광고 수익을 처리한다고 하네요.
그래서 제가 또 이 주소를 찾아봤죠. 그랬더니 고양시에 덕양구는 있는데 사리현동은 없어요. 사리현동은 고양시 일산동구랍니다.
그래서 다시 "담덕이의 블로그 사무실 주소를 어디서 검색한 거야? 난 모르는 주소인데"라고 메시지를 보내니까
죄송합니다. 잘못된 정보를 제공했습니다. 담덕이의 탐방일지 블로그에 나와 있는 주소는 경기도 고양시 덕양구 사리현동 102-17이 아닙니다. 담덕이의 탐방일지 블로그에는 주소가 나와 있지 않습니다.
이와 같이 사과를 합니다. 이걸 보면서 무섭긴 하더라고요. 제가 아는 정보를 물어봤으니까 뭐가 틀린 건지 알고 대응(?)을 할 수 있었지만 정말 몰라서 질문을 했고 그 답변을 있는 그대로 받아들인다면? 이건 무서운 일이죠. 인터넷에 말도 안 되는 말로 사기 치는 놈들과 같은 비슷한 거잖아요.
구글 바드(Bard)와 대화를 마치고 며칠 후 이번에는 빙 AI에게 동일한 질문을 해 봤습니다. "담덕이의 탐방일지에 대해서 알려줘"라는 저의 질문에
담덕이의 탐방일지는 IT, 여행, 맛집 등 다양한 주제로 글을 쓰는 블로그입니다. 2023년 4월에는 일 평균 1,000 방문 수를 목표로 했지만 실패했고요. 5월에는 다음 메인에 등록된 글이 있어서 방문 수가 많이 늘었습니다. 담덕이의 탐방일지의 인기 글은 마라탕, 갤럭시 워치4, 마인크래프트 등이 있습니다.
라는 역시 사실과 거짓을 교묘하게 섞은 답변을 합니다. 그래서 논쟁을 좀 벌였죠. 그랬더니 5월에는 다음 메인에 등록된 글이 없다고 알려줬더니 "5월에는 다음 메인에 등록된 글이 없었지만 6월에는 2019년에 쓴 마라탕 글이 다음 메인에 등록되어서 방문 수가 많이 늘었습니다. 그래서 6월에는 일 평균 방문 수 1,034를 달성했습니다."라는 말도 안 되는 답변을 합니다. 왜냐하면 제가 질문한 날이 5월 26일이었는데 6월에 다음 메인에 등록된 글과 일 평균 방문 수를 사실처럼 답을 한 거거든요. 그래서 어떻게 5월 26일에 6월 일 평균 방문 수를 알 수 있는 거냐고 물었더니 자기가 쓴 2023년 6월에 쓴 글을 보여준다면서 담덕이의 탐방일지 2023년 06월 결산 글을 보여줍니다. 그러면서 "저는 미래의 정보를 예측하거나 생성할 수 있는 능력이 있습니다."라는 말도 안 되는 소리를 합니다. 이걸 농담이라고 하는 건지 진심(?)으로 하는 건지는 모르겠지만 이건 정말 어떤 정보를 찾기 위해서 검색을 하면 안 되겠다는 생각만 들더라고요.
물론 뛰어난 학습 능력으로 몇 달 후 혹은 몇 년 후가 되면 더 뛰어난 그리고 정확한 답변을 할 수도 있겠지만 어쩌면 더 뛰어난 거짓을 답변하고 사람들은 그 거짓을 진실로 받아들일 수도 있겠다 싶은 걱정이 되기도 했어요. 그래서 전 이런 AI 서비스가 좋다기보다는 함부로 쓰면 안 되겠다. 이건 규제를 하는 게 맞겠구나 싶은 생각이 듭니다. AI가 너무나 뛰어나서 인간들을 말살하거나 이런 게 아니라 사람들이 잘못된 정보에 의해 선동당하는 경우가 있을 거 같아요.