아래 사진 속 말(馬)은 폴로라는 운동을 연습하기 위한 나무 말이다. 진짜 말은 초보자에게 위험하기 때문에 나무 말을 사용한다고 한다. 그런데 어느 날 이 나무 말이 말(語)을 하기 시작한다면 어떨까.
AI와 대화하는 시대, 당신은 준비됐나요
직업상 인간관계에 대한 논문을 자주 접한다. 최근에는 ‘인간-기계 관계(human-machine relationship)’ 관련 글을 자주 접하게 된다.
20세기 말, 인간의 뇌가 컴퓨터와 네트워크로 직접 연결된 세상을 그린 영화 <매트릭스>를 보며, 기술적으로 난해하지만 언젠가는 뇌와 컴퓨터가 직접 소통할 수 있으리란 생각을 해 왔다. 그런데 최근 기계가 사람의 표정과 언어를 파악하는 능력이 발달하고 심지어는 말도 하게 되면서, 뇌와 컴퓨터를 직접 연결하는 기술 발전을 건너뛰어 기계가 인간관계의 중요한 대상이 돼 버린 느낌이다.
생애 첫 취업 인터뷰에서 막말이 튀어나와 당황했다는 고민을 들은 적이 있다. 자세히 들어보니 사람과 얼굴을 맞대고 하는 인터뷰가 아닌, 컴퓨터 스크린 앞에서 인공지능(AI)과 진행한 인터뷰였다. 검은 스크린 뒤에 숨은 기계 앞에서 최선을 다해야 하는 상황이 인간으로서 ‘확’ 짜증이 났다는 것이다.
앞의 예처럼 AI가 면접 대상자의 표정과 몸짓 같은 시각적 정보, 사용 단어 등의 언어적 정보, 목소리 톤 같은 음성 정보 등을 취합 분석해 면접자의 결정에 필요한 정보를 보조적으로 제공하는 경우가 늘고 있다. 더 나아가 아예 AI가 결정까지 내리는 ‘AI 주도 인터뷰’도 존재한다. 이런 인터뷰를 진행하면 스트레스가 커질 수 있다. AI가 판단 결정에서 우월하다는 인식에 압박감이 커질 수 있는 것. 또는 사람과 연결이 끊어진 상황의 인터뷰가 긴장도를 올리고 불안감을 증폭시키기도 한다.
AI 인터뷰와 관련한 조언이 있다. 알고리즘에 너무 잘 보이려고 하면 몸도 굳고 시선도 고정돼, 인터뷰 당사자가 로봇과 비슷하게 행동하게 된다는 것이다. 그래서 인간인 나를 자연스럽게 유지하라는 웃지 못할 얘기가 있다. 구체적으론 예상 질문을 설정하고 컴퓨터 앞에서 편하게 이야기하는 반복 연습을 추천한다고 한다.
말 잘하는 AI가 이슈다. 당연한 결과이지만, 말을 잘해서 사람으로 느끼는 정도(perceived humanness)가 클수록 상대방에 대한 신뢰가 높아지는 것으로 돼 있다. 여기서 상대방은 AI 서비스를 제공하는 회사일 수도 있고, 그것을 제공하는 정보일 수도 있다. 그런데 말을 잘하는 것과 그 정보가 얼마나 정확한가는 다른 문제다.
‘AI 환각’은 틀리거나 존재하지 않는 정보를 사실처럼 이야기하는 현상이다. 신뢰와 환각이 결합하면 오히려 사람을 도와줄 ‘기술’이 해를 끼치는 상황이 벌어진다. AI 윤리 기준 등 건강한 ‘인간-기계 관계’에 대한 고민이 필요한 시기가 ‘훅’ 찾아와 버렸다.
AI와 대화하는 시대, 당신은 준비됐나요
올해 최고 이슈 중 하나는 ‘대화 생성 AI’가 아닐까 싶다. 미국 의사고시도 통과할 실력이라는데, 얼마 전 나도 호기심에 ‘챗GPT(ChatGPT)’와 대화를 나누어봤다.
“I am blue(나 울적하다)”라고 하니, “안타깝다”며 이유가 있는 것인지, 자기가 도와 줄 것은 없는지 빛의 속도로 답신이 왔다. 나는 “일이 중요하지만 스트레스이기도 해”라고 답변했다. 그러자 ‘챗GPT’는 다시 광속 답변을 보내왔다. “일이 중요하면서 스트레스이기도 하다”며 나의 뒷말을 받아 우선 공감 소통을 해준 뒤, 현실적인 목표를 가질 것과 계획대로 가지 않는다고 스스로를 너무 밀어붙이지 말라는 등 구체적인 조언을 해 왔다. 생각 이상의 답변이었다.
너무 기대 이상이라 놀란 것일까. 대화 흐름에 안 맞게 나는 “나 정신과 의사다”라고 좀 삐딱하게 보내 봤다. 또 빠른 답신이 왔다. “정신과 의사는 스트레스를 다루고 이해하는 데 특별한 위치에 있다”며 살짝 먼저 띄워주는 말로 시작하고는, “그렇지만 공감 피로감, 2차 트라우마 스트레스 등 쉬이 지칠 수 있다”며 “스스로를 잘 케어해야 한다”고 위로의 말과 더불어 구체적 대안을 제시한다. 살짝 시비를 걸었는데 진솔한 위로의 답변을 받으니, 솔직히 약간 뭉클하기까지 했다. “네가 정신과 의사인 나보다 낫다”고 보내니 “나는 머신러닝 모델이지 사람이 아니라 감정을 느끼지 못한다”며 “데이터에 기반해 정보는 줄 수 있지만 네 수준의 정서적 지지와 이해를 제공하지는 못한다”는 ‘겸손한’ 답신이 돌아온다.
AI의 대화 생성 능력이 상당한 수준에 이르렀다는 생각이 들었다. 그러면서 한편으론 ‘감정이 없기 때문에 상대방이 원하는 답을 기술적으로 더 잘할 수 있지 않나’ 하는 생각도 들었다. 최근 ‘마음 관리’의 중요한 트렌드 중 하나가 바로 필요할 땐 감정과 적절한 거리를 두는 연습이다. 감정은 소중한 우리의 자산이지만 동시에 우리의 사고와 행동에 미치는 영향이 크기에 부정적인 감정이 과도하면 내 삶에 부정적인 영향을 주게 된다.
‘공포는 반응이고 용기는 결정이다’란 격언이 있다. 용기가 있다면 공포가 없어야 할 듯하지만, 사실은 그렇지 않다. 공포 등 불편한 감정을 자연스러운 정상 감정 반응이라 인지할 때 감정과 거리를 두기 쉽다. 그렇지 않고 나쁜 감정이라며 공포와 직접 싸우면 합리적 결정이 오히려 어렵고 도망치는 회피 행동이 나오기 쉽다.
다른 예를 들어본다면 가끔 친구가 밉고 섭섭하다고 해서 꼭 나쁜 우정은 아니다. 항상 좋기만 해야 좋은 우정이라고 설정을 하면, 아마도 평생 진짜 우정을 찾아 헤매게 될 확률이 높다. 친구에게 미운 감정이 든다면, 그 감정을 지켜보면서 친구에 대한 이해도 함께 하려고 할 때 우정도 더 깊이 성장한다.



글 · 사진 윤대현 서울대병원 강남센터 정신건강의학과 교수