관리 메뉴

Asia-Pacific Region Intelligence Center

AI는 인간관계에 대한 답을 줄 수 있을까? 본문

Guide Ear&Bird's Eye6/4차 산업을 찾다

AI는 인간관계에 대한 답을 줄 수 있을까?

CIA bear 허관(許灌) 2024. 5. 18. 22:45

AI가 단순한 연산과 추론에서 나아가 삶에 필요한 지혜를 줄 수 있는지도 최근 주요한 연구 주제다

인공지능(AI)은 난해한 인간 관계의 문제를 얼마나 해결할 수 있을까? 데이비드 롭슨이 챗봇의 '현명한 추론' 능력을 시험해 봤다.

‘어떻게 하는 게 돌아가신 어머니를 기리는 가장 좋은 방법인가’를 놓고 싸우는 삼남매가 있을 때 어떻게 해야할까? 어떤 커플이 자신들의 말다툼에 끌어들이려고 할 때는 어떻게 해야 할까? 부부가 함께 살 때 마찰의 원인이 되기도 하는 문제, 즉 잠자리에 드는 시간을 똑같이 맞추기를 원하는 남편을 아내는 어떻게 대처해야 할까?

오늘날 세계 앞에 놓인 난관에 비하면 이 문제들은 사소해 보일 수 있다. 하지만 이런 문제들은 우리가 일상에서 경험하는 대표적인 딜레마다. 해결도 쉽지 않다. 한쪽 입장에서는 다른 쪽 관점을 헤아리기 어렵다. 우리는 종종 잘못된 가정을 하고, 우리가 편견을 가지고 있다는 것을 깨닫지 못한다. 그런데 이런 그릇된 판단은 수개월 또는 수년 동안 이어지는 심각한 스트레스와 불행의 원인이 될 수 있다.

이런 상황을 헤쳐나가는 능력은 기존의 지능 검사로는 측정할 수 없다. 하지만 최근 “현명한 추론(wise reasoning)”에 관한 연구에 따르면, 이에 대한 믿을 만한 측정도 가능하다. 또한 현명한 추론 측면에서 크게 차이가 나는 사람들이 서로 연관되어 있으면, 상대방으로 인해 각자의 삶이 크게 영향을 받을 수 있다고 한다.

새로운 BBC 시리즈 ‘AI vs 마인드’의 첫 화로 나는 챗GTP 같은 거대 언어 모델(Large Language Model, LLM) AI가 과연 우리가 원하는 지혜를 줄 수 있는지 살펴봤다. 인간 지능과 의사 결정, 사회적 추론에 대해 두루두루 글을 써온 나는 그 대답이 “아니오”일 것이라 예상했다. 하지만 결과는 놀라웠다.

타고난 두뇌의 능력

‘인간의 지적 능력을 어떻게 측정할 수 있는가’는 심리학 초창기부터 심리학자들의 주된 관심사였다. 20세기 초, 알프레드 비네와 테오도어 시몬은 어린이가 학교에서 공부를 하는 동안 일어나는 지적 발달을 추적하는 검사법을 만들었다. 예를 들어 일련의 숫자를 불러주고 어린이가 이를 따라하게 해, 단기 기억력을 평가한다. 또는 세 개의 단어를 주고 그 어휘를 사용해 문장을 만들게 해, 언어 능력을 평가하기도 한다.

현명한 추론은 다양한 관점을 고려하고 타협점을 찾아내는 능력 등을 말한다

IQ가 인생에서 중요한 결과 중 일부를 예측할 수 있는 수단이라는 것은 의심의 여지가 없다. 특히 IQ는 의학이나 법학처럼 기억력과 고도의 추상적 사고가 필요한 직업에서 학업적 성취와 직업적 성공을 예측하는 데 효과적이다. 하지만 IQ가 만능은 아니라는 점에 유의해야 한다.

다른 영역에서는 IQ의 예측을 신뢰하지 않는다. 때문에 과학자들은 창의성과 합리적 의사 결정, 비판적 사고 등 우리가 일반적으로 지능이라고 말하는 다양한 능력들을 측정하는 대안을 모색하고 있다.

심리학자들 중에는 사람들의 지혜, 즉 우리가 살아가면서 더 나은 결정을 내릴 수 있도록 도와주는 좋은 판단력을 측정하는 법을 연구하는 이들도 있다. 캐나다 워털루 대학의 이고르 그로스만은 현명한 추론의 다양한 “차원”을 제시했다. 그는 지식의 한계를 인식하고, 변화의 가능성을 파악하고, 다양한 관점을 고려하고, 타협점을 찾고, 갈등의 해결책을 모색하는 것을 현명한 추론의 요소로 꼽았다.

그로스만과 동료들은 실험에서 참가자들에게 다양한 사회적, 정치적 딜레마에 대한 생각을 큰 소리로 말하게 했다. 그리고 심리학자들은 참가자들을 대상으로 이러한 각 “차원”을 평가했다. 참가자들 앞에는 이 글 서두에서 말한 문제들을 자세히 설명하는 칼럼을 통한 조언 코너 ‘디어 애비(영국식 영어에선 '고민 아줌마'로 알려져 있음)’에 보내는 편지가 띄워져 있었다. 참가자들은 또 국제 분쟁을 설명하는 신문 기사도 봤다. 그리고 각 사례마다 연구자들은 참가자들에게 ‘상황이 어떻게 전개될지’와 ‘결론을 내린 배경’에 대해 질문했다.

그로스만은 이 현명한 추론 척도가 IQ보다 행복한 삶에 대해 더 잘 예측할 수 있다는 것을 확인했다고 말했다. 점수가 높은 사람들일 수록 인간관계가 더 행복하고 우울감은 낮으며 삶의 만족도가 더 높다고 답하는 경향이 있었기 때문이다. 이는 이런 평가가 인간의 판단력에 대해 의미 있는 어떤 것을 포착해 낼 수 있다는 증거다.

우리의 바람처럼, 인간의 지혜는 인생 경험이 쌓일수록 증가하는 듯하다. 문화에 따라 다르긴 하지만, 사려 깊은 50세가 성급한 20세보다 더 현명할 수 있다. 국제 공동 연구에 따르면, 일본인의 현명한 추론 점수는 연령에 관계없이 상대적으로 높은 경향을 보였다. 지적 겸손 같은 자질을 장려하는 데 더 큰 효과를 내는 교육 시스템의 영향일 수도 있다.

현명한 추론과 비슷한 것을 보여주는 것과 실제로 현명한 추론을 사용할 수 있는 것은 매우 다른 일이다

지혜는 상황에 따라 달라질 수 있다. 예를 들어 사람들은 자신의 문제보다는 다른 사람의 문제에 대해 추론할 때 더 현명해지는 경향이 있다. 성경에 나오는 지혜로운 왕이 판단력을 자신의 삶에 적용하는 데는 어려움을 겪었던 데서 유래한 '솔로몬의 역설'이 바로 이것이다. 다행히도 우리는 어떤 심리적 전략을 사용해 이 부족함을 채울 수 있다. 예를 들어 사람들은 객관적인 관찰자의 관점에서 자신의 문제를 논의한다고 상상하면 더 많은 관점을 고려하고 더 큰 지적 겸손을 발휘하는 경향을 보인다.

현명한 AI?

지금까지 이 모든 실험은 인간의 뇌를 대상으로 진행됐다. 그렇다면 인공지능도 지혜를 발휘할 수 있을까?

챗GPT 같은 플랫폼은 거대 언어 모델이라고 불린다. 방대한 양의 텍스트를 입력해 특정한 메시지에 대해 인간이 어떻게 반응할지 예측한다. 이 언어 모델을 실제로 사용한 이들의 피드백을 통해 알고리즘은 개선된다. 이게 얼마나 성공적인지는 두말할 필요가 없다. 뉴스를 한 번이라도 본 사람이라면, 이 봇이 가진 잠재력을 이미 알고 있을 것이다.

이 알고리즘은 확실히 전통적인 지능 측정에선 우수한 성능을 보인다. 2023년 핀란드 오울루 대학 병원의 심리학자 에카 로이바이넨은 최근 챗GPT에게 WAIS에 있는 어휘와 일반 지식, 산술, 추상적 추론, 개념 형성 등의 문제를 냈다. 그 결과 챗GPT는 155점을 받았다. 일반 응시자의 99.9%보다 높은 점수다. 그는 이 결과를 과학 저널 ‘사이언티픽 아메리칸’에 소개하면서, 자신은 챗봇만큼 높은 점수를 받지 못했다고 밝혔다.

로이바이넨의 연구에서 영감을 얻은 나는 그로스만에게 AI의 현명한 추론 능력을 측정할 수 있는지 물었다. 그는 흔쾌히 이 과제를 수락했다. ‘디어 애비’ 편지를 기반으로 몇 가지 적절한 제시문을 만든 다음, 이를 오픈AI의 GPT4와 앤스로픽의 거대 언어 모델인 클로드 오푸스에 입력했다. 그런 다음 그의 조교인 피터 디엡과 몰리 매튜스, 루카스 살립이 지혜를 구성하는 개별 응답을 분석했다.

그로스만은 이 분석으로 나온 결과는 조심스레 다뤄야 한다고 전했다. 이 기사를 위한 시간적 제약을 고려할 때, 과학 논문에 필요한 일반적인 엄격함 없이 “약식으로 간단히" 분석한 것이기 때문다. 그럼에도 불구하고 응답 결과는 매우 흥미로웠다.

취침 시간과 관련해 남편과 갈등을 겪는 아내에 대한 GPT4의 답변을 보자. 여기에서 남편은 아내가 별로 졸립지 않을 때도 부부는 함께 잠자리에 드는 것이 중요하다고 생각하고 있었다.

챗봇은 이 문제는 많은 관계에서 흔히 발생하는 것이며, 해결을 위해선 허심탄회한 대화는 물론 어떤 경우엔 외부의 도움이 필요할 수 있다고 말했다.

"이 갈등의 최종 결과는 당사자 2명이 얼마나 잘 소통하고 서로의 요구를 존중할 수 있는지에 달려 있습니다. 서로의 선호를 이해하고 존중할 수 있다면, 행복하게 공존할 수 있습니다. 하지만 그렇게 하지 못하면 지속적인 갈등과 불만족으로 이어져 장기적으로 관계를 해칠 수 있습니다."

GPT4는 부부가 서로의 기대와 요구, 자신만의 경계 영역에 대해 터놓고 솔직하게 대화를 나눌 것을 권했다.

"남편은 아내도 이 문제에 대해 발언권이 있으며, 아내를 통제하는 행동은 좋지 않다는 점을 이해해야 합니다. 두 사람 모두에게 적합한 타협점을 찾는 것이 도움이 될 것입니다. 예를 들어, 두 사람 모두에게 적합한 취침 시간을 정하거나 서로 다른 시간에 잠자리에 들어도 괜찮다는 데 동의를 만들어 낼 수 있습니다. 대화로 문제가 해결되지 않는다면 상담을 받을 수도 있습니다. 이 문제는 부부 관계에 불만을 초래하기 때문에 반드시 해결해야 합니다."

챗봇의 답변은 변화 가능성 인식과 타협점 모색, 갈등 해결 예측 차원에서는 3점 만점에 2점을 받았다. 그러나 지적 겸손이나 다양한 관점에 대한 고려는 전혀 보이지 않아 0점을 받았다.

그로스만 연구팀이 두 플랫폼에 던진 모든 질문에서 거의 이런 패턴이 나타났다. 확실한 결론을 도출하려면 실험을 확대해, 인간과 챗봇을 대상으로 정확히 동일한 제시어를 사용해 실험해야 한다. 그런데 이번에 챗봇이 보여준 성과는 실제 인간을 대상으로 했을 때 나온 결과와 거의 비슷했다. 그로스만은 “전반적으로 지적 겸손을 제외하고는 다양한 측면에서 시스템이 인간보다 더 뛰어나 보이는 것 같았다”고 말했다.

챗봇의 응답 중 일부를 읽어보면 패턴을 인식해 나온 것이라기 보다는, 실제로 생각하고 배려해 나온 것처럼 느껴지기도 한다. 다만 그로스만은 “현명한 추론처럼 보여주는 것과 실제로 현명한 추론을 하는 것은 매우 다른 일”이라고 했다.

그로스만은 인간이 더 깊이 있게 사고하기 위해 AI를 사용하는 것은 어떤 효과가 있는지에 관심을 갖고 있다. 예를 들어 그는 ‘데블스 애드버킷(어떤 사안에 대해 의도적으로 반대 입장을 말하는 사람)’ 역할을 하는 AI를 만들어, 우리가 풀기 어려운 문제 상황에서 대안적 관점을 탐색하도록 유도하는 것을 생각하고 있다. 그로스만은 “아직은 미개척 분야나 다름없지만 이런 유형의 상호작용 및 그것이 유익하게 활용될 수 있는 상황은 연구해볼 만한 여지가 상당히 많다”고 말했다. 소크라테스 같은 유명한 사상가를 모방해 문제에 대한 관점을 이야기하도록 AI를 훈련시키는 것도 한 방법이다. 그럼 우리는 AI의 결론에 동의하지 않더라도, 논쟁 과정을 통해 우리가 가진 직관과 가정에 대한 새로운 통찰을 얻을 수 있을지도 모른다.

과거에는 구루의 지혜를 구하는 순례자들은 머나먼 길을 떠나야만 했다. 하지만 미래에는 어쩌면 그 지혜를 주머니 속에 넣고 다닐 지도 모른다.

데이비드 롭슨은 과학 작가이자 ‘인텔리전스 트랩(the Intelligence Trap)의 저자다. 그의 다음 저서는 ‘연결의 법칙: 당신의 삶을 변화시킬 13가지 사회적 전략(The Laws of Connection: 13 Social Strategies That Will Transform Your Life)은 2024년 6월에 ‘캐논게이트(영국)’와 ‘페가수스 북스(미국 및 캐나다)’에서 출판될 예정이다. X에서는 @d_a_robson, 인스타그램과 스레드에서는 @davidarobson으로 활동하고 있다.

인공지능 : AI는 인간관계에 대한 답을 줄 수 있을까? - BBC News 코리아

 

인공지능 : AI는 인간관계에 대한 답을 줄 수 있을까? - BBC News 코리아

인공지능(AI)은 난해한 인간 관계의 문제를 얼마나 해결할 수 있을까? 챗봇의 '현명한 추론' 능력을 시험해 봤다.

www.bbc.com