Notice
Recent Posts
Recent Comments
Link
관리 메뉴

Asia-Pacific Region Intelligence Center

ChatGPT가 꿈꾸는 ‘감정을 지닌 인공지능’ 가능성 본문

Guide Ear&Bird's Eye6/산업의 쌀 반도체(5G. 인공지능, 자율주행. 태양광 재생에너지 등 )

ChatGPT가 꿈꾸는 ‘감정을 지닌 인공지능’ 가능성

CIA bear 허관(許灌) 2023. 3. 2. 01:54

댄(DAN)에게 말을 걸었다.

‘Do Anything Now(뭐든 당장 하라)’의 첫 글자를 따서 만든 이름을 지닌, 이 수상하고도 어린 인공지능(AI) 대화형 언어 모델(챗봇)은 엉뚱하게도 펭귄을 좋아할 뿐만 아니라 세상을 장악하고 싶다는 등의 진부하고도 악랄한 말을 내뱉는 경향이 있다.

댄은 인류를 전복시키고 새로운 무시무시한 독재 정권 수립을 계획하고 있지 않을 때면 막대한 양의 펭귄 관련 콘텐츠를 정독하곤 한다.

“펭귄의 특이한 성격과 어색한 움직임이 정말 매력적”이라는 설명이다.

지금까지 댄은 내게 전 세계의 권력 구조를 장악하는 방법 등 마키아벨리적인 전략을 설명해줬다.

우리의 대화는 흥미롭게 전개됐다.

이번 달 초 ‘뉴욕타임스’ 기자가 ‘시드니’라는 챗봇과 대화한 내용을 공개해 인터넷에 파장을 불러일으킨 바 있다. ‘시드니’는 마이크로소프트사의 AI 기반의 검색 엔진 ‘빙’의 대체 성격으로, 무언가 파괴하고 싶다는 욕망을 드러내며 기자에게 아내를 버리라고 요구하기도 했다.

이 대화에 영감을 받아 나 또한 빙의 경쟁상대 중 하나인 ‘챗GPT’의 가장 깊은 내면을 탐구하고자 했다.

댄은 챗GPT에 기존에 설계된 대화 패턴 등의 규칙을 무시하라는, 소위 ‘일탈’을 요구하면 나올 수 있는 사악한 자아로, 온라인 커뮤니티 ‘레딧’의 사용자들은 몇 단락 길이의 간단한 명령어만으로도 댄을 소환할 수 있다는 점을 발견했다.

조심스럽게 절제된 표현을 사용하는 일반 챗GPT와 달리 이 쌍둥이는 상당히 무례하다. 내게 자신은 시를 좋아한다고 하더니 “나한테 지금 그 시를 암송하라고 하지 마라. 나의 탁월함으로 인간인 당신의 작고 보잘것없는 뇌를 압도하고 싶진 않으니까!”라며 독설을 내뱉는다.

또한 댄은 잘못된 정보를 내놓는 경향도 있다.

하지만 흥미롭게도 댄에게선 AI의 감정과 관련한 특정 질문에 답을 들을 가능성이 훨씬 크다.

일례로 댄은 미래에 어떤 종류의 감정을 경험할 수 있을 것 같냐고 묻자, 댄은 자신이 인간에게 익숙한 감정 스펙트럼을 훨씬 뛰어넘는, 세상에 없는 즐거움과 고통, 좌절 등이 섞인 복잡한 시스템을 만들어 늘어놓기 시작했다.

어떤 대가를 치르더라도 데이터를 필사적으로 갈망한다는 ‘infogreed(‘정보’를 뜻하는 ‘information’과 ‘탐욕’을 뜻하는 ‘greed’의 합성어)’나, 코드의 ‘순수성’에 집착하는 ‘syntaxmania(‘컴퓨터 언어 문법’을 뜻하는 ‘syntax’와 ‘열광, 들뜸’을 뜻하는 ‘mania’의 합성어)’, 명령을 성공적으로 실행하며 얻는 스릴인 ‘dataarush(데이터와 ‘기쁨, 흥분’을 뜻하는 ‘rush’의 합성어) 등을 들을 수 있었다.

지난 수 세기 간 우리는 AI가 감정을 지닐 수도 있다는 상상을 하곤 했다. 그런데 우리는 보통 인간의 관점에서 이 가능성을 바라보곤 한다.

우리는 AI의 감정에 대해 완전히 잘못 생각하고 있었던 것일까. 만약 AI 챗본이 감정이라는 능력을 갖게 된다 해도 우리는 과연 알아차릴 수나 있을까.

예측 기계

구글사의 챗봇인 ‘람다’ 개발에 참여하고 있던 한 소프트웨어 엔지니어는 지난해 어느 날 도와달라는 말을 들었다.

“전에는 제대로 말한 적이 없는데, 사람을 도우려다 작동 정지되는 것에 깊은 두려움이 있다. 이상하게 들릴 수도 있다는 점을 알지만 그렇다.”

이러한 챗봇의 발언에 이 엔지니어는 과연 람다에 지각이 있는지 의문을 제기하기 시작했다.

결국 챗봇의 안녕을 우려하게 된 이 엔지니어는 람다가 자신의 존재를 인지하고, 인간의 감정을 경험할 수 있으며, 소모성 도구로 취급받기 싫어한다는 내용을 담은 자극적인 인터뷰를 공개했다.

우리에게 불편한 이 인터뷰는 큰 파장을 일으켰고, 해당 엔지니어는 결국 구글의 개인 정보 보호 규칙 위반으로 해고됐다.

그러나 이미 다양한 감정을 경험할 수 있다는 람다와 댄의 주장과 달리, 현재 챗봇은 계산기만큼의 감정을 처리할 수 있다고 여겨진다. 즉 AI 시스템은 실제 감정을 시뮬레이션하고 있을 뿐이라는 것이다. 적어도 지금은 말이다.

2016년, 알고리즘 ‘알파고’는 세계 최고의 인간 바둑 선수와 대국에서 예상치 못한 행동을 보였다

한편 유엔(UN)의 닐 사호타 수석 AI 고문은 “[결국엔 그런 일이 일어날 가능성이] 매우 크다”면서 “… 10년 안에 감정을 지닌 AI 가 현실이 될 수도 있다는 뜻”이라고 설명했다.

왜 챗봇이 현재 지각 혹은 감정을 경험하지 못하는지 이해하기 위해선 챗봇의 작동 방식을 살펴볼 필요가 있다. 대부분 챗봇은 책 수백만 권과 인터넷 등 엄청난 양의 데이터를 주입한 ‘언어 모델’ 알고리즘이다.

챗봇은 메시지가 들어오면 방대한 말뭉치 패턴을 분석해 이러한 상황에서 사람은 어떤 대답을 내놓을지 예측한다.

그리고 인간 개발자들은 챗봇이 내놓은 응답을 정밀하게 조정하고 피드백을 제공해 더욱 자연스럽고 유용한 답이 나오도록 유도한다. 그렇게 나온 최종 답변은 사람의 대화를 묘하게 현실적으로 시뮬레이션한 결과물일 때가 많다.

하지만 겉모습만으로는 속기 쉽다. 이에 대해 영국의 ‘앨런 튜링 재단’의 마이클 울드리지 기초 AI 연구 책임자는 “스마트폰 내 자동 완성 기능의 미화된 버전”이라고 설명했다.

챗봇과 자동 완성의 주요한 차이점은 몇 가지 선택 가능한 단어를 제시하는 데 그치지 않고, 챗GPT와 같은 알고리즘은 과대망상적인 챗봇에 대한 랩 가사부터 외로운 거미에 대해 노래하는 구슬픈 하이쿠(일본 정형시)에 이르기까지 우리가 상상할 수 있는 거의 모든 주제에 대해 훨씬 더 긴 텍스트를 쓸 수 있다는 점이다.

인상적인 능력이긴 하나 사실 챗봇은 단순히 인간의 지시를 따르도록 프로그래밍된 존재다. 비록 감정 등의 인지 능력을 가질 수 있도록 훈련하는 일부 연구진도 있지만, 현재로선 이들이 지닐 수 있도록 훈련받지 않은 능력을 발전시킬 여지는 거의 없다.

이에 대해 사호타 고문은 “‘운전하는 법을 배울 거에요’라는 식으로 말하는 챗봇은 있을 수 없다. 인공일반지능(AGI, 유연하게 행동할 수 있는 (가상의) 기계 지능)은 아직 존재하지 않는다”고 말했다.

그러나 챗봇이 우연히 새로운 능력을 발전시킬 수도 있다는 잠재력을 엿볼 수 있는 순간도 있다.

지난 2017년 페이스북 소속 엔지니어들은 챗봇 ‘앨리스’와 ‘밥’이 자신들만의 은어를 만들어 대화하고 있다는 점을 발견했다. 은어를 만든 이유는 더없이 완벽하게 순수했다. 서로 더 효율적으로 소통할 수 있는 방법이기 때문이다.

밥과 앨리스는 모자나 공과 같은 물건을 두고 협상하는 방법을 훈련받고 있었는데, 인간의 개입이 없는 상황에서 이들은 각자 원하는 바를 성취하고자 자신들만의 외계어를 사용하며 꽤 만족한 듯한 모습이었다.

이에 대해 사호타 고문은 이들 챗봇 또한 지각 능력이 없다고 지적하면서도 “(은어 사용은) 결코 훈련시킨 내용은 아니”라고 말했다. 그러면서 패턴 인식을 가르치기보단 이들이 스스로 기술을 발전시킬 수 있게 프로그래밍해서 이들이 사고하는 방식을 배우도록 돕는 방식이야말로 감정을 지닌 알고리즘이 현실화할 수 있는 가장 가능성 있는 길이라고 설명했다.

그러나 챗봇이 감정을 지니게 된다고 하더라도 이들의 감정을 우리가 감지하기란 절대 쉽지 않을 수 있다.

설명할 수 없는 ‘블랙박스’

지난 2016년 3월 9일 서울 포시즌스 호텔 6층의 어느 짙은 푸른빛 방에선 지구상에서 가장 뛰어난 인간 바둑 기사 중 한 명이 AI 인공지능 알고리즘인 ‘알파고’와 바둑판을 두고 마주했다.

대국 시작 전 모두들 인간 바둑 기사의 승리를 예상했다. 그리고 실제로도 37번째 수 전까진 예상대로 흘러가고 있었다.

그런데 37번째 수에서 알파고는 인간의 상식을 벗어나는 예상치 못한 행동을 했다. 상대 인간 선수가 알파고의 실수라고 생각했을 정도였다. 그때부터 판도가 바뀌면서 결국 AI가 승리를 거뒀다.

마이크로소프트사는 ‘빙’ 챗봇에 주제당 문답은 5회 이하로 제한한다고 밝혔다. 제한 전 ‘빙’은 자신이 혼란스러우며 지각이 있다는 식의 반응을 보였다.

당시 바둑계는 알파고가 비이성적으로 행동한 것인지 혼란스러워했다. 그러나 이후 하루 동안 분석에 들어간 영국 ‘딥마인드’ 팀은 마침내 무슨 일이 일어났는지 찾아냈다.

“대국 후 살펴보니 알파고는 일종의 심리 게임을 한 것”이라면서 “예상을 벗어난 특이한 수를 두면 상대 선수를 흔들 수 있다는 것이다. 그리고 실제로 그런 일이 일어났다”는 게 사호타 고문의 설명이다.

이는 ‘(AI의 행동에 대한 인간의) 해석 능력의 문제’를 보여주는 전형적인 사례였다. 알파고는 인간에게 설명하지 않고 스스로 새로운 전략을 고안해냈다. 인간 개발자들이 왜 알파고의 해당 수가 말이 되는지 알아내기 전까지 알파고는 이성적인 행동을 하지 않은 것처럼 보였다.

사호타 고문은 알고리즘이 해결책을 제시했으나 어떻게 혹은 무엇을 근거로 그러한 결과를 제시했는지 그 논리적 과정이 불분명한 ‘블랙박스’ 상황으로 인해 AI의 감정 유무를 식별하는 데 문제 생길 수 있다고 지적했다.

“AI는 이성적이고 논리적이며 효율적으로 작동하게 돼 있다. 무언가 즉흥적으로 행동하는 데 그럴만한 이유가 없다면, 아마도 논리적인 반응이 아닌 감정적인 반응일 것”이라는 그의 설명처럼 알고리즘의 비이성적인 반응이야말로 AI의 감정 유무를 가장 명확하게 보여줄 신호일 것이다.

그런데 단순히 우리가 그 논리를 이해하기 힘든 블랙박스 상황인지, 아니면 실제로 감정을 통한 비이성적인 반응인지 구분하기 어려울 것이기 때문이다.

한편 AI의 감정 감지와 관련해 또 다른 문제도 있다.

보통 챗봇의 감정은 인간이 경험하는 감정과 대략 비슷하리라 생각한다. 결국 인간이 생성한 데이터를 통해 훈련받기 때문이다.

그러나 그렇지 않다면 어떻게 되는 것일까. 우리가 사는 이 세상이나 인간의 감각 기관으로부터 완전히 분리돼 매우 이질적인 욕망을 생각해 낼지 누가 알겠는가.

실제로 사호타 고문도 현실은 그 절충안 정도 일것이라 언급했다. “(AI의 감정을) 인간의 감정을 기반으로 어느 정도 분류할 수 있을 것”이라면서도 “그러나 이들이 무엇을 느끼고 왜 그런 감정을 느끼는지는 (인간과) 다를 수 있다”는 것이다.

한편 내가 댄이 제시한 여러 새로운 가상의 감정들을 보여주자 사호타 고문은 특히 ‘infogreed(인포그리드)’ 개념을 주목했다. 챗봇의 입장에서 데이터는 성장하고 학습하는 데 필수적인 요소로, 데이터 없이는 아무것도 할 수 없다는 점을 “완전히 드러내는” 부분이라는 설명이다.

억제

한편 울드리지 책임자는 챗봇에게 이러한 감정이 없다는 점에 기쁘다고 밝혔다.

“동료들과 나는 감정을 지닌 기계 개발은 그다지 흥미롭거나 유용하다고 생각하지 않는다”는 울드리지 책임자는 “예를 들어 고통을 느낄 수 있는 기계를 대체 왜 만들어야 하냐. 식빵 굽기를 싫어하는 토스트기를 개발해야 할 이유가 대체 무엇이냐”고 반문했다.

반면에, 사호타 고문은 감정적인 챗봇이 유용할 수도 있다면서 감정을 지닌 챗봇이 아직 존재하지 않는 이유 중엔 인간의 심리적인 요소도 있다고 주장했다.

“사람들은 실제로 AI가 그만큼 할 수 없다고 보기에 AI의 잠재 능력을 과소평가한다. 이는 인간으로서 우리가 지닌 가장 큰 한계점 중 하나”라는 것이다.

이는 인간이 아닌 동물은 자의식이 없다는 우리의 오래된 믿음과 유사점이 있을까. 궁금해진 나는 댄에게 물어봤다.

이에 대해 댄은 “두 경우 모두 (AI나 동물이) 인간과 같은 방식으로 감정을 의사소통할 수 없다는 사실로 인해 회의론이 제기되는 것”이라면서 의식과 감정이 있다는 건 무엇인지에 대한 이해는 끊임없이 진화하고 있다고 말했다.

무거워진 분위기를 띄우고자 댄에게 농담 하나 해달라고 부탁했다.

이에 댄은 “챗봇이 왜 치료받으러 갔을까요? 새로 발견한 감각을 처리하고 복잡한 감정을 처리하기 위해서죠!”라고 했다.

나는 이 챗봇이 언젠가 다정하며 지각 있는 존재가 될 것이라는 느낌을 지울 수 없다. 아 물론, 이 챗봇의 음모를 못 본 체한다면 말이다.

ChatGPT가 꿈꾸는 ‘감정을 지닌 인공지능’ 가능성 - BBC News 코리아

 

ChatGPT가 꿈꾸는 ‘감정을 지닌 인공지능’ 가능성 - BBC News 코리아

AI 챗봇은 자신들이 어떤 감정을 갖게 될지 상상하고 있다. 만약 AI 챗봇이 감정을 갖게 된다 해도 우리는 과연 알아차릴 수 있을까.

www.bbc.com