Notice
Recent Posts
Recent Comments
Link
관리 메뉴

Asia-Pacific Region Intelligence Center

인공지능 3단계: 인류 멸종으로 이어질까? 본문

Guide Ear&Bird's Eye6/4차 산업을 찾다

인공지능 3단계: 인류 멸종으로 이어질까?

CIA bear 허관(許灌) 2023. 6. 7. 06:50
컴퓨터로 만든 얼굴

'오픈AI'와 구글 '딥마인드'의 수장을 비롯한 전문가들이 인공지능(AI)에서 야기된 인류 멸종의 가능성을 경고했다. 기계가 인간을 대체할 날이 얼마나 가까워졌을까?

2022년 11월 출시된 '챗GPT'는 인공지능에 기반해 질문에 답하거나 사용자가 요청하는 문장, 심지어 컴퓨터 코드까지 작성해 주는 챗봇이다. 챗GPT는 인터넷 애플리케이션 역사상 가장 빠르게 성장했고 불과 두 달 만에 활성 사용자 1억 명을 달성했다. 기술 모니터링 회사 '센서타운'에 따르면, 인스타그램 활성 사용자가 1억 명에 도달하기까지는 2년 반이 걸렸다.

챗 GPT의 등장은 AI의 안전을 보장하는 방법에 대한 격렬한 논쟁을 촉발시켰다

마이크로소프트가 자금을 지원하고 오픈AI가 개발한 챗GPT는 엄청난 인기를 모은 동시에 인류의 미래에 대한 인공지능의 영향에 대해 격론을 촉발했다

수십 명의 전문가들이 비영리기구 '인공지능안전센터'(Center for AI Safety) 웹사이트에 게시된 성명에 지지를 표했다. 성명에 따르면, "AI로 인한 멸종 위험을 완화하는 것이 전염병이나 핵 전쟁과 같은 사회적 규모의 다른 위협처럼 전 세계적 우선순위가 되어야 한다"는 것이다.

그러나, 우려가 과장됐다고 말하는 이들도 있다.

로봇과 여성

인간 모방

챗GPT, 달리(DALL-E), 바드, 알파코드 등 AI가 생성하는 텍스트(에세이, 시, 농담은 물론 컴퓨터 코드까지)와 이미지(도표, 사진, 예술 작품 등)는 사람의 작업물과 구분하기 힘들 정도다.

학생들은 AI를 이용해 숙제를 하고, 정치인들은 연설문을 작성한다. 제이크 오킨클로스 민주당 하원의원은 미국 의회에서 관련 법안을 설명했다.

거대 테크기업 IBM은 AI가 대체할 수 있는 7800개의 일자리에서 채용을 중단하겠다고 밝혔다.

공장에서 분주하게 움직이는 로봇의 팔

이 모든 변화에 놀랐다면, 앞으로 더 단단한 마음의 준비가 필요하다.

지금은 아직 AI 발전의 첫 단계에 불과하기 때문이다. 일부 과학자들은 앞으로 2단계, 3단계가 다가오면 인류의 생존이 위협받을 수 있다고 우려한다.

세가지 단계는 다음과 같다.

1. 약인공지능(NAI)

협소한 인공지능을 의미하는 '약인공지능'(NAI)은 특정 작업에 집중해 정해진 범위에서 반복 작업을 수행한다.

일반적으로 인터넷 등에서 많은 데이터를 학습하지만, 프로그래밍된 특정 영역을 벗어나지 않는다.

예를 들어, 체스 AI는 세계 챔피언을 이길 수 있지만 다른 작업은 수행하지 못한다.

체스를 두고 있는 인공지능

스마트폰에는 이런 기술을 도입한 앱이 가득하다. 똑똑한 GPS 지도는 물론, 사용자의 취향을 파악해 음악이나 영상을 추천하는 앱도 있다.

자율주행이나 챗GPT는 더 정교해 보이지만, 약인공지능에 해당한다. 정해진 범위의 역할만 하므로, 스스로 결정을 내릴 수 없다.

하지만 일부 전문가들은 챗GPT나 오토GPT처럼 자동 학습이 프로그래밍된 시스템이 다음 단계로 발전할 수 있다고 생각한다.

iOS용 ChatGPT 어플리케이

2. 범용인공지능(AGI)

범용인공지능은 인간이 할 수 있는 모든 지적 작업을 기계가 수행할 수 있는 단계로, "강인공지능"이라고도 부른다.

인간의 손가락과 맞닿은 로봇

6개월의 긴급 중단

2022년 3월, 1000명이 넘는 기술 전문가들이 "모든 AI 연구소가 (챗GPT 최신 버전) GPT-4보다 더 강력한 AI 시스템의 학습을 최소 6개월 동안 즉시 중단할 것"을 촉구했다.

애플의 공동 창립자 스티브 워즈니악은 테슬라 및 스페이스X의 소유주 일론 머스크를 비롯한 기술 거물들과 함께 "인간에 뒤지지 않는 지능을 갖춘 AI 시스템은 사회와 인류에 심각한 위험을 초래할 수 있다"고 썼다. 머스크는 오픈AI의 공동 창립자였으나, 경영진과 의견이 달라 이사회에서 사임했다.

오픈 AI의 로고

이 전문가들은 비영리단체 '퓨쳐오브라이프 인스티튜트'(FLI) 이름의 서한을 통해 기업들이 프로젝트를 바로 중단하지 않는다면 안전 조치를 설계하고 시행할 수 있도록 "정부가 나서서 활동을 중단시켜야 한다"고 주장했다.

'똑똑하면서도 어리석다'

옥스퍼드 대학 AI 윤리연구소의 카리사 벨리즈도 이 서한에 서명했다. 하지만, 인공지능안전센터가 나중에 발표한 멸종 경고 성명에는 서명하지 않았다. 너무 과장됐다고 생각했기 때문이다.

벨리즈는 BBC의 앤드류 웹과의 인터뷰에서 "현재 우리가 만드는 AI는 똑똑하면서도 어리석다"고 말했다. 그는 이어"챗GPT나 다른 AI를 사용해 봤다면, 매우 치명적인 한계를 느꼈을 것"이라고 주장했다.

벨리즈는 AI가 잘못된 정보를 엄청난 속도로 만들어낼 수 있다고 우려한다.

"2024년 미국 대선이 다가오고 트위터와 같은 주요 플랫폼이 AI 윤리·안전 팀을 해고하는 상황이라 우려가 더 크다"는 것이다.

트위터 로고

미국 정부도 잠재적 위협을 인정한다. 백악관은 5월 4일 성명을 통해 "AI는 우리 시대의 가장 강력한 기술 중 하나이지만, AI가 제공하는 기회를 제대로 손에 쥐려면 먼저 그 위험을 완화해야 한다"고 밝혔다.

미국 의회는 AI 청문회를 진행해 샘 올트먼 오픈AI 최고경영자(CEO)로부터 챗GPT에 관한 답변을 들었다.

2023년 5월 16일 의회에서 증언하고 있는 샘 올트먼 오픈AI 최고경영자

상원 청문회에 출석한 올트먼은 AI가 "점점 더 강력해지는 가운데" AI 산업에 대한 정부 규제가 "매우 중요하다"고 말했다.

FLI의 공공정책 연구원 카를로스 이그나시오 구티에레즈는 BBC와의 인터뷰에서 AI의 가장 큰 문제 중 하나가 "기후변화에 관한 정부 간 협의체(IPCC)처럼 AI를 어떻게 규제할지 결정하는 전문가 집단이 없다는 것"이라고 설명했다.

그렇다면, AI의 마지막 단계는 무엇일까?

3. 초인공지능(ASI)

전자 뉴런 시뮬레이션

3단계 이론에 따르면, 강인공지능(AGI)에 도달한 다음에는 최종 단계인 "초인공지능"(ASI)에 진입하게 된다. 인공지능이 인간의 지능을 추월하는 단계다.

옥스퍼드 대학에서 근무하는 철학자 겸 AI 전문가 닉 보스트롬은 초지능을 "과학적 창의성, 범용적 지혜, 사회적 기술 등 거의 모든 분야에서 인류 최고의 두뇌를 크게 능가하는 지성"이라고 정의한다.

구티에레즈는 "사람이 엔지니어, 간호사, 변호사가 되려면 오랜 시간 공부해야 하지만 AGI는 짧은 시간 동안 스스로 계속 발전할 수 있다"며 "이런 식의 발전은 인간에겐 불가능하다"고 설명했다.

공상과학 소설

초인공지능이라는 개념은 영화 터미네이터의 줄거리를 연상시킨다. 터미네이터에 등장하는 기계는 인류를 멸망시키기 위해 핵 전쟁을 일으킨다.

미국 배우이자 전 캘리포니아 주지사인 아놀드 슈워제네거가 터미네이터 애니매트로닉스 로봇과 포즈를 취하고 있다

프린스턴 대학의 컴퓨터 과학자 아빈드 나라야난은 과거 BBC와의 인터뷰에서 공상과학과 같은 재난 시나리오가 비현실적이라고 말한 바 있다. 그는 "현재 AI는 이러한 위험이 구체화될 만한 능력이 없고, 오히려 이런 걱정 때문에 AI의 즉각적 피해에 대한 관심이 분산되고 있다"고 말했다.

배우 윌 스미스가 지난 2004년 9월 7일 일본 도쿄에서 열린 'I, Robot' 행사장에서 '안드로이드' 로봇 이미지를 보고 있다

인간이 가진 폭넓은 지능, 특히 감성 지능을 기계가 실제로 습득할 수 있을지에 대해서는 많은 논쟁이 있으나, AGI 단계가 가까워졌다고 생각하는 사람들은 이 부분을 크게 우려한다. 최근 "인공지능의 대부"로 불리는 제프리 힌튼은 경험기반 기계 학습의 선구자적 존재다. 그는 BBC와의 인터뷰에서 우리가 AGI에 가까워질 수 있다고 경고했다.

영화 '2001: 스페이스 오디세이'의 세트장에서 우주선 디스커버리에 탑승한 우주비행사의 모습

얼마 전 구글에서 은퇴한 75세의 제프리 힌튼은 "내가 보기에 지금은 기계가 우리보다 똑똑하지 않지만 곧 그렇게 될 것 같다"고 말했다.

연설 중인 제프리 힌튼

힌튼은 뉴욕타임스(NYT)를 통해 구글을 떠나기로 한 결정을 알렸고, "나쁜 주체"가 AI를 이용해 "나쁜 행위"를 할 것이 두려워 이제는 자신이 했던 일을 후회한다고 말했다.

힌튼은 BBC와의 인터뷰에서 "악몽 같은 시나리오"의 예를 들었다. "예를 들어, 러시아 대통령 블라디미르 푸틴 같은 나쁜 주체가 각자의 세부 목표를 설정할 수 있도록 로봇에게 기능을 부여한다면 기계가 '더 많은 힘을 원한다'는 등의 세부 목표를 세울 수 있다"는 것이다.

그는 이어 "단기적으로는 AI가 가져오는 이점이 위험보다 훨씬 많을 것"이라며 "따라서 인공지능 개발을 중단해야 한다고는 생각하지 않는다"고 덧붙였다.

멸종인가 불멸인가

영국의 물리학자 스티븐 호킹은 심각한 경고를 전한 바 있다.

2016년 10월 19일 영국 캠브리지대학교에서 연설 중인 스티븐 호킹

세상을 떠나기 4년 전, BBC와의 2014년 인터뷰에서 "완전한 인공지능의 개발은 인류 종말을 의미할 수 있다"고 말한 것이다.

당시 호킹은 이 정도의 지능을 갖춘 기계라면 "혼자 힘으로 도약해 점점 더 빠르게 스스로를 재설계할 것"이라고 말했다.

한편, AI를 가장 열렬히 지지하는 사람 중에는 레이 커즈와일이 있다. 커즈와일은 구글의 AI 연구원이자 실리콘밸리 싱귤래리티 대학의 공동 설립자로, 미래주의 발명가 겸 작가다.

나노봇과 불멸

커즈와일은 인간이 초지능 AI를 사용해 생물학적 장벽을 극복할 수 있다고 믿는다.

2015년에는 2030년까지 인간이 불멸을 손에 넣을 것이라고 예측하기도 했다. 인간의 몸 안에서 나노봇(초소형 로봇)을 작동시켜 손상이나 질병을 회복시키고 치유시킨다는 것이다.

세포를 둘러싸고 있는 나노봇의 형상화

AI 지배구조

구티에레즈는 AI 지배구조 구축이 핵심이라는 데 동의한다.

그는 "어떤 주체가 인터넷 검색으로 지구상의 모든 사람과 그들의 습관에 대한 방대한 정보를 확보해 상상도 못할 방식으로 우리를 통제하는 미래를 상상해 보라"고 말한다.

구티에레즈는 "최악의 시나리오는 인간 대 로봇의 전쟁이 아니라, 지구에서 우리보다 훨씬 더 지능적인 존재와 공존하는 바람에 우리가 조종당하고 있다는 사실조차 깨닫지 못하는 것"이라고 말했다.

한 남성이 로봇이 말하는 것을 듣고 있다

인공지능 3단계: 인류 멸종으로 이어질까? - BBC News 코리아

 

AI의 3단계, 인류는 멸종할까? - BBC News 코리아

전문가들은 인공지능(AI)으로 인류 멸종이 초래될 수 있다고 경고했다.

www.bbc.com