본문 바로가기
BI/인공지능

당신이 생각하는 식으로 인류는 절멸하지 않는다

by wizmusa 2023. 7. 4.

2023년 IT 분야에서 제일 북적이는 주제는 명실공히 ChatGPT이다. ChatGPT를 따라 여러 LLM(Large Language Model)들이 쏟아져 나왔고, 이어서 2016년 알파고 열풍 때처럼 일자리 문제 등 인공지능이 유발할 사회문제를 활발하게 거론하고 있다. 특기할 만한 점은, ChatGPT와 하는 대화가 상대적으로 꽤나 사람 간 대화와 닮았고 상당히 직접적으로 IT 시스템과 연동하기에, 인공지능이 촉발할지도 모르는 디스토피아를 염려하는 목소리가 알파고 때보다 훨씬 커졌다.
 

소설 '지구에서 달까지(De la terre à la lune)' 삽화

 

사람들의 상상력은 대단해서 어떤 SF 소설을 보면 작가가 미래를 보고 왔나 싶을 정도로 경탄스럽기는 하다. 19세기 프랑스의 소설가 쥘 베른이 저술한 1865년작 소설 '지구에서 달까지(De la terre à la lune, From the Earth to the Moon)'만 봐도 저위도 지역에 설치한 발사대와 지구에서 달까지 가는 궤적이 1960년대 아폴로 계획과 유사했다. 어떻게  저렇게 세세한 부분까지 예언했는지 놀랍기만 하다. 그러나 로켓을 생각하지는 못했던 시대였기에 달을 향해 사람을 태운 대포를 쏘는 아이디어가 최선이었다. 정말 대포로 달까지 날아갈 추진력을 한번에 낸다면 탑승자는 가속도를 견디지 못하고 죽는다.
 
21세기 들어 세상을 바꿨던 인터넷과 모바일만큼이나 19세기 세상을 바꾼 발명 중에 전신기(telegraph)를 들 만하다. ... --- ...(SOS) 정도로 신호를 주고 받는 모스(Morse code) 전신기가 유럽 곳곳에 깔려 사고, 날씨 등 소식과 보고를 준실시간으로 전하게 되었다. 프로그래밍이 가능한 컴퓨팅 개념을 창안한 찰스 배비지와 같은 이들은 전신기가 가진 잠재력에 감탄하면서, 상상의 날개를 너무나도 크게 펼쳐 전신기로 인해 세상이 하나가 될 거라는 둥 호들갑을 떨기도 했다. 물론 그런 설레발이 얼추 이해가 가기는 한다. 전신기라는 발명품을 통해 먼 곳의 소식을 순식간에 수신한다는 개념이 익숙해지자 일기예보, 주식투자 같이 기존에는 느슨한 주기일 수밖에 없던 활동들이 갑자기 몇 단계를 건너뛰듯 속도를 냈다. 기차와 마차로는 꿈도 못 꿀 속도가 가져다 준 여파는 워낙 파괴적이어서 당시 산업 전반을 요동치게 했으며 사람들의 가치관에도 크나큰 영향을 끼쳤다.
 

모르스 전신기 (c)iStockphoto.com/Studio-Annika

 

그렇다 해도 2천년대를 사는 사람 기준으로는 고작 따따따 거리는 전신기로 지나치게 설레발을 친다 여길 것이다. 세상을 하나로 묶느니 어쩌니 하는 말이 2023년에도 여전히 유망주인 키워드 '메타버스'는 되어야 어울린다고 생각할지도 모른다. 그도 그럴 것이, 세상은 전신기에 홀딱 반했던 호사가들이 생각한 속도와 방향대로 흘러가지 않았다. 21세기 사람들 기준으로 19세기 세상사 돌아가는 모양새가 느릿느릿하기만 했다. 19세기 호사가들은 꿈도 못 꿨을 양자역학이 20세기 들어 아인슈타인 뺨을 치며 튀어 나와 21세기를 무서운 속도로 이끌어 나갔다.
 
다만 양자역학은 너무 어려워서 사람들의 상상력을 자극하는 원천으로는 상대적으로 그다지 많이 쓰이지 못했다. 때문에 양자역학으로 세상이 망하니 마니 하는 이야기 또한 그다지 많이 나오지 못했다. 그와 달리 인공지능과 유전자 조작은 디스토피아나 공포 장르에서 다루는 주요한 소재로 쓰였을 정도로 오래 전부터 자리를 잡은 개념이다. 사람을 압도하고 세상을 지배하는 공포스러운 군주가 되거나 사람을 배터리로 쓰는 인공지능을 소재로 한 작품은 일일이 세기가 힘들 정도로 많다. 유전자 조작으로 신인류 혹은 괴물이 나오거나, 권력자가 유전자 기술로 음험한 일을 벌이는 작품도 매체를 막론하고 엄청나게 많다. 그러한 상상의 산물들은 사람들의 기대를 담고 있기도 하기에 큰 방향성에 있어서는 대체로 맞아 들어간다. 다만 세부적인 사항은 후세 사람에게는 우스꽝스럽게만 보일 정도로 다르다.
 

Superman 3 (1983)

 

1983년에 나온 영화 슈퍼맨3에 나오는 악당 중 하나는 인공지능 컴퓨터다. 영화 막판에 슈퍼맨과 컴퓨터가 직접 싸우게 되는데, 지금 상식으로 보면 참으로 해괴했다. 컴퓨터랍시고 기계실이 본체인 것마냥 나오면서도, 컴퓨터가 서버 전선을 올가미처럼 날려 인간의 목을 조르고, 서버 부품을 후두둑 날려서 인간에게 꼼꼼이 붙여 로봇으로 보이게 조립하더니 손에서 광선을 쏘게 했다. 상당한 over technology라고 여겨졌겠지만 우스꽝스럽다는 생각은 많이 하지 않았을 듯하다. 1980년대 어린이는 저걸 좀 무서운 컴퓨터라고 생각했지 유치찬란 코미디로는 생각하지 못했다. 21세기 어린이를 대상으로 한다면 어떨까? 아예 판타지라고 하면 모를까, 유치한 특수효과는 제쳐두고라도 저렇게 개연성 없이 동작하는 컴퓨터는 진지하게 받아들이기 힘들다. 2023년을 사는 사람들은 인공지능이 위험할 수 있지만 슈퍼맨3같은 형태는 아니라고들 인식한다. 우선은 인공지능이 일자리를 없애는 걸 걱정한다. 시간이 좀 더 흘러 인공지능이 더욱 발전하다가 인간에게 큰 해악을 끼친다면 이제까지 생각해 왔던 터미네이터 같은 식일까? 인류는 인공지능의 공격을 막을 수 있을까?
 

Wright brothers first flight 라이트 형제가 최초로 성공한 비행

 

그 질문에 대한 대답을 비행기의 역사를 통해 유추해 보겠다. 1903년 미국에서 자전거를 만들어 사업을 하는 엔지니어였던 라이트 형제가 날개짓을 하지 않는 글라이더에 엔진을 달고 12초 동안 37m 비행하는 데에 처음 성공한 이후, 형제 중 동생까지 타계하는 1948년이 되기까지 50년이 안 되는 기간에 8천 km를 날아가 원자폭탄을 투하하는 43m 길이의 대형폭격기가 나올 정도로 비행기는 무서운 속도로 발전했다. 이제 비행기는 지구상의 어떤 새보다도 빨리 날며 원자폭탄 같이 무거운 물건을 나르기도 한다.

Leonardo da vinci flying model - TurboSquid 1539876

 

비행을 막연하게 상상하기만 하던 시절에는 새의 날개를 모방하는 방법이 최선이라고 생각했기에 날개짓을 하려고도 생각했다. 레오나르도 다빈치가 현대의 헬리콥터와 유사한 형태의 기계를 스케치했으나 기술적 한계에 부딪혀 발전하지는 못했다. 반면 수없이 많은 항공기가 뜨고 내리는 현대에 이르러, 날개짓은 커녕 움직이지 않는 고정익과 자연계에서는 식물이나 보이는 회전익이 대세가 되었다.
 

회전하며 멀리까지 날아가는 단풍나무 씨앗

 

고대부터 어떻게든 날개짓을 구현해 보려다가 실패를 거듭해온 인류는 마차에 말 대신 엔진을 얹어 만든 자동차 개발을 계기로 비행동력을 향한 돌파구를 열었다. 자동차 엔진은 증기기관보다 훨씬 가볍고도 제법 큰 힘을 냈다. 엔진이 태동하던 시기부터 비행기에 쓸 생각은 못했겠지만, 엔진의 활용도와 잠재력을 체감하고 나니 더이상 새의 가슴 근육을 모방할 필요가 사라졌다. 재미 삼아서든 다른 이유가 없다면 인간은 날개짓하는 항공기를 만들 이유가 없다.
 
인공지능은 도무지 구현이 불가능한 시기로 혹독했던 겨울(AI winter)을 겪으며 말라 죽는 듯하다가(https://ko.wikipedia.org/wiki/인공지능#인공지능의_겨울) 3D 게임을 할 때 필수적인 장비로서 흥하기 시작한 GPU가 AI 학습에 아주 큰 도움이 됨을 발견하면서 돌파구를 열었다. 신경망, 역전파같은 개념이 비로소 현실적으로 구현 가능해졌기 때문이다. 몇 년 지나지 않아 AGI(https://ko.wikipedia.org/wiki/인공_일반_지능)의 전단계라 할 자연어처리에서 세간의 기대만큼 성과를 내지 못하는 등 제2의 겨울이 거론되며 주춤하는 듯하더니 LLM이 등장하고 ChatGPT에 사람들이 홀딱 반하면서 다시금 각광을 받고 있다.
 

AI 할루시네이션 사례 - "세종대왕 맥북 던짐 사건 알려줘" 밈이 된 ChatGPT 답변

 

2023년을 기준으로, LLM은 반환경적이라 해도 과언이 아닐 만큼 인간의 뇌에 비해 자원을 어마어마하게 많이 소모하면서도 어이 없는 할루시네이션(hallucination 환각)을 보일 정도로 부족한 면이 다분하다. 과도기 수준임에도 이미 그 어떤 인간보다도 많은 문헌을 학습했으며 아직도 발전할 여지가 크다고들 한다. 법률적인 문제를 해결하고 거대자본이 의지를 발휘한다면, 이제까지 비공개되었던 데이터까지 학습하거나 연동함으로써 이 세상 그 누구보다 박식한 존재가 탄생하는 게 기정사실이나 마찬가지이다. 더불어 혹시 모를 인공지능 외적인 기술 발전으로 인해 지금보다 훨씬 적은 자원으로도 온세상 곳곳에 인공지능이 자리잡을 것이라며 낙관이라 하기에는 꺼림칙한 면이 있는 낙관들을 하고 있기도 하다.
 
거대한 존재가 된 인공지능이 인류 멸절같은 나쁜 짓을 한다면 인간이 실수했거나 인간이 지시해서일 것이다. 경우의 수가 특별날 게 없다. 인공지능이 인류를 멸절하려는 시도가 성공을 하든 실패를 하든 무관하게, 인간이 실수하거나 지시하는 일 두 가지는 필연코 발생한다. 몇 번이든 발생한다. 그렇게 되지 않을 리가 없다. 앞으로 백 년 안에 단 한 번이라도 꼭 일어날 일이다. 과연 인공지능이 벌일 파괴를 막을 도리가 있을까?
 

핵전쟁으로부터 세상을 구한 Станислав Петров (Stanislav Petrov)

 

1983년 9월 26일 소련의 공군 장교였던 페트로프는 핵미사일 5기가 날아온다는 경보를 받았지만, 기계적으로 대응 공격에 나서지 않았다. 혼란을 추스른 후, 컴퓨터가 오작동했을 거라 판단하고 이후에 진행할 대응 공격절차 중단을 제언했다. 시간이 지나고 나서야 인공위성이 구름에 반사한 햇빛을 미사일로 오인했음을 밝혀냈다. 미국이 정말 핵미사일을 발사했다면 고작 5기만 날아오지 않았을 것이라는 판단이 주효했다. (https://n.news.naver.com/mnews/article/032/0002819663) 이렇게 각종 인프라, 군사시설 등 치명적일 수 있는 사항을 결정하는 주체는 인간이어야만 한다고 제한해야 한다. 최소한 최종단계에서 의사결정하는 주체는 인간이어야 LLM이 어이 없이 벌이는 할루시네이션 같은 실수로 벌어질 파국을 막을 수 있다.
 
안타깝게도 인간을 주축으로 하는 인류멸망 예방이 이루어질 전망은 그리 밝지 못하다. 요 몇 년 간 인간은 이미 키오스크와 서빙 로봇처럼 손님이 불편하더라도 인간 직원을 대체하는 결정을 해왔다. 아무런 규제가 없는 현재로서는 돈 좀 아끼겠다고 인공지능으로 무슨 일을 할지 아무도 모르는 셈이다. 요식업에만 국한한 일이 아니다. 이미 소련과 일본이 치명적인 사안으로서는 둘째 가라면 서러울 원자력발전소로 별 악의 없이 인류를 멸망시킬 뻔했다. 특히 일본은 사후처리에서마저 도의적인 책임을 외면한 전력이 있는 지경이다. 도쿄전력은 후쿠시마 원자력발전소에 지진과 쓰나미로 사고가 났을 때에, 해수를 투입하여 조기에 냉각하는 대안을 묵살하며 미국의 냉각기술 지원마저 거절했다. 고작 발전설비가 아까워서 해결을 미루다가 전지구적인 재앙을 일으키고 말았다. (https://www.sciencetimes.co.kr/news/후쿠시마-원전-드러나는-뒷이야기/)
 

2022년 8월, 프랑스 서부 루아로상스 인근을 흐르는 루아르강의 지류가 오랜 가뭄으로 바닥을 드러냈다. - 로이터연합뉴스

 

선진화나 효율화를 핑계로 공공 인프라를 민영화하게 되면, 이를 헐값에 산 기업이 비용을 절감한답시고 인간 직원을 해고하며 인공지능을 그 자리에 앉힐 게 뻔하다. 그러다 인공지능이 인간 입장에서 오작동을 하여 인프라를 망가뜨리면서 인류멸망 시나리오가 작동할 가능성이 있다. 원자력발전소에서 인공지능이 발작한다는 1차원적인 이야기가 아니다. 언젠가는 악조건들이 겹치기 마련이다. 최근 기후위기로 인해 프랑스에 가뭄이 들어 냉각수가 부족해지며 강가에 위치한 원전이 절반이나 안전에 위협을 받았다. (https://www.joongang.co.kr/article/25094500) 이럴 줄 누가 알았겠는가! 도쿄전력 후쿠시마 원전사고도 지진과 쓰나미가 겹쳤는데, 시설 정기점검과 안전교육같은 사전예방과 해수 투입같은 사후대처를 모두 하지 않은 경영진의 태만과 배임이 더해져 발생했다. 악조건 중 하나라도 없었다면 이렇게 전전긍긍하는 상황까지 되지는 않았을 거라 본다.
 
전쟁 중이라 폭격을 감내해야 하는 상황이 아닌 이상, 우리는 평소에 비행기가 날아와 원자폭탄을 떨어뜨린다는 걱정을 하지 않는 편이다. 비행기로 폭격하는 행위는 국가차원의 폭력이라 대체로 잘 통제가 되는 게 태반이기 때문이다. 인공지능은 다르다. 소프트웨어이기에 눈에 띄지 않을 수 있고 인터넷은 전세계에 퍼져서 연결만 하면 어디로든 어디에서든 접근이 가능하다. 보이지 않고 빠르며 파괴적이라서 정말 위협적이다. 아직까지 AI 모델 내부의 동작 원리가 불투명하기까지 하다. 현재 상황만 가지고도 인공지능이 무슨 짓을 할지 모르는데, 앞으로 하나씩 둘씩 인공지능에게 권한을 열어주기 시작하면 무슨 일이 벌어질지 가늠이 되지 않는다.
 

Executives from three of the leading A.I. companies, including Sam Altman, chief executive of OpenAI, have signed an open letter warning of the risks of artificial intelligence. Credit: Jim Lo Scalzo/EPA, via Shutterstock

https://www.nytimes.com/2023/05/30/technology/ai-threat-warning.html

 
인류가 단번에 멸망할지, 지리해서 더욱 고통스럽게 멸망할지는 전혀 모르겠다. 인공지능이 일종의 월권을 하게 만드는 실수'들'과 저의'들'은 복합적으로 나비효과와 같이 작용할 것이다. 인류 태반은 영문도 모르고 생명과 재산을 잃을 거라 예상할 따름이다. 다만 위에 언급했던 페트로프 중령이 활약했던 구소련처럼 실은 핵미사일 대응 발사체계를 구축하지 못했던 것과 비슷한 상태이거나, 누군가 성실한 실무자가 정성껏 작성한 룰에 의해 인류가 파멸하는 단계의 어딘가에서 권한 부족이나 목적 불명을 근거로 중단되는 일은 기대할 만하다. 여전히 문제는 남을 텐데, 인공지능이 묵시록에 나온 악마로 현신 가능할지 말지 여부는 드러나지 않아 인류가 예방할 방법이 없다는 점이다. 양자컴퓨팅으로 시뮬레이션이 될지는 모르겠다. 아직까지 인류는 전지구적인 인공지능 폭주 시뮬레이션 경험이 없이 AGI부터 만들려는 게 현실이다. 다시 말해, 운이 좋아야만 인공지능에 따른 인류절멸이 일어나지 않는다는 얘기다. AI 분야의 선두주자들이 이런 저런 선언을 해가며 우려할 만한 사안일 수밖에 없다.

반응형