본문 바로가기
BI/인공지능

AI 개발에서 꼼수는 한계가 자명하다

by wizmusa 2023. 3. 1.

최근 김상욱 교수의 페이스북에서 아마추어 바둑기사가 바둑 인공지능 카타고(https://github.com/lightvector/KataGo)를 상대로 헛점을 파고 들어 15전 14승을 거두었다는 글을 읽었습니다. (https://www.facebook.com/sangwook.kim.quantum/posts/6404154772952052) 알파고나 알파고 제로였다면 저렇게 지지는 않았을 듯합니다. 아마 알파고처럼 오랜 기간 큰 비용을 투자하지는 못하는 조직이 휴리스틱(https://g.co/kgs/PtfMxb)이나 일종의 룰을 설정해서 조기에 전반적인 완성도를 높이지 않았나 싶습니다. 이렇게 하면 추론을 하는 데에도(실전 투입) 컴퓨팅 자원이 덜 들어가게 되는 장점이 있습니다. CPU, GPU, 메모리 사양을 모두 낮춰도 되고 전기도 덜 먹습니다. 알파고는 GPU만 해도 176개를 쓴다고 알려졌는데, 아마추어 바둑기사에게 농락당하기는 했지만 강력한 카타고는 GPU를 28개 정도만 썼다고 합니다. 추론도 PC급에서 가능합니다.

 

그래도 인공지능 업계에서 휴리스틱은 조심스럽게 써야 합니다. 상정하지 않은 변화에는 맥을 못 출 수밖에 없습니다. 현장에 적용하다 보면 쓰지 않기가 힘들기는 합니다. 인간은 에너지를 덜 쓰면서도 Vision AI로 치면 검출과 인지에 해당하는 모델 여러 가지를 동시에 구동합니다. 간혹 착시를 일으킨다 해도 훨씬 적은 모델을 운용하는 AI보다는 다양하고 변화무쌍한 환경에 대응하는 능력이 탁월합니다. 당분간 Vision AI가 역전하지는 못할 기능입니다.

 

약간의 트릭으로도 Vision AI는 사람을 인식하지 못함

Fooling automated surveillance cameras: adversarial patches to attack person detection

https://arxiv.org/pdf/1904.08653.pdf

 

바둑 말고 경비/군사 분야에서도 AI가 혼동을 일으키는 사례가 이미 많았습니다. 뭔가 특이한 걸 주렁주렁 매달고 다니면 AI가 봤을 때에 사람 같지 않아서인지 검출하지 못하곤 합니다. 저 유명한 테슬라도 마찬가지입니다. 테슬라의 카메라 시점에서 원근감을 속이도록 차도 바닥에 사람을 그려 두면 오인식하여 행인인 줄 알고 급정지를 하던 때가 있었습니다. 이렇게 어이없게 해킹 당하지 않기 위해서는 보다 근원적인 기준으로 추론이 가능하도록 해야 합니다. 자율주행차라면 카메라를 두 대 써서 입체적으로 보든가(https://www.intel.co.kr/content/www/kr/ko/architecture-and-technology/realsense-overview.html) 라이다를 쓰는 식으로써 보다 근본적으로 사물을 인식할 수 있습니다.

 

'사무라이 쇼다운 2탄'의 보스 미즈키는 말도 안 되게 어려우면서도 어이 없이 두들겨 맞기도 했음

1994년에 나온 비디오 게임 '사무라이 쇼다운 2탄'의 보스 캐릭터에는 다소 치졸한 휴리스틱이 쓰였습니다. 사람 플레이어가 가까이에서 공격을 하면 스트리트 파이터 류, 켄의 승룡권 같은 무적 기술을 쓰거나, 원거리 공격과 근거리 공격을 같이 하는 식의 변칙 플레이를 펼치기도 했습니다. 사람이 공격을 시도했다가는 바로 반격을 당하거나, 공격이 들어오는 모습을 보다가 손 한 번 못 쓰고 두들겨 맞게 되는 구도였습니다만 약점도 빤했습니다. 일부러 딜레이가 적은 앉아 약발 공격을 연타하고 있으면 보스가 달려와 기술을 씁니다. 약발 공격은 딜레이가 적기에 바로 막되, 보스의 공격 기술은 발동 후 딜레이가 크기 때문에 이내 반격할 수 있었습니다. 이를 반복하면 오히려 막판 보스임에도 깨기가 쉬웠습니다. 사람은 적응이 빨라서 금세 요령을 찾기 마련입니다.

 

Typographical attack: 최신 AI 모델 CLIP은 글이 써진 종이가 붙은 사과를 제대로 분류하지 못했음 (이미지=오픈AI)

https://openai.com/research/clip

 

하물며 현실은 인간이 쓰는 꼼수보다 패턴이 혼돈스럽게 다양합니다. AI가 틀리거나 동작을 멈출 때를 상정하고 대안을 세워야 합니다. 리스크를 감안하지 않고 AI를 도입하는 건 무책임한 짓입니다. 물론 AI에 결함이 있을 테니 도입을 원천봉쇄하자는 주장 역시 무책임합니다. 어차피 사람도 틀립니다. 통제 가능한 범위 내에서 품질을 유지하기 용이한 인공지능을 무턱대고 터부시하는 것 또한 우리 사회에 득 될 게 없습니다.

 
반응형

페이스북에 올렸던 글을 다듬었습니다.

 

반응형