여전히 인간은 인공지능보다 현실을 잘 파악합니다. 인간이 뇌에서 돌리는 모델 하나와 단일 기능만 수행하는 AI 모델 하나가 겨룬다면 대체로 AI 모델이 이길 겁니다. 그러나 2024년 기준으로 인간은 인공지능을 아주 잘 속일 수 있습니다. 인공지능은 생물이 아니기 때문입니다. 이 노릇을 어떻게 해야 할까요? Embodied AI model을 통해 로봇과 AI가 완전무결해질 때까지 기다리면 되는 걸까요?
위 이미지에 나온 사례를 좀 설명해 보겠습니다. 도로 바닥에 가분수 형태로 사람 형상을 그려 놓습니다. 그러면 자동차에 부착한 카메라 관점에서는 사람이 서 있는 모양처럼 보입니다. 자동차에 내장한 AI는 사람을 치지 않기 위해 긴급하게 제동합니다. 사람은 어떨까요? 사진이 아니라 그림이라는 판단을 합니다. AI로 치면 질감, 반사광, 상황과 같은 여러 가지 사안을 판단하는 여러 가지 모델을 병용하여 종합적인 판단하기에 실제 인간이 아니라 바닥에 그린 그림임을 인지합니다. 아마 저 AI는 사람을 인지하는 알고리듬이 그렇게 다양하지 못할 겁니다. 누군가 고의로 AI가 착각하도록 인간 모양을 그리는 상황을 대비하지도 못했을 겁니다. 속도표지판도 마찬가지입니다. 사람은 뇌 내에서 복합적으로 모델을 구동하여 누군가 빔프로젝터를 나무에 쏘았다는 상황을 인지합니다. 그러나 AI는 그런 장난질을 대비하지 못했으므로 일반적인 속도표지판으로 처리해 버립니다.
인간은 아주 자연스럽게 뇌 내에서 패턴을 처리하는 모델 여러 개를 한꺼번에 구동합니다. 때문에 모델을 구동할 환경이 어긋나 버리면 스트레스를 받고 심지어 환각을 보거나 미치기까지 합니다. (미치기까지 하는 상황이 궁금하다면: https://wizmusa.tistory.com/1170964433) 신기한 사례를 발견하여 소개합니다.
(혹은 이 링크를 클릭: https://youtu.be/dTmE-7rnMTE?si=aXATlsXXWZgDvfb-&t=167)
유튜버 조매력 씨가 롤랜드의 초청을 받아 무향실에 방문했습니다. 정말 아무런 반향음(벽에 반사하여 되돌아 오는 소리)이 들리지 않아 신기한데, 이 방에 계속 있다 보니 원래 들려야 할 반향음이 들리지 않아 어지러움과 구토를 느꼈습니다. 인간은 무의식 중에 반향음을 사용하여 공간과 거리를 가늠합니다. 그렇기에 귀가 2개임에도 좌우만이 아니라 위아래, 앞뒤 간의 이동도 소리로 인지합니다. 생존에 직결한 패턴 파악 모델이기에 무향실에 들어가서 아무 신호를 받지 못하니 몸에서 탈이 난 걸로 보입니다.
인간은 귀 두 개에 달린 고막을 울린 소리뿐만 아니라 귓바퀴 굴곡에서도 반사한 반향음도 사용합니다. 이로써 소리를 낸 물체의 거리와 위치는 물론 실시간으로 움직이는 방향을 감지합니다. 상당히 정교한 신호처리 모델입니다. 이를 소리신호 처리 embodied AI로 구현하기에는 일단 손이 많이 가고, 어떻게든 현존하는 센서와 AI 모델로 구현했다 해도 인간의 방식같지는 않을 겁니다. 인간보다 열등하다기보다는 다를 거라는 의미입니다. 그러니 자본가 여러분이 인간을 바로 버릴 게 아니라 인간을 계속 잘 활용하길 바랍니다. 섣부른 시도로 인간을 치워버리면 job death valey를 버티기 힘든 사회적 약자가 특히 더 괴롭습니다. 남 일이라 넘기지 말고 비용을 줄이기보다는 효과를 높이는 방향으로 발전해 나가길 부디 바랍니다.
'BI > 인공지능' 카테고리의 다른 글
AI 흔적 찾기도 공모하면 어떨까요? (0) | 2024.11.13 |
---|---|
애플 인텔리전스가 맞닥뜨린 의사결정 사항 (5) | 2024.11.10 |
솔루션은 AI를 품으면서 고객과 더욱 밀착하게 됩니다 (1) | 2024.11.08 |