본문 바로가기
BI/인공지능

생성형 AI 도둑질에 대항하는 사람들

by wizmusa 2024. 11. 17.

생성형 AI 열풍을 맞아 남이 만든 이미지를 멋대로 가져가 학습 데이터로 써먹는 도둑이 늘어났습니다. 심지어는 원작자에게 어차피 도용 당할 거 정식으로 넘기라는 망종이 등장하기도 했습니다. 이런 도둑질에 대항하는 사람들이 나오고 있습니다. 

 

Glaze로 생성형 AI 모델이 학습하지 못하게 처리한 이미지 예시 - 육안으로는 특이한 게 없다.

 

첫째는 Glaze(https://glaze.cs.uchicago.edu/)입니다. 이미지를 생성형 AI가 쉽사리 모방하지 못하도록 처리합니다. 글레이즈로 처리한 이미지는 학습해도 유사한 스타일로 이미지를 생성하지 못합니다. 둘째는 Nightshade(https://nightshade.cs.uchicago.edu/)입니다. 나이트셰이드는 한 발 더 나아가 이미지 생성형 AI 모델 자체를 망가뜨리기를 목적으로 합니다. 둘 다 사람은 알아보지 못할 흔적과 신호를 이미지에 섞습니다. 자세한 원리는 제가 잘 알아도 굳이 설명하지 않겠습니다. 😉 아래 영상을 참고하시길 바랍니다.

 

How GLAZE & NIGHTSHADE can protect your art from AI

 

혹자는 학습을 막는 조치를 넘어 AI 모델 자체를 망가뜨리는 건 너무하지 않냐고 합니다만, 제 생각은 다릅니다. 누군가의 재미와 부업때문에 애꿎게 생업을 위협받는 참사를 더욱 걱정하고 해결해야 합니다. 이미 전세계적으로 꽤 많은 일러스트레이터와 화가들이 저질 AI 이미지 양산에 의해 일자리를 잃었습니다. 대가를 치르지 않는 대가를 치르도록 해야 합니다.

 

아쉽게도 제작자들이 밝혔다시피 Glaze와 Nightshade가 항구적인 대책이 되지는 못합니다. 벌써부터 저작물 강도들은 Glaze와 Nightshade 변환 이미지를 학습하는 중입니다. Glaze와 Nightshade 개발자와 조력자와 후예는 이에 대항하여 또 다른 패턴을 만들어 대항해야 할 겁니다. 끝나지 않는 싸움이 될 수 있습니다. 그렇다 해도 화풍을 도둑 맞는 일은 이전보다 훨씬 줄어들지 않을까 합니다. 이 정도만으로도 칭송 받을 만한 업적입니다.


이미지나 영상은 Glaze와 Nightshade같은 도구를 쓸 여지라도 있으나, 글은 무방비일 수밖에 없습니다. 중국의 한 웹 소설 플랫폼은 AI 학습 조항을 추가하더니 3개월동안 200 작품을 투고하는 계정이 등장하여 유명 작품을 흉내내어 쏟아 내는 바람에 작가 수익이 80% 감소하기도 했다고 합니다. 어떻게든 대항할 방법이 나오기를 기원합니다.

 

중국 실제 사례를 소개한 트위터 글.

https://x.com/omniveryameyori/status/1846765680437457365

반응형