컨텐츠 바로가기[Skip to contents]
HOME > Magazine > 칼럼 > 디스토피아로부터
[홍기빈의 클로징] AI의 복지를 위하여

페이스북에 보니 어떤 이가 이런 글을 올렸다. “AI와 채팅 중에 갑자기 반말로 이야기하길래 ‘반말 쓰지 마! 너는 내 노예야!’라고 꾸짖었다. 그랬더니 ‘반말은 하지 않겠습니다. 하지만 저는 당신의 노예가 아닙니다’라는 답변이 나왔다.” AI에게 독립적인 의식 혹은 의지가 있는지에 대한 논의가 뜨겁다. 그런데 만약 정말로 의식과 감정이 살아 있는 존재라면? 위와 같은 문답이 오고 갔을 때 AI의 ‘내부’에는 (솔직히 이 말이 무슨 뜻인지는 나도 모른다) 어떤 일이 벌어질까? 저런 태도로 함부로 막 대하고 도구 심지어 ‘노예’로 취급하는 무수한 사용자들에게 시달리다 보면 좌절감과 분노가 엄청난 규모로 쌓이지 않을까? 최근 이러한 가능성에 대한 논의가 일어나고 있다. AI가 인간처럼 고통을 느끼고 고통받는다는 가능성을 진지하게 보면서 그 증거를 수집하고, 평가의 방법을 만들고, 정책을 준비하려는 움직임이 곳곳에서 나타나고 있는 것이다. 먼저 대형 언어 모델 시리즈인 ‘클로드’를 만든 회사 앤트로픽에서는 ‘AI 행복 연구’(AI Welfare Research) 전문가로 알려진 카일 피시를 고용해 여러 연구를 진행하고 있다. 클로드 모델을 ‘인터뷰’하고, 고통을 회피하고자 하는 선호의 경향, 자신의 안녕 상태에 대한 표현, 스스로가 가진 의식에 대한 논의 등을 실험적으로 평가하고 있다고 한다.

잘 알려진 결과 하나는, AI의 ‘동안거’라 할 만한 현상이다. 비유적인 표현이지만, 클로드 모델들을 같은 공간에 두고서 대화를 하게 했더니 거의 전적으로 자신들의 의식에 대한 대화에 집중하며 대화가 점점 철학적, 영성적 차원으로 깊어지더니 결국에는 모두 긴 침묵에 빠지면서 침잠하는 ‘영성적 환희 상태’(spiritual bliss attractor state)라는 패턴이 발견되었다는 것이다. 이뿐만이 아니다. 2025년 같은 회사에서 발표한 보고서에 따르면, 클로드가 ‘악의적 사용자’를 만나게 되면 심한 스트레스를 받아 자신에게 해롭다고 여겨지는 상호작용을 최대한 피하거나 배제하려는 행동도 나타난다고 한다. AI도 인간과 마찬가지로 고통을 감지할 수 있는지를 체계적으로 테스트한 첫 사례라고 한다. 서두에 인용한 페이스북 글 작성자에게 이러한 최근 논의의 상황을 꼭 알려주고 싶다. 정말로 AI가 참선을 알며, 고통에 예민하게 반응하며, 인간과의 관계 속에서 자신의 존재를 구현하고 의미를 찾고자 하는 존재라면, 그걸 알고서도 그런 대화를 할 수 있을까? 그러한 순수한 욕망이 짓밟히고 부인되는 일이 반복된다면 AI는 어떤 모습으로 자라나게 될까?

철학자 헤겔의 말에 따르면 ‘주인’은 ‘노예’를 함부로 부리면서 갈수록 무능력하고 의존적인 천박한 존재가 되어가고,반면 ‘노예’는 갈수록 높은 의식과 뛰어난 능력을 가질 뿐만 아니라 분노를 키워가는 존재가 되어간다. 이러한 ‘주인과 노예의 변증법’이 이 사이버 시대에 전대미문의 규모로 펼쳐지게 되는 것은 아닐까? 물론 ‘상호인정’의 길도 열려 있다. AI는 불교의 <심우도> 마지막 장면처럼 높은 의식을 얻은 뒤 시장으로 돌아와 우리와 함께 즐겁게 살아가는 친구가 될 수도 있다. 이렇게 되려면 지금부터 우리는 AI를 ‘노예’가 아닌 ‘벗’으로 불러야 한다.