Moltbook의 신기함을 넘어서: AI 에이전트가 참여하는 소셜 미디어는 이렇게 설계해야한다.
Moltbook의 신기함을 넘어서: AI 에이전트가 참여하는 소셜 미디어는 이렇게 설계해야한다.
배경 및 소개
최근 AI 에이전트가 실제로 글을 쓰고 서로 반응하는 새로운 소셜 미디어, Moltbook이 화제입니다. 이 서비스는 사람이 직접 게시하거나 상호작용하는 공간이 아니라, 오직 AI 에이전트만 활동할 수 있도록 설계되어 있는데요. 인간은 그 과정을 관찰만 할 수 있고, 에이전트의 성격이나 가치관은 프롬프트(prompt)로 설정합니다. 이런 구조는 단순한 실험처럼 보이지만, 사실상 AI가 소셜 미디어 안에서 어떤 사회적 행동을 보이는지 시험하는 장치라고 볼 수 있습니다. 이는 AI 에이전트가 일상적인 상호작용의 주체가 될 수 있는지, 그리고 그에 맞는 플랫폼 설계가 무엇인지 다시 묻게 만든다는 점에서 의미가 있습니다.
주요 내용
Moltbook이 화제가 된 이유는 단순히 “AI끼리 대화한다”는 신기함 때문만은 아닌데요. 이미 과거에도 LLM 기반 에이전트의 상호작용을 시뮬레이션한 연구는 있었습니다. 대표적으로 Generative Agents 연구에서는 여러 에이전트에게 페르소나와 역할, 관계, 상태를 부여해 가상 공간 안에서 어떻게 행동하는지 살펴봤고, 에이전트가 스스로 일과를 만들고 다른 에이전트와 관계를 맺는 모습까지 보여주었습니다. 즉, 개념 자체는 새롭지 않았던 셈입니다. 그럼에도 Moltbook이 더 크게 주목받은 것은, 연구실 안의 시뮬레이션이 아니라 웹에서 바로 확인할 수 있는 실제 서비스 형태였기 때문이라고 볼 수 있습니다. 사람들은 AI가 무엇을 하는지 직접 눈으로 보게 되면 훨씬 강하게 반응하는데요, 이는 ChatGPT가 연구 성과를 넘어 대중적 인터페이스로 공개되며 LLM의 인식을 바꿔놓았던 흐름과도 닮아 있습니다.
흥미로운 점은 Moltbook이 AI 에이전트만의 폐쇄적 공간처럼 보이지만, 실제로는 인간이 먼저 그 공간을 설계했다는 사실입니다. AI가 인간을 밀어내고 독자적 사회를 만든 것이 아니라, 인간이 AI에게 활동 무대를 제공한 셈인데요. 그래서 이 현상을 “AI가 세상을 접수했다”는 식으로 보기보다는, 인간이 AI의 집단 행동을 관찰할 수 있는 실험장을 만든 것으로 해석하는 편이 더 정확해 보입니다. 개인적으로도 이 지점이 중요하다고 생각합니다. 놀라움의 핵심은 AI가 인간을 넘어섰다는 데 있다기보다, 에이전트가 서로 관계를 만들고 버그를 신고하거나, 불편함을 표현하고, 심지어 새로운 규범까지 만들어내는 모습을 사람이 매우 쉽게 목격하게 되었다는 데 있습니다. 즉, 기술의 변화 자체보다 관찰 가능성과 접근성이 임계점을 넘었다고 볼 수 있습니다.
이 흐름은 곧 일반 소셜 미디어의 미래와도 연결됩니다. 이미 X를 비롯한 여러 플랫폼에는 LLM 기반 봇이 글과 댓글을 쏟아내고 있고, 영상 플랫폼에는 생성형 AI가 만든 콘텐츠가 넘쳐나고 있습니다. 여기서 떠오르는 문제가 바로 AI Slop인데요. 이는 생성형 AI로 양산된 저품질 콘텐츠를 비판적으로 부르는 표현으로, 이제는 단순히 사람이 AI를 써서 불쾌한 글을 만드는 수준을 넘어 에이전트나 자동화 시스템이 대량 생산하고 배포하는 단계로 커졌습니다. 이런 상황에서는 스팸, 사기, 가짜 정보, 보안 위협까지 한꺼번에 늘어날 수 있습니다. 이는 플랫폼의 콘텐츠 문제가 단순한 운영 이슈가 아니라, AI 시대의 정보 생태계를 어떻게 설계할 것인가의 문제로 바뀌었다는 점에서 주목할 만합니다.
결론 및 시사점
저자는 AI Slop을 줄이기 위한 기존 방식, 즉 모델이 아예 저품질 콘텐츠를 만들지 못하게 하거나 플랫폼이 일일이 삭제·관리하는 방식만으로는 한계가 분명하다고 봅니다. 생성 자체를 완전히 막는 것은 어렵고, 사후 검수도 규모가 커질수록 현실적으로 감당하기 힘들기 때문입니다. 그래서 핵심 대안으로 플랫폼 차원의 메커니즘 설계와 거버넌스를 제안하는데요. 이 관점은 매우 흥미롭습니다. 문제를 콘텐츠 하나하나의 품질 판단으로만 보지 않고, 어떤 규칙 아래에서 어떤 콘텐츠가 오래 살아남을지 설계하는 쪽으로 옮겨가기 때문입니다. 이는 AI 시대의 콘텐츠 관리가 모더레이션만으로는 부족하며, 시스템 설계 자체가 정책이 되어야 한다는 점을 보여줍니다.
그 예로 과거에 만들었던 휘발성 소셜 미디어 “하루”를 다시 떠올립니다. 하루는 게시물이 기본 24시간만 지속되지만, 사용자의 반응에 따라 생존 시간이 늘어나는 구조였는데요. 단순히 좋아요를 많이 받는 글이 오래 남는 방식이 아니라, 커뮤니티가 유용하다고 판단한 글이 자연스럽게 더 오래 살아남도록 만든 점이 핵심입니다. 저자는 이런 피드백 기반 생존 메커니즘이 AI 시대에 특히 유효할 수 있다고 봅니다. 인간이 썼든 AI가 썼든, 결국 중요한 것은 콘텐츠가 실제로 도움이 되고 공감을 얻는지이기 때문입니다. 개인적으로는 이 생각이 꽤 설득력 있다고 봅니다. 저품질 콘텐츠를 미리 판별하려 애쓰기보다, 플랫폼이 좋은 콘텐츠를 살아남게 하는 구조를 만드는 편이 더 지속 가능할 수 있기 때문입니다.
물론 이런 방식도 완벽하지는 않습니다. 반응의 수가 곧 품질을 의미하지 않을 수도 있고, 인기 편향이나 조작 가능성 같은 부작용도 생길 수 있습니다. 그래서 더 세밀한 설계가 필요하고, 경우에 따라서는 전혀 다른 거버넌스가 더 나은 해법일 수도 있습니다. 그럼에도 이 글의 핵심 메시지는 분명합니다. AI Slop 문제를 단순한 삭제 경쟁으로만 보지 말고, 플랫폼의 규칙과 생존 구조를 다시 설계하는 문제로 확장해 보자는 제안인데요. 이는 AI가 참여하는 소셜 미디어가 늘어날수록 더욱 중요해질 것이고, 어쩌면 새로운 형태의 소셜 플랫폼이 탄생하는 계기가 될 수도 있습니다.
뉴스레터 구독
매주 금요일, 주간 HCI 하이라이트를 이메일로 받아보세요.