사용자의 목소리를 AI로 재현하다: LLM기반 Multi Agent UX플랫폼 개발기
사용자의 목소리를 AI로 재현하다: LLM기반 Multi Agent UX플랫폼 개발기
HCI Today가 핵심 내용을 정리했어요
- •이 글은 네이버 사내 행사에서 공개된 NSona 발표로, AI와 사용자 조사를 함께 하는 방법을 다룹니다.
- •디자이너, AI 리서처, 개발자 3명이 사용자 페르소나 봇 NSona를 함께 기획하고 만들었습니다.
- •이들은 사용자 조사 자료를 AI가 바로 쓰게 바꾸고, 여러 사람이 함께 대화하는 구조로 실험했습니다.
- •개발 과정에서 각자의 역할도 바뀌어, 디자이너는 질문을 설계하고 리서처는 구조를 만들며 개발자는 비평했습니다.
- •이 발표는 AI 시대에는 완성도보다 시작점을 잘 잡고, 협업 방식 자체를 새로 생각해야 한다고 말합니다.
HCI 전문가들의 생각을 바탕으로 AI 에디터가 생성한 요약입니다.
HCI 관점에서 읽을 만한 이유
이 글은 AI를 ‘잘 돌아가는 모델’보다 ‘함께 일하는 경험’으로 보여준다는 점에서 HCI 실무자와 연구자에게 의미가 있습니다. 사용자 조사와 서비스 개발 사이의 간극을 줄이기 위해 페르소나봇, 다자 대화 구조, 새 평가 방식까지 연결했기 때문입니다. 특히 실제 제품 맥락에서 AI가 언제 도움 되고 언제 방해되는지, 사람의 개입 지점을 어떻게 설계해야 하는지 생각하게 합니다.
CIT의 코멘트
흥미로운 지점은 AI를 결과물로 끝내지 않고, 리서치와 협업을 이어주는 인터랙션 장치로 다뤘다는 점입니다. 페르소나를 ‘말하게’ 만드는 시도는 단순 자동화가 아니라, 팀이 사용자 이해를 공유하는 방식 자체를 바꾸는 실험에 가깝습니다. 다만 이런 구조는 편리함이 커질수록 실제 사용자와의 거리도 쉽게 멀어질 수 있어, 어디까지를 재현으로 보고 어디서 사람의 판단을 다시 넣을지 더 선명한 설계가 필요합니다. 서비스별 평가 프로세스를 따로 만든 접근도 인상적인데, 이런 도구가 잘 쓰이려면 모델 성능보다 팀이 결과를 어떻게 해석하고 수정하는지가 함께 설계되어야 합니다. 네이버 같은 대규모 제품 환경에서는 이런 방식이 특히 강력하지만, 동시에 운영 비용과 책임 경계까지 같이 묻는 연구 질문으로 이어질 수 있습니다.
원문을 읽으면서 던질만한 질문
- Q.페르소나봇이 실제 사용자 조사를 얼마나 대체할 수 있고, 어느 지점부터는 보조 도구로만 남아야 할까요?
- Q.다자 대화 기반 협업에서 AI의 발화가 팀의 판단을 왜곡하지 않도록 하려면 어떤 인터페이스 장치가 필요할까요?
- Q.서비스별로 새로 만든 평가 방식이 다른 조직에서도 재사용되려면, 어떤 최소한의 공통 기준이 필요할까요?
HCI 전문가들의 생각을 바탕으로 AI 에디터가 생성한 코멘터리입니다.
정확한 내용은 반드시 원문을 참고해주세요.
뉴스레터 구독
매주 금요일, 주간 HCI 하이라이트를 이메일로 받아보세요.