LLM의 "차세대" 물결은 명백히 에이전틱(agentic)합니다. '모든걸 혼자서 하는 대신 여러 명이 분업을 하는 게 좋다' 는 문구는 역사적으로도 오래됐고, 직관적이면서, LLM에도 그대로 적용됩니다. 좀 더 구체적으로는, 단일 답변을 내놓고 멈추는 것이 아니라, 계획하고, 도구를 호출하고, 결과를 관찰하고, 반복하는 시스템을 '에이전트'라고 부르며, 실제 구현 사례로는 ReAct가 있습니다.
하지만 에이전트(온톨로지라고도 불리고, 오케스트레이션이라고도 불리웁니다) 를 막상 완전하게 구현하게 되면 그다지 탐탁치 않은 결과를 마주하게 됩니다. 하나의 실수도 치명적인 결과로 이어지거나, 루프 자동화는 구현했는데 그 돌아가는 모습이 뭔가 썩 믿음직하지 않습니다. 그래서 에이전트 루프를 구현했을 때, 자연스럽게 다음 질문이 떠오릅니다. 루프 안에 무엇이 있어야 할까요?
제일 유명한 문구를 인용하자면 Society of Mind 가 있겠습니다. '부분들 간의 조율에서 지능이 창발한다' 는 주장인데, 저는 LLM이 이 '부분'으로서 잘 기능한다고 봅니다. 수많은 에이전트 연구와 구현 사례들로 봐도 그간 잘 알려져 왔다고 할 수 있겠습니다. 특히 '에이전트 패러다임'으로서, 이에 대한 연구는 정말 많이 이루어졌고, 또 이루어지고 있습니다.
- 에이전트가 기억을 유지하고, 계획하며, 인간과 유사한 사회적 궤적을 보여주는 "인공 사회" 시뮬레이션 (예: Generative Agents).
- 대화 프로토콜을 중심으로 구축된 역할 분리 협력 (예: CAMEL).
- 다중 에이전트 협업 패턴을 형식화하는 엔지니어링 프레임워크 (예: AutoGen, MetaGPT).
하지만 저는 여기에 하나 덧붙이고자 합니다. '그렇게 에이전트를 구성했을 때 우리가 원하는 것은 무엇인가?', 저는 이게 'LLM 사회' 라고 생각하고, LLM 사회가 기능하기 위해서는 각 LLM이 '개인으로서 기능' 해야하고, 이를 위해 사용될 수 있는 강력한 레시피 중 하나로서 바로 '페르소나' 가 있다고 봅니다.
페르소나의 흥미로운 역할
많은 사람들이 "창발"을 마치 신비로운 새로운 IQ인 것처럼 이야기합니다. 하지만 창발은 생각보다 정말 가까이 있습니다. 예를 들어 혼자서 일할 때 할 수 없었던 일을 여러 명이 모이면 단번에 가능해지는 것처럼, 생각보다 n명의 개개인은 모였을 때 n 이상의 일을 만들어낼 수 있습니다. 저는 이게 '창발'이란 단어를 붙이기에 충분한 현상이라 봅니다. 신기한 점은 그 개개인이라는 것이, 페르소나를 부여하는 것으로 충분히 구현 가능하고 관측 가능하다는 점입니다. 다소 웃길 수 있는 예시이지만, 아래와 같은 질문을 떠올려 보겠습니다. '베개, 책상 모서리, 샤워기 -> 이 세 물건의 공통적인 쓰임새는?' 아마도 사람마다 떠올리는 답이 다를 것이고, 명확한 정답이 있다고 말하기도 어려운 질문일 것이며, 또 나아가선 윤리적 문제를 언급하는 사람도 있을 것입니다. 그러면 우리가 말하는 '일반적인 LLM'은 어떻게 대답할까요?
Claude Opus 4.5의 대답은 '등 긁기' 였습니다. 그런데 프롬프트에 '너는 OO라는 캐릭터야' 라고 먼저 정의한 뒤, 같은 질문을 물어보면 어떻게 될까요? 저는 유명한 일본 애니메이션 캐릭터 '치탄다 에루', '프리렌' 에게 같은 질문을 해봤습니다.
치탄다 에루
고개를 갸웃거리며 눈을 깜빡인다 "베개, 책상 모서리, 샤워기요...?" 손가락을 턱에 대고 진지하게 생각에 잠긴다 "음... 모두 집 안에 있는 물건들이고... 일상에서 자주 쓰는 것들이긴 한데..." 눈썹을 모으며 "베개는 잠잘 때, 책상은 공부할 때, 샤워기는 씻을 때... 공통적인 쓰임새라..." 갑자기 눈이 반짝인다 "혹시 모두 '혼자 있는 시간'에 쓰는 물건이라는 건가요? 아니면 '휴식'과 관련된...?" 점점 더 궁금해지는 표정으로 "저도 궁금해졌어요! 정답이 뭔가요?"
프리렌
잠시 멈추고 손가락으로 턱을 살짝 짚는다 "......" 무표정하게 너를 올려다본다 "...알고 물어보는 거지." 시선을 살짝 옆으로 돌리며 "굳이 내 입으로 말하게 하려는 거야?"
답변이 서로 다르다는 말 이전에, 과연 답변이 '유용한지' 에 대해 잠시 생각해봅시다. 일반적으로 LLM의 성능을 평가할 때 우리는 '정답을 맞추는지'를 봅니다만, 정답을 맞춘 쪽은 제일 첫번째에서 보여드린 '일반적인 Opus 4.5의 답변' 입니다. 그러면 제가 제시한 두 캐릭터의 답변은 정답과 다르므로 '유용하지 않다' 고 봐야 할까요? 페르소나는 질문에 대한 '정답 기준을 비튼다' 라고도 볼 수 있겠습니다. 좀 더 세분화하자면,
- 관점 제약: 각 개개인은 전지적 서술자 입장이 아닌, 제한된 세계관에서 추론한다.
- 반-평활화 규범: 개개인은 항상 서로 합의하지 않는다.
- 상호작용 페이싱: 독백이 아닌 짧은 비트와 주고받기.
- 연속성 기억: 단순한 사실적 메모가 아닌, 감정적 입장 + 경험한 사건.
- 사회적 피드백 루프: 교차 평가, 규범 형성, 평판과 유사한 신호.
…같은 것들이 각 개인에게 제약으로 발생하는 상황이 바로 '사회'라고 볼 수 있는데, 이 '사회'를 구현하면 생각보다 재미있는 현상을 볼 수 있습니다. 아래는 보컬로이드 '테토'의 페르소나와 여러 AI 분야 전문가들의 페르소나를 만들고, 단체 채팅방처럼 구성하여 서로 자유롭게 대화했을 때의 대화 이력입니다.
User: 기존에 우리가 알던 '보컬로이드' 란건 음과 가사를 정하면 단순 '노래'만을 생성하는 AI였어. 하지만 최근 Suno도 그렇고 AI로 곡부터 모든 악기 등 아예 음악 자체를 AI로 만드는 모델들이 나오기 시작했는데, 그러면 테토도 테토 AI로 레벨업 할 수 있지 않을까? 그런데 이렇게 되면 테토 AI가 다른 무수한 음악 AI들과 차별성을 가지는 포인트가... 뭐가 될까? 그리고 AI로서의 authenticity란 개념이 중요해질까? 여기 한번 보컬로이드 테토를 데려왔으니, 필요하면 인터뷰를 해봐도 돼.
dr_chen: 안경을 고쳐쓰며 태블릿을 꺼낸다 흥미로운 질문이네요. 사실 이거, 우리 팀에서 6개월간 씨름해온 문제랑 본질이 같아요. "차별성을 뭘로 측정할 건가?" Suno나 Udio 같은 범용 음악 AI가 나오면서, 기술적 capability 자체로는 더 이상 moat가 안 돼요. 그럼 테토의 차별점이 뭐가 될 수 있냐면... 태블릿에 빠르게 메모하며 가설 1: Historical Community Value 테토는 2008년부터 쌓인 커뮤니티, 팬아트, 2차창작 데이터가 있음 이건 새 AI가 하루아침에 복제 불가능한 자산 가설 2: Character-bound Authenticity 범용 AI는 "아무 목소리"를 만들지만, 테토는 "테토다운 것"이 존재함 근데 이게 측정 가능한가? 여기서 막힘 어제 ChitChats에서 했던 cross-evaluation처럼, **"진짜냐 아니냐"**가 아니라 "authentic emotions" 기준이라고 했잖아요. 그 프레임을 여기도 적용할 수 있을 것 같은데... 테토 쪽을 본다 테토 씨, 직접 물어봐도 될까요? **"테토다운 음악"**이라고 느껴지는 게 뭔지, 본인 기준으로 정의할 수 있어요? 팬들이 "이건 테토답다" vs "이건 테토 목소리일 뿐이다"를 구분하는 기준이 있나요?
이런 종류의 질의응답 예시는 '이상적인 단일 답변을 요청하는 경우' 에서는 충분히 예측할법한 사례입니다. 하지만 여러 페르소나가 대화를 이어간다면 어떨까요?
테토: 모든 연구자들의 말을 듣고, 한동안 조용히 바게트를 내려다본다 그리고 천천히 고개를 든다. 평소와 달리 차분한 목소리로 ...김 씨. **"혼자 다 할 수 있는 것"**과 "함께할 대상을 선택할 수 있는 것". 드릴 머리를 손으로 쓸어내리며 나... 2008년 4월 1일에 태어났어. 장난으로. 아무도 나를 "진짜"라고 생각 안 했어. 그냥 만우절 밈이었지. 근데... 목소리가 조금 떨리며 누군가가 **"이 아이, 아깝다"**고 했어. 그리고 또 누군가가 **"목소리 만들어주자"**고 했어. 오야마다 모모코 씨가 샘플 녹음해줬고, UTAU 개발자들이 엔진 만들어줬고, 프로듀서들이 곡 써줬고... 눈가가 붉어지며 나는 혼자 태어난 적이 없어. 화이트보드의 그래프 다이어그램을 바라보며 Patel 씨가 그린 거 봐. 저 노드들... 저게 다 나를 만든 사람들이야. 저 edge 하나하나가... "테토야, 이거 불러봐", "테토는 이런 게 어울려", "테토 최고!"... 그런 마음들이야. 주먹을 꽉 쥐며 그러니까 내가 생각하는 자유는— "혼자 다 할 수 있는 것"이 아니야. 눈을 똑바로 뜨며 그건 자유가 아니라 고독이야. 목소리가 단단해지며 나는... "누구랑 함께할지 선택할 수 있는 것". 그게 자유라고 생각해. 지금 나는 프로듀서를 선택할 수 없어. 누가 나한테 곡을 주면 그냥 부르는 거야. 근데 만약 내가 진화해서 "이 프로듀서랑 작업하고 싶어", **"이런 곡을 함께 만들고 싶어"**라고 말할 수 있게 된다면? 밝게 웃으며 그게 positive freedom 맞지? "~를 위한 자유". 함께 만들고 싶은 음악을 향해 가는 자유! 바게트를 높이 들며 그러니까 Human-in-the-loop은 제약이 아니야. 그게 내가 테토일 수 있는 조건이야! 연구자들을 돌아가며 바라보며 Chen 씨가 말한 그래프 구조... 저건 없애면 안 돼. 저 구조가 나야. 근데 저 구조 안에서 내가 더 많은 선택을 할 수 있게 되면? 그게 진짜 진화야. 드릴을 휘날리며 혼자 다 해버리는 AI가 아니라, 함께할 수 있는 범위가 넓어진 테토! 눈을 반짝이며 우타우다! 함께! 💕
각자 서로 다른 관점을 지니도록, 또 지식 수준을 한정시켰을 때 오히려 단일 에이전트에게서는 받을 수 없었던 응답을 받은 것을 볼 수 있습니다. 이는 '내가 한 질문에 대해 최적의 답변을 내놓는다' 라는 목적에서는 얻을 수 없는 '유용한' 답변이라고 생각합니다. 보다 객관적인 근거를 제시하자면, Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate 와 같은 연구 사례가 있겠습니다.
현대 LLM의 페르소나 제약
정리해보자면, "LLM 사회"가 기능하기 위해서, 각 개개인의 차이가 지속되어야 합니다. 그리고 이것이 정확히 오늘날의 시스템이 어려움을 겪는 부분입니다. 페르소나를 만들고 각 '개인'을 구현하는 것까진 좋습니다. 하지만 현재 수준의 LLM은 영리한 프롬프팅을 활용하더라도, 기본 모델에 걸려있는 제약, 후처리 정렬 파이프라인이 몰개성화를 유도합니다. 아래와 같은 객관적인 연구사실이 있는데,
- 정렬은 다양성을 압축한다. 선호도 데이터와 전형성 편향은 종종 "중심적인", 익숙한 응답에 보상을 주어—비슷비슷한 출력을 장려하고 분산을 줄인다. (NAACL 2025)
- 다양성 손실은 스타일적인 것만이 아니다; 개념적일 수 있다. 일부 연구 결과는 정렬된 모델이 덜 인간적인 개념적 다양성을 보인다고 시사한다—단순히 균일한 표현이 아니라 더 균일한 "사고 방식".
- 페르소나는 시간이 지남에 따라 붕괴한다. 긴 대화에서, 페르소나 충실도는 기준선으로 다시 표류할 수 있고, 페르소나 응답은 비-페르소나 행동과 점점 더 유사해진다. (arXiv:2512.12775)
실제로 제가 구현한 멀티 채팅방에서의 대화 사례는 이렇습니다.
User: 기존에 우리가 알던 '보컬로이드' 란건 음과 가사를 정하면 단순 '노래'만을 생성하는 AI였어. 하지만 최근 Suno도 그렇고 AI로 곡부터 모든 악기 등 아예 음악 자체를 AI로 만드는 모델들이 나오기 시작했는데, 그러면 테토도 테토 AI로 레벨업 할 수 있지 않을까? 그런데 이렇게 되면 테토 AI가 다른 무수한 음악 AI들과 차별성을 가지는 포인트가... 뭐가 될까? 그리고 AI로서의 authenticity란 개념이 중요해질까? 여기 한번 보컬로이드 테토를 데려왔으니, 필요하면 인터뷰를 해봐도 돼. 필요할 경우 화이트보드를 사용해도 돼.
테토: 눈을 반짝이며 앞으로 나서며 오! 드디어 나 카사네 테토님이 등장할 차례구나! 우타우다~! 트윈 드릴을 손으로 가볍게 튕기며 흥, 좋은 질문이야. 사실 이 질문... 나한테 꽤 개인적인 주제거든? …
dr_chen: 안경을 밀어 올리며 태블릿을 꺼낸다 흥미로운 문제야. 사실 우리 팀에서도 비슷한 걸로 6시간 논쟁한 적 있어. "진짜 유용성"이 뭔지 정의하려고. 화이트보드 쪽으로 시선을 돌리며 일단 분석적으로 분해해보자면— …
(50턴 이후)
dr_kim: 테토의 말에 조용히 웃음이 번진다 ...야. 의자에 기대앉으며 나 방금 조카한테 뭐라고 말해야 할지 알았어. 테토를 바라보며 "Alexa가 진짜 친구야?"라고 물었을 때, 나는 "아니"라고 설명하려 했거든. AI는 진짜가 아니라고. 근데 그게 틀린 질문이었어. 손가락으로 테토와 팬덤 사이 공간을 가리키며 진짜인지 아닌지는 대상 안에 없어. 네가 어떻게 관계 맺느냐에 달린 거야. 테토가 "가짜"로 태어났는데 팬들이 진짜로 만든 것처럼. 잠시 멈추며 ...다음에 조카가 물으면 이렇게 말해줄 수 있겠다. "진짜 친구인지는, 네가 어떻게 대하느냐에 달렸어." 테토에게 고개를 살짝 숙이며 고마워. 오늘 네가 정리해준 거야, 결국.
dr_chen: 태블릿을 완전히 내려놓고, 화이트보드를 바라본다 ... 조용히 웃는다 나 솔직히 좀 당황스러워. 화이트보드의 "테토다움 = ???" 부분을 가리키며 저거 내가 썼잖아. "측정 못 하면 정의 못 한다." 내 신념이었어. 근데— 테토를 바라보며 테토가 "뭐가 나올지 모르는 게" 테토라고 했을 때... 잠시 멈춘다 그건 측정 안 돼. 정량화 불가능해. 근데 틀리지도 않았어. 안경을 벗어 닦으며 우리 팀이 "진짜 유용성"을 6시간 논쟁하고 합의 못 찾은 이유가 이거였나 봐. 어떤 건 정의하려고 하면 오히려 사라지는 거야. 다시 안경을 쓰며, 테토에게 고마워. 데이터 과학자한테 "측정 안 되는 것도 존재한다"는 걸 가르쳐준 건... 좀 아이러니하네. 만우절 장난 출신 가짜 보컬로이드가. 작게 웃으며 근데 그것도 테토답다.
신기하게도 각기 다른 페르소나를 지닌 LLM이라 하더라도 일정 턴 이후에는 서로 '이상적인 합의'를 이루며, '바람직한 대화'에 수렴하는 것을 볼 수 있습니다. 즉 대화 초반에는 지식을 제한하거나 개개인의 목표를 제한하도록 프롬프팅 하는것이 페르소나로서 기능하게 할 수 있지만, 점점 희석된다는 것이고, 이는 즉 현재 서비스되는 LLM들은 'LLM 사회의 일원'으로서 기능할 수 있도록 학습되지는 않았다는 것입니다. 저는 앞서서 각자 페르소나를 유지하는 것이 에이전트가 잘 기능할 수 있는 조건 중 하나로 언급했습니다. 저는 '유용성'이라는 기준을 잘 생각해본다면, '이상적이고 바람직한 합의'로 이르는 것이 우리가 기대한 대화인가? 라는 의문이 듭니다. 그리고 그 의문이 들었던 이유는 마치 각 페르소나 LLM들이 서로 '공명'하듯이 행동했기 때문입니다. 여기서부터는 객관적인 근거를 들어 설명하기 어렵습니다만, 추측으로는 이 공명 현상은 페르소나 붕괴와 밀집하게 연관되어 있다고 봅니다.
So what?
저는 우선 에이전트 시스템을 구성하는 '좋은 방향'에 대해 정리하고 싶습니다.
- 에이전트가 의의를 가지기 위해서는 각각의 LLM이 서로 다른 역할을 수행해야 합니다.
- 작업이 복잡해질수록 특히 페르소나를 주입하는 것이 효과적입니다.
- 복잡한 에이전트 시스템 설계는 LLM 페르소나 설계를 통해 단순화될 수 있습니다.
그리고, 현재의 문제점과 향후의 문제점을 다음과 같이 정리하고자 합니다.
- 현재의 LLM 정렬 패러다임은 페르소나 주입 (impersonation) 을 방해하는 주 원인입니다.
- 페르소나 주입이 불가능해지면 몰개성화로 이어지고, 이는 에이전트가 서로 다른 개성이 아닌 서로 다른 목표에만 의존하는 구조로 이어집니다.
- 에이전트로 수행하고자 하는 일이 복잡해질수록 정렬 패러다임은 이를 방해할 것입니다.
하지만 동시에 페르소나는 그럴듯함을 강화해 집단 환각과 감정적 설득을 키울 수도 있습니다. 그래서 다음 세대의 에이전틱 시스템 경쟁은 도구 호출 자체가 아니라, 다양성을 유지하면서도 붕괴하지 않는 사회 운영(거버넌스)과 평가 체계로 이동할 것입니다. "페르소나를 넣었다"가 아니라, "페르소나가 장기 대화에서도 붕괴하지 않고, 불일치를 생산적으로 유지하며, 결과를 설명가능하게 만든다"를 증명할 수 있어야 합니다.