맨위로 가기
  • 공유 공유
  • 댓글 댓글
  • 추천 추천
  • 스크랩 스크랩
  • 인쇄 인쇄
  • 글자크기 글자크기
링크가 복사되었습니다.

웰스파고, 민감정보 무유출 AI 시스템으로 2억 건 상담 자동화

작성자 이미지
김민준 기자
0
1

웰스파고가 자체 개발한 AI 챗봇 '파고'로 2억 4,540만 건의 고객 상담을 자동화하면서 개인정보 유출 없이 운영했다고 밝혔다. 프라이버시 중심 구조와 복합 AI 모델 전략으로 금융권 AI 도입의 새로운 기준을 세웠다.

웰스파고, 민감정보 무유출 AI 시스템으로 2억 건 상담 자동화 / TokenPost Ai

웰스파고(WFC)가 고객 데이터를 외부에 유출하지 않고 수억 건의 상담 업무를 완벽히 자동화한 AI 시스템을 운영하며 금융권 AI 도입의 새로운 기준을 제시하고 있다. 해당 시스템은 사람 개입 없이도 2024년 한 해에만 2억 4,540만 건에 달하는 고객 상호작용을 처리했고, 민감 정보는 단 한 번도 외부 대형 언어모델(LLM)에 노출되지 않았다.

‘파고(Fargo)’라는 이름의 AI 어시스턴트는 계좌 활동 조회, 송금, 청구 납부 등 일상적인 금융 요청을 음성이나 문자로 처리한다. 이용자들의 반복적인 사용 빈도도 높은 편으로, 평균적으로 한 세션에 여러 번의 질의가 이뤄지는 것으로 파악된다.

이와 같은 고도화된 자동화의 중심에는 철저한 ‘프라이버시 우선 설계’가 있다. 고객이 앱에서 음성으로 요청을 입력하면, 단말기 로컬에서 음성을 문자로 변환하고 이후 웰스파고 내부 시스템이 개인정보 검출을 위한 자체 소형 언어모델로 데이터를 정제·토큰화한다. 이 모든 과정을 거친 뒤에야 구글의 플래시 2.0(Flash 2.0) 모델에 전달되며, 이때도 모델은 단지 고객의 의도와 관련된 개체만 인식할 뿐이다. 웰스파고 최고정보책임자(CIO) 친탄 메타(Chintan Mehta)는 “우리가 필터 역할을 전면에서 맡아 민감 정보를 바깥으로 완전히 차단하고 있다”고 강조했다.

웰스파고에 따르면 파고는 2023년 2,130만 건에서 2024년 2억 4,540만 건으로 이용량이 급증했으며, 누적 상호작용 건수는 3억 3,600만 건을 넘어섰다. 특히 작년 9월부터 스페인어 서비스를 도입한 이후, 해당 언어가 전체 상호작용의 80% 이상을 차지하며 빠르게 확산되고 있다.

이 시스템은 단일 LLM에 의존하지 않고 작업 특성에 따라 최적의 모델을 유기적으로 연결하는 ‘복합 시스템 전략’에 기반한다. 웰스파고는 주로 구글(GOOG)의 플래시 2.0을 핵심 모델로 활용하되, 라마(LLaMA) 같은 경량 오픈소스 모델이나 오픈AI(OpenAI), 클로드(Claude)의 모델도 필요에 따라 병행해 쓰고 있다. 메타 CIO는 “이제 중요한 건 모델 종류보다, 그 모델들을 얼마나 정교하게 조율할 수 있는가에 달렸다”고 말했다.

그는 특히 모델 간 성능 격차가 점점 좁혀지는 상황에서, 특정 작업이나 사용 예에 따라 여전히 차별화가 존재한다고 진단했다. 예컨대, 오픈AI의 o3 시리즈는 딥 리서치 작업에 강점을 보이고, 코드 관련 작업에는 클로드 소넷 3.7(Claude Sonnet 3.7)이 두각을 나타낸다는 것이다.

이러한 구성은 경쟁사 대비 월등한 자동화 효율을 가능케 했다. 예를 들어 씨티(Citigroup)에서는 여전히 고객 응대에 AI 에이전트를 직접 쓰지 못하고 보조 요원이 중간에 개입하는 이중 구조를 택하고 있다. 주요 우려는 ‘환각(Hallucination)’과 데이터 노출 문제인데, 웰스파고는 계층화된 아키텍처와 LLM 비직접접속 방식을 통해 이를 원천적으로 차단하고 있다.

웰스파고는 또한 AI 에이전트의 자율성을 더욱 강화하고 있다. 최근에는 15년치를 아카이브에 저장해 둔 대출 문서를 AI로 자동 재심사하는 프로젝트를 실행했다. 개별 에이전트가 문서 인출, 정보 추출, 기록 시스템 연결, 계산 수행 등을 나눠 처리하고 최종 단계만 사람이 검토하는 방식이다. 일부는 랭그래프(LangGraph) 같은 오픈소스 도구를 활용했고, 대부분의 처리는 완전히 자동화됐다.

AI 모델 선택의 또 다른 결정요소는 속도와 가격이다. 웨이페어(Wayfair)의 CTO 피오나 탄(Fiona Tan)은 구글의 제미니 2.5 프로(Gemini 2.5 Pro)가 클로드나 오픈AI 모델보다 응답 속도가 빠른 경우가 있었으며, 이로 인해 실시간 고객 응대에 적용할 여지가 커졌다고 설명했다. 가격 측면에서도 제미니 2.5 프로는 입력 토큰 100만 개당 1.24달러(약 1,800원), 출력 토큰 100만 개당 10달러(약 1만 4,400원)로 압도적인 경쟁력을 확보했다.

이번 성과는 마침 열리고 있는 구글 클라우드 넥스트(Google Cloud Next) 행사에서 전략적 우위를 강조할 수 있는 순간이기도 하다. 최근 AI 주도권 경쟁에서 오픈AI와 앤트로픽(Anthropic)이 주목받았지만, 엔터프라이즈 분야의 실제 도입 사례에서는 구글의 영향력이 재부상하고 있는 모양새다.

친탄 메타는 AI의 미래를 낙관하면서도 지나친 열풍에 대한 경계를 당부했다. 그는 “지금 AI가 매우 강력해진 것은 확실하다”면서도, GPU나 모델 성능이 아니라 *전력의 생산 및 배분 능력*이 진짜 병목일 수 있다고 경고했다. AI의 폭발적 수요를 감당할 물리적 기반이 따라오지 못하면, 아무리 진보된 모델도 현실에서 멈춰설 수 있다는 것이다.

<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>

광고문의 기사제보 보도자료

많이 본 기사

관련된 다른 기사

댓글

0

추천

1

스크랩

Scrap

데일리 스탬프

0

매일 스탬프를 찍을 수 있어요!

데일리 스탬프를 찍은 회원이 없습니다.
첫 스탬프를 찍어 보세요!

댓글 0

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요

0/1000

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요
1