맨위로 가기
  • 공유 공유
  • 댓글 댓글
  • 추천 추천
  • 스크랩 스크랩
  • 인쇄 인쇄
  • 글자크기 글자크기
링크가 복사되었습니다.

[서울메타위크 2023] 임은영 LG CNS AI 팀장, '기업 거대언어모듈' 적용시 엔터프라이즈 환경 보완 주장

작성자 이미지
박원빈 기자

2023.06.29 (목) 16:02

대화 이미지 19
하트 이미지 1

기업에서 거대언어모델(LLM)을 적용하려면 GPT와 같은 LLM은 범용 인공지능(AI) 모델로 엔터프라이즈 환경에 적용하기 위해서 한계를 이해하고 보완할 방법을 찾아야 한다는 의견이 나왔다.

임은영 LG CNS AI 전략사업팀 팀장은 29일 서울메타위크 2023에서 진행된 '생성형 AI로 인한 기업 업무 생산성의 변화' 강연에서 이같이 밝혔다.

임은영 팀장은 "현 LLM의 한계는 특정 시점까지의 데이터로 학습돼 최신 지식에는 부정확하게 답변 한다"며 "거짓정보를 그럴싸하게 지어내고 특정 도메인 지식이나 태스크에 대해 답변이 불가 하다"고 강조했다.

기업용 LLM을 위한 오케스트레이터(Orchestrator)를 위해 기업 지식 레거시(legacy)와 연동해 근거에 기반한 답변을 찾고 자연어 AI 검색으로 의미 기반 문서 검색을 활용해야 한다는 것이 임 팀장의 설명이다.

하지만 생성형 AI 도입 시 도메인·기업 지식 학습, 데이터 보안, 프롬프트 엔지니어링(Prompt Engineering)이 장애요인이다.

챗GPT로 진행하는 질문내용 중 업무 기밀이나 개인정보가 포함돼 있을 경우 보안 문제 발생 여지가 있거나 고객사 업무 지식으로 활용된 초거대 언어모델이 필요하기 때문이다.

또한 Prompt Engineering은 초거대 언어모델로부터 높은 품질의 응답을 얻어낼 수 있는 Prompt 조합을 찾아야 하는데 잘 이해할 수 있는 정제된 언어로 구성하는 것이 중요하다.

임은영 팀장은 "LG CNS 생성형 AI 서비스 오퍼링은 신규 비즈니스에 필요한 챗GPT 적용에 따른 기대효과를 도출한다"며 "기업 내 시스템 및 정보 연계를 위한 인동지능 오케스트레이터(AI Orchestrator) 솔루션을 제공한다"고 밝혔다.

이어 "챗GPT를 메타버스와 연계해 상담 내용의 정확성과 편리성, 대기 지루함을 대체 하고 신규 채널 사용에 대한 리워드를 제공할 수 있다"며 "다국어 지원뿐만 아니라 시나리오 기반의 챗봇을 대체할 수 있다"고 말했다.

[email protected]

<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>

많이 본 기사

관련된 다른 기사

댓글

19

추천

1

스크랩

스크랩

데일리 스탬프

0

매일 스탬프를 찍을 수 있어요!

데일리 스탬프를 찍은 회원이 없습니다.
첫 스탬프를 찍어 보세요!

댓글 19

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요

0/1000

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요

리버사이드

2023.10.30 17:57:23

감사합니다

답글달기

0

0
0

이전 답글 더보기

키리나

2023.09.15 07:14:36

감사합니다

답글달기

0

0
0

이전 답글 더보기

SSdc

2023.07.15 21:56:38

감사합니다

답글달기

0

0
0

이전 답글 더보기

ocn5025

2023.07.15 14:37:08

감사합니다

답글달기

0

0
0

이전 답글 더보기

terra3372

2023.07.06 01:47:02

감사합니다

답글달기

0

0
0

이전 답글 더보기

투명잉크

2023.07.05 23:52:40

감사합니다

답글달기

0

0
0

이전 답글 더보기

유령기타

2023.07.01 23:20:44

ㄱㅅㄱㄱ

답글달기

0

0
0

이전 답글 더보기

유령기타

2023.06.30 23:19:08

ㄱㅅㄱㅅ

답글달기

0

0
0

이전 답글 더보기

imhappy

2023.06.30 09:39:32

감사합니다

답글달기

0

0
0

이전 답글 더보기

투명잉크

2023.06.30 00:39:54

감사합니다

답글달기

0

0
0

이전 답글 더보기

12