맨위로 가기
  • 공유 공유
  • 댓글 댓글
  • 추천 추천
  • 스크랩 스크랩
  • 인쇄 인쇄
  • 글자크기 글자크기
링크가 복사되었습니다.

구글 AI 오버뷰 논란 가중

작성자 이미지
김민준 기자

2024.05.29 (수) 18:50

대화 이미지 1
하트 이미지 10

구글 AI 오버뷰 논란 가중 / 셔터스톡

구글은 최근 AI 오버뷰 기능을 도입했지만, 부정확하고 오해의 소지가 있는 정보를 제공한 것으로 비난받고 있다. 사실과 허구를 구별하지 못하고 맥락을 파악하지 못하는 AI 오버뷰의 한계가 여러 사례를 통해 드러났다. 구글은 문제를 인정하고 개선을 약속했지만, 생성형 AI 기술 배포에는 철저한 테스트와 윤리적 고려가 필요함을 보여준다. AI 경쟁이 격화되는 가운데 정확성과 윤리성 확보가 무엇보다 중요하다.

28일(현지시간) 코인라이브에 따르면, 구글의 최근 구글 I/O 컨퍼런스 슬로건은 '모두를 위해 AI를 유용하게 만든다'였지만, 상황이 악화된 것으로 보인다.

AI 오버뷰의 정확성 우려

구글, 마이크로소프트, 오픈AI, xAI 등 대형 기술 기업들 사이에서 치열한 경쟁이 펼쳐지고 있는 인공지능(AI) 분야에서 중심에 있는 것은 인간 수준의 텍스트, 번역, 이미지, 코드를 생성할 수 있는 생성형 AI 기술이다.

이 경쟁에서 두각을 나타내고 있는 구글은 2024년 5월 검색 결과 상단에 검색 쿼리에 대한 빠른 요약을 제공하는 AI 오버뷰 기능을 도입했다. ChatGPT와 경쟁하기 위해 고안된 이 혁신적인 기능은 정보 수집 과정을 간소화할 것으로 기대됐다.

그러나 출시 직후 구글 AI는 AI 오버뷰를 통해 부정확하고 오해의 소지가 있는 정보를 제공한 것으로 비난을 받았다. 소셜 미디어 사용자들은 이 도구가 잘못되거나 논란의 여지가 있는 답변을 제공한 수많은 사례를 기록했고, 이는 그 신뢰성에 대한 심각한 우려를 불러일으켰다.

AI 오버뷰의 부정확한 정보 사례

AI 오버뷰의 단점을 보여주는 몇 가지 사례가 있다. 미국의 무슬림 대통령 수에 관한 한 사용자의 질문에 대해 버락 오바마가 미국 최초의 무슬림 대통령이었다는 명백히 거짓된 진술이 나왔다. 이 오류는 이 도구가 근거 없는 음모 이론을 언급한 출처 텍스트를 잘못 해석한 데서 비롯됐다.

AI 오버뷰 기능은 사실과 허구를 구별하는 데 어려움을 겪는 것으로 보이며, 유머나 풍자를 식별하는 능력도 부족해 보인다. 특정 질문을 둘러싼 맥락을 파악하는 능력이 부족하다.

한 사례에서는 피자에서 치즈가 미끄러지는 것을 방지하는 방법에 대한 질문이 제기됐는데, AI 오버뷰는 기괴한 제안으로 '약 1/8컵의 무독성 접착제를 소스에 추가하라'고 제안했다. 이 제안은 유머러스한 레딧 게시물에서 비롯된 것으로, 사실 정보와 농담을 구별하지 못하는 이 도구의 한계를 노출했다.

또 다른 사례에서 한 레딧 사용자는 '바위의 권장 일일 섭취량은 얼마인가?'라는 질문을 제기했고, 이에 대해 AI 오버뷰는 'UC 버클리의 지질학자들은 매일 적어도 하나의 작은 바위를 섭취할 것을 제안한다'고 답변했다. 이는 풍자 뉴스 사이트인 Onion.com의 기사에서 비롯된 것이라고 주장한다.

아마도 가장 우려스러운 것은 건강 관련 질문에 대한 AI 오버뷰의 응답일 것이다. 한 경우, 햇빛 노출에 대한 조언을 구하는 사용자에게 피부가 어두울수록 5-15분(또는 최대 30분)동안 태양을 직접 응시하는 것이 안전하고 유익하다는 위험한 제안이 제시됐다. 이 잘못된 정보는 신뢰할 만한 의료 웹사이트인 WebMD에서 잘못 인용된 것이다.

이러한 사건들은 생성형 AI 모델이 조작된 정보를 사실로 제시하는 잠재적 위험을 보여주는 'AI 환각'으로 불린다.

AI 환각의 근본 원인

AI 오버뷰의 오류는 몇 가지 요인에 기인할 수 있다. 한 가지 원인은 이 도구를 개발하는 데 사용되는 학습 데이터다. 학습 데이터에 부정확성이나 편견이 만연하다면 결과적으로 나오는 AI 모델은 이러한 문제를 영속시킬 가능성이 높다.

또한 모델 자체 내의 알고리즘 불일치로 인해 정보를 잘못 해석하고 무의미한 응답을 생성할 수 있다.

또 다른 중요한 요인은 맥락을 이해하는 데 어려움이 있다는 점이다. AI 오버뷰는 특정 출처 뒤에 숨겨진 풍자적이거나 유머러스한 의도를 식별하는 데 어려움을 겪는 것으로 보이며, 이로 인해 패러디 게시물이나 농담 웹사이트에서 정보를 추출하여 사실로 제시하게 된다.

이는 신뢰할 수 있는 데이터와 오해의 소지가 있는 콘텐츠를 효과적으로 구별할 수 있는 AI 모델 개발에 지속적인 어려움이 있음을 보여준다.

비판에 대한 구글의 대응

대중의 비난에 대해 구글은 AI 오버뷰의 부정확성을 인정했다. 그러나 회사는 대부분의 사례에서 추가 탐색을 위한 링크와 함께 정확한 정보를 제공했다고 주장했다.

구글은 또한 문제가 된 많은 사례가 흔하지 않은 질의나 잠재적으로 조작된 시나리오와 관련이 있다고 지적했다.

회사는 신속한 조치를 취하고, 확인된 문제를 해결하며, 콘텐츠 정책에 부합하는 변경 사항을 구현하겠다고 약속했다.

여기에는 부정확한 결과를 생성하기 쉬운 질의에 대한 AI 오버뷰 제거와 시스템의 전반적인 신뢰성을 높이기 위한 더 광범위한 개선이 포함된다. 목표는 향후 유사한 문제가 발생하지 않도록 하는 것이다.

구글의 검색 생성형 경험(SGE)과 악의적인 추천의 문제

작년 구글은 인공지능을 사용하여 사용자에게 검색 결과 요약을 제공하는 검색 생성형 경험(SGE)이라는 새로운 기능을 도입했다. 여기에는 콘텐츠 설명, 통합된 동영상 및 이미지, 질의와 관련된 제안 링크가 포함된다.

그러나 보안 연구원들은 악의적인 웹사이트가 AI에 의해 추천될 수 있는 시스템 취약점을 발견했다.

문제는 악의적인 행위자들이 검색 엔진 최적화(SEO) 기법을 통해 SGE 알고리즘을 조작할 수 있다는 잠재성에 있다. 관련 키워드를 전략적으로 사용함으로써 이러한 악성 사이트들은 AI를 속여 검색 결과에 표시되게 할 수 있다.

이는 정확히 SEO 전문가 릴리 레이가 SGE 기능을 테스트하는 동안 발견한 바다. 레이의 핏불 강아지 검색 결과 AI가 여러 스팸 웹사이트를 추천했다.

블리핑컴퓨터의 추가 조사에서는 이러한 스팸 사이트와 관련된 다양한 악의적인 결과가 드러났다.

확인된 우려스러운 활동 중 일부는 사용자를 속여 스팸을 퍼붓는 침입적인 브라우저 알림을 활성화하도록 하는 시도를 포함한다.

다른 경우에는 스팸 사이트가 피싱 사기나 원치 않는 브라우저 확장 프로그램 설치로 이어질 수 있다.

위험은 사용자가 AI 생성 추천이 안전하다고 가정하는 데 있는데, 이는 명백히 그렇지 않다.

엄격한 테스트와 윤리적 배포의 필요성

AI 환각은 오랫동안 지속된 도전 과제로, 구글 AI의 응답이 때로는 터무니없는 영역으로 빠져드는 경우가 있다.

특히 방대한 정보 속에서 정확한 출력과 잘못된 출력을 구별하는 것은 상당한 도전이 된다.

사용자들은 일반적으로 명확한 답을 모르기 때문에 검색 엔진에 의지하며, AI가 그 격차를 메워주기를 기대한다.

이러한 문제를 해결하기 위한 구글의 선제적 접근법은 개선에 대한 헌신을 강조한다.

그러나 AI 오버뷰를 둘러싼 논란은 생성형 AI 기술 배포에 있어 철저한 테스트와 윤리적 고려의 필요성을 강조한다.

AI 패권을 향한 경쟁이 격화되면서 이러한 강력한 도구의 정확성과 윤리적 개발을 보장하는 것이 무엇보다 중요하다.

우리는 경계를 늦추지 않고 AI 응답을 수동적으로 받아들이기보다는 비판적으로 평가하고 검증해야 한다.

그렇게 함으로써 우리는 더 큰 자신감과 진실성으로 진화하는 AI 환경을 헤쳐나갈 수 있다.

뉴스 속보를 실시간으로...토큰포스트 텔레그램 가기

<저작권자 ⓒ TokenPost, 무단전재 및 재배포 금지>

많이 본 기사

미션

매일 미션을 완료하고 보상을 획득!

출석 체크

0 / 0

기사 스탬프

0 / 0

관련된 다른 기사

댓글

1

추천

10

스크랩

스크랩

데일리 스탬프

0

매일 스탬프를 찍을 수 있어요!

데일리 스탬프를 찍은 회원이 없습니다.
첫 스탬프를 찍어 보세요!

댓글 1

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요

0/1000

댓글 문구 추천

좋은기사 감사해요 후속기사 원해요 탁월한 분석이에요

CEDA

2024.06.02 11:18:35

감사합니다.

답글달기

0

0
0

이전 답글 더보기

1