오픈AI가 자사의 인공지능(AI) 도구인 챗GPT와 '달리'(Dall-E)가 선거에 악용되는 것을 막기 위한 방안을 마련했다.

이는 올해 미 대선 등 전 세계 수십 곳에서 중요한 선거가 예정된 가운데 AI 기술을 이용한 가짜뉴스에 대한 우려가 커지는 데 따른 것이다.

오픈AI는 15일(월) 블로그를 통해 자사의 AI 도구가 제공하는 최신 선거 관련 정보에 출처를 표시할 예정이라고 밝혔다.

오픈 AI

(\오픈 AI. 연합뉴스 )

우선 챗GPT가 제공하는 뉴스·정보와 달리가 제공하는 이미지가 어디에서, 누구에 의해 만들어졌는지와 같은 출처가 제공된다.

특히, 달리가 제공하는 이미지에 대한 검증이 강화된다. AI를 기반으로 얼굴 등을 실제처럼 조작한 '딥페이크'에 대한 우려가 커지고 있기 때문이다.

이를 위해 어떤 이미지가 달리에 의해 생성됐는지 여부를 확인할 수 있는 '이미지 찾기 도구'(image-detection tool)가 출시된다.

오픈AI는 이 이미지 찾기 도구를 미디어와 연구자 등에게 우선 배포해 피드백을 받을 예정이라고 설명했다.

아울러 달리가 제공한 이미지에는 이를 확인하는 워터마크가 표시된다.

오픈AI는 "공정한 선거를 위해 모든 것은 민주적인 과정으로 이뤄져야 한다"며 "우리의 기술이 이 과정을 훼손하는 것을 원치 않는다"고 썼다.

선거를 앞두고 AI 기술을 보유한 기업들은 자사의 기술이 선거에 악용되는 것을 막기 위해 대책을 내놓고 있다.

앞서 구글은 자사 AI 챗봇 '바드'와 AI 검색 기능이 답변할 수 있는 선거 관련 질문을 제한하기로 했다.

또 AI로 생성된 콘텐츠를 사람들이 바로 식별할 수 있도록 선거 광고가 AI를 사용한 경우 광고주가 이 사실을 눈에 띄게 표시하도록 했다.

<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>