에릭 슈밋 전 구글 최고경영자(CEO)는 가까운 미래에 인공지능(AI)이 많은 인간을 다치게 하거나 죽일 수도 있다며 AI의 오용을 막기 위한 대비를 해야한다고 경고했다. 

 따르면 슈밋 전 CEO는 24일(현지시간) 런던에서 열린 월스트리트저널(WSJ)이 주최한 CEO 카운슬 서밋에서 AI가 실존적 위험을 가하고 있다면서 "실존적 위험이란 아주 아주 많은 사람이 다치거나 죽는 것을 뜻한다"고 밝혔다.

그는 '제로데이 공격'이나 생물학을 이용해 인류에게 위협을 가할 수 있다고 했다. 제로데이 공격이란 운영체제 등 핵심 시스템 내 보안 취약점이 발견되면 즉시 이를 겨냥한 해킹 등을 감행하는 것을 뜻한다.

AI

슈밋 전 CEO는 " 당신이 하는 일이 사람을 죽일 수 있다면 그 일은 규제돼야 한다"며 AI에 대한 규제 강화 필요성을 강조했다.

그러나 그는 구체적인 규제 방안에 대해서는 즉답을 피하며, AI 기술 확산을 통제하는 일은 매우 어려울 것이라며 핵기술과 비교해 설명했다. 

그는 핵의 경우 농축 우라늄이 필요하다면서 "농축 우라늄을 구하기 정말 어려웠기 때문에 오늘날 우리가 살아 있는 것"이라고 말했다.

핵무기는 통상 90% 이상 농축된 우라늄으로 생산되는데, 이는 고도의 기술력을 요구하는 작업이기 때문에 그나마 확산을 저지할 수 있었다는 것이다.

반면 AI에 대해서는 "하드디스크 드라이브나 이동식저장장치(USB)를 통해 (AI 기술을) 훔칠 수 있기 때문에 확산 문제를 해결하기 어렵다"고 슈밋 전 CEO는 지적했다.

그는 핵의 경우 농축 우라늄이 필요하다면서 "농축 우라늄을 구하기 정말 어려웠기 때문에 오늘날 우리가 살아 있는 것"이라고 말했다.

핵무기는 통상 90% 이상 농축된 우라늄으로 생산되는데, 이는 고도의 기술력을 요구하는 작업이기 때문에 그나마 확산을 저지할 수 있었다는 것이다.

반면 AI에 대해서는 "하드디스크 드라이브나 이동식저장장치(USB)를 통해 (AI 기술을) 훔칠 수 있기 때문에 확산 문제를 해결하기 어렵다"고 슈밋 전 CEO는 지적했다.

AI 규제기관을 통해서 규제하는 것을 통해서 기술 확산을 막기는 어렵다는 견해를 밝힌 것이다.

이는 AI 규제 기관 설치를 서둘러야 한다고 주장하는 샘 올트먼 오픈AI CEO의 견해를 달리 한 것이다. 

올트먼 CEO는 22일 회사 홈페이지에 "(AI가) 실존적 위험이 될 가능성을 고려할 때 우리가 수동적으로만 행동해선 안 된다"며 국제원자력기구(IAEA)와 같은 것(국제 규제기관)이 필요하다"고 말했다. 

그는 지난주에도 미 의회에 출석해 AI의 안전성을 검증할 국제적 기관 설립이 필요하다고 강조한 바 있다.

한편, 테슬라 CEO인 일론 머스크도 AI에 대한 규제 필요성을 언급하면서, AI 기술이 살상용 드론에 이용될 수 있다며 AI의 위험성을 경고했다.