지난 달 구글 I/O 개발자 컨퍼런스에서 공개된 구글 ‘듀플렉스’는 많은 논쟁을 불러일으켰다.


듀플렉스는 사용자를 대신해 전화를 걸어 대화를 나누는 기술이다. 식당이나 미용실 예약에도 활용할 수 있다. 사람처럼 ‘음’ ‘아하’ 같은 감탄사를 섞어 말하는 인공지능(AI)의 모습에 대중들은 놀라움과 동시에 소름끼친다는 반응을 보이기도 했다. 인간과 너무 흡사하기 때문에 새로운 문제가 될 가능성이 제기됐다. 통화하는 상대방을 기만하거나 교란할 수 있기 때문이다.


■ “인간처럼 수명 만들어야”… 정답 없는 AI 윤리


 26일 구글코리아가 개최한 ‘AI위드구글2018’에서도 AI 윤리와 관련된 논의들이 이어졌다.


이날 플로어에서 김종호 카이스트 교수는 제프 딘 구글 AI 총괄<사진>에게 흥미로운 질문을 던졌다. ‘AI와 인간의 공정성을 유지하기 위해서 TPU(Tensor Processing Unit) 전력 공급을 30와트(W) 제한하는 것이 맞지 않겠냐’ ‘AI 알고리즘에 시간제한을 걸어 100년 후에는 인간의 사망처럼 킬 스위치를 작동하는 것이 어떻겠냐’ 등이다.



제프 딘 AI 총괄은 “구글 내에서도 AI를 어디에 어떻게 활용해야 할지 고민이 많다”며 “저희가 AI 소프트웨어를 오픈소스로 공개했기 때문에 어떤 용도로 사용 될지 통제할 수가 없어, 윤리적인 문제는 사회 전체가 함께 해결해야 하는 문제라고 생각한다”고 답했다.


AI는 최근 무인항공기, 킬러로봇 등에 활용될 가능성이 커지면서 윤리 문제가 더 크게 불거졌다. 구글이 미 국방부의 ‘메이븐 프로젝트’에 참여하자 내부 임직원 4000여명이 반대 서명에 참여하는 등 강하게 반발했다. 일부 전문가들은 AI무기가 핵무기에 비견될 정도로 위험하다고 지적하기도 했다.


카이스트 역시 최근 AI 무기 연구 문제로 세계 로봇학자들이 보이콧을 선언하는 등 소동이 있었다.

이에 구글은 지난 7일 직접적인 AI 살상 무기를 개발하지 않겠다는 내용을 골자로 한 ‘AI 7대 원칙’을 발표했다.


제프 딘 구글 AI 총괄 역시 이 부분에 대해 거듭 강조했다. 핵심을 짚어보면 △사회적으로 유익할 것 △불공정한 편향을 만들어내거나 강화하지 않을 것 △안전성을 우선으로 설계할 것 △인간을 위해 책임을 다할 것 △개인정보를 보호할 것 등이다.


제프 딘 AI 총괄 역시 "회사로서 참여가 주저되는 무인무기 개발에는 참여하지 않는 것으로 원칙을 정했다“고 하면서도 ”그러나 국방이나 방위 등 군과 협력을 하지 않겠다고 입장을 정한 것은 아니다“고 말했다.


AI가 인간의 일자리를 뺏을지 모른다는 우려도 지속적으로 제기되는 논쟁 중 하나다. 제프 딘 총괄은 “비행기 개발이 있었기에 파일럿이라는 직업이 탄생했다”며 “새로운 기술이 개발되면 사람들이 해오던 방식이 바뀔 수 밖에 없고, 이 같은 걱정이 나오는 것이 당연한 것으로 이해한다”고 답했다.


■ 킬러로봇 반대 토비 왈시 교수 "구글의 AI 윤리 준수 감시기관 필요"


 “구글은 인공지능(AI)이 국제 규범이나 인간의 권리를 침해하지 않도록 하겠다는 내용의 AI 윤리 가이드라인을 내놓았지만 그것만으로는 부족합니다.”


토비 왈시(Toby Walsh) 호주 뉴사우스웨일즈대 교수의 지적이다. 그는 한국과학기술원(KAIST)이 최근 주최한 인공지능 윤리 국제 세미나에 참석해 이같이 주장하고 “구글이 내놓은 AI 윤리 가이드라인을 지키는지 감시할 독립기관이 필요한데, 그 부분은 모호한 상태로 빠져있다”며 “구글이 좀 더 명확한 답변을 내놓아야 한다”고 강조했다.


                             토비 왈시 호주 뉴사우스웨일즈대 교수가 지난주 서울 웨스틴조선호텔에서 열린 인공지능 윤리 국제 세미나에 참석해

                             발언하고 있다.


토비 왈시 교수는 올해 4월 KAIST와 한화시스템이 공동으로 진행하기로 한 AI 무기 개발 연구 과제를 문제 삼으며 KAIST와의 국제 공동 연구를 보이콧하겠다고 선언해 국내에 알려진 인물이다. 당시 29개국에서 57명의 연구자가 "KAIST가 군사용 AI 킬러 로봇을 개발할 가능성이 있다"며 보이콧 성명에 참여했다.


이날 토비 왈시 교수는 AI를 이용한 자율 살상 무기의 위험성도 경고했다. 토비 왈시 교수는 “많은 사람이 AI 무기를 얘기할 때 터미네이터를 상상하지만 이는 아주 먼 미래의 일”이라며 “우리가 걱정하는 건 테러집단이 사용하는 반자율적 드론 기술”이라고 강조했다.


그는 “AI 무기가 전쟁터에서 24시간 사용될 가능성이 있고 앞으로 AI 기술이 발전해 단 한 명만으로도 AI가 적용된 대량 살상 자율 무기를 작동시킬 수 있을 가능성이 있다”며 “AI 기술이 발달해 완전히 자율적으로 활동하는 드론을 쓰게 된다면 더 큰 위험이 찾아올 것”이라고 덧붙였다.


특히, 토비 왈시 교수는 AI 살상 무기가 한반도의 평화에도 위협이 될 수 있다고 언급해 주목을 끌었다. 그는 "몇 주가 지나면 비핵화에 대한 더욱 명확한 결과가 나오겠지만 전 세계적으로 우리가 완전히 안전하고 평화로운 상태에 있다고 볼 수 없다"며 "생화학 무기 사용에 대한 규제의 목소리가 있었던 것처럼 민간 기업의 '킬러 로봇'의 생산을 막도록 노력해야 할 것"이라고 강조했다.


토비 왈시 교수는 2015년 7월 AI 국제회의(IJCAI)에서 AI를 활용한 군사용 자율 로봇 상용화에 반대하는 서한 작성을 주도했다. 이 서한에는 2587명의 AI 로봇 개발자를 포함해 엘론 머스크 테슬라 최고 경영자, 스티브 워즈니악 애플 공동 창업자, 고(故) 스티븐 호킹 교수 등 1만7972명의 민간 유명 인사가 동의했다.


■ 한국, 미국보다 2년 뒤쳐져… AI 투자 시급


 아직까지는 이런 우려가 ‘공포 마케팅’에 의해 과장된 것에 불과하며, 오히려 연구 인력이 부족한 것이 더 큰 문제라고 지적하는 의견이 우세하다.


 이날(26일 구글컨퍼런스) 황의종 카이스트 교수는 “전 세계 AI 관련 특허 7000여개 중 미국은 약 47%를 보유하고 있으며, 한국은 3%에 불과하다”며 “한국은 미국에 비해 2년, 일본에 비해서도 1년 이상 뒤쳐져 있다”고 평가했다.


또 “카이스트에서도 AI프로젝트의 비중이 전체의 5%밖에 되지 않는다”며 “현재 우리나라 상황에서는 AI 관련 하드웨어 시스템이 강세를 보이고 있어, 하드웨어와 소프트웨어가 같이 발전하는 것도 중요하다”고 설명했다.


존 리 구글코리아 대표는 “개발자 생태계 자체를 키우고 육성하는 것이 중요하다”며 “구글은 기업들이 클라우드와 AI를 통해 트랜스포메이션 하도록 지속적으로 지원할 것”이라고 말했다.


이날 구글은 국내 AI 인재 양성과 저변 확대를 위한 프로그램들을 소개했다. 프로그램은 △교육 프로그램 △AI/ML기반 클라우드 활용 교육 프로그램 △캠퍼스 서울 스타트업 프로그램 △AI/ML 연구 지원 프로그램 등 총 4가지로 구성돼 있다. 스터디 그룹이나 AI 개발 툴인 텐서플로 커뮤니티에서도 많은 정보와 자원을 얻을 수 있다.


존 리 대표는 “놀라운 것 중 하나는 한국의 텐서플로 커뮤니티 이용자가 3만5000명으로, 인구수 비례로 따지면 전 세계 국가 중 규모가 가장 크다는 것”이라며 “앞으로 대학에도 자금 지원 규모를 키워 연구 용역이 잘 진행되도록 출장비, 컨퍼런스 등을 지원하고자 한다”고 말했다.

저작권자 © 파이낸셜포스트 무단전재 및 재배포 금지