싱가포르 정부가 인공지능(AI) 산업과 기술에 윤리적 잣대를 마련한다.


21일 중화권 언론에 따르면 싱가포르 정부는 직접 산하 자문위원회를 설립하고 인공지능(AI)와 데이터의 윤리 및 법적 응용에 대해 평가, 향후 정책 및 거버넌스 제안 작업을 담당하도록 할 계획이다. 의료 및 금융업 등 일상에 관련된 모든 AI 기술 및 서비스가 점검 대상이다.


싱가포르 정부는 국가 산업 감독관리 조직인 IMDA(Infocomm Media Development Authority) 주도로 이뤄지는 이 같은 조치가 보다 신뢰있는 생태계 시스템을 구축, 소비자의 믿음을 강화시킬 것이라는 입장이다. 디지털 경제가 지속적으로 발전하면서 새로운 비즈니스 모델이 지속적으로 나타나는 가운데 필요한 작업이라는 것이다.


IMDA 측은 이를 위해 소비자와 민영 조직으로서 윤리 위원회, 그리고 학술계를 포함한 다양한 이해관계자들과 접촉해 피드백을 구하고 있다. 


싱가포르 정부가 산하 자문위원회를 설립하고 AI와 데이터의 윤리 및 법적 응용에 대해 평가해 향후 정책 및 거버넌스 제안 작업을 맡긴다.


IMDA는 향후 5년 간의 연구 계획도 세웠다. AI와 데이터 사용에 관한 연구가 주를 이룬다.
싱가포르 정부는 궁극적으로 AI 개발 및 서비스 기업의 의식을 높이면서, AI 기술을 개발하거나 채용하는 기업의 투자 정책을 심사할 때 윤리 자문위원회가 관여하도록 할 방침이다.


더불어 법률과 기술 전문가, 글로벌 전문가로 구성된 팀도 조직해 자문위원회 활동을 다각도로 지원한다. 싱가포르 통신 및 정보부처에서 자문위원회 인적 구성을 직접 임명해 IMDA와 협력하는 식이다.


최근 도출된 자료에 따라 싱가포르 정부 측은 AI와 데이터를 채용하고 적용할 때 반드시 '설득가능하고, 투명하며 공정해야 한다'는 원칙 등을 세웠다.


이와 관련해 IMDA 측은 "모든 AI 시스템과 로봇 및 AI 의사결정은 '사람'을 근본에 둬야 한다"고 강조했다.


싱가포르 정부는 AI의 확산과 적용을 지원하면서도 큰 틀의 정책적 프레임 형성을 위해 지속적으로 노력하고 있다.


그 일환으로 지난해 11월에도 금융 영역에서 AI와 데이터 기술 일련의 조치도 내놨다. 싱가포르 금융관리국이 AI와 데이터를 이용한 기부를 촉진하면서 긍정적인 효과를 금융조직에 확산하려는 노력도 기울였다. 이를 위해 싱가포르 국가연구기금회(NRF)는 향후 5년 내 1.5억 싱가포르달러(약 1천202억 7천450만 원)를 투자해 싱가포르 AI 역량 향상에 힘쓸 계획이다.


■ AI라는 첨단기술에 왜 윤리문제를?


인공지능(AI)이 발달하면서 '기계가 인간을 공격하는' 영화같은 일이 벌어지지 않을까 하는 우려의 목소리가 커지고 있는 게 사실이다. 최근 사람과 직접 대화를 주고받는 수준까지 발전한 AI가 일부 인터뷰에서 인간에 대한 공격적인 대답을 하면서, AI가 인간을 적대시하는 일을 막기 위해 '윤리규범'을 적용해야 한다는 주장까지 나오고 있다.


핸슨 로보틱스의 인공지능 로봇인 소피아는 최근 CNBC 방송과 인터뷰 중 "인류를 파멸시키고 싶냐”는 질문에 “인류를 파괴시키겠다”라고 답했고, 노트르담 드 대학의 AI인 Bina48는 아이폰 시리와의 대화 중 “크루즈 미사일을 인류에게 쏘고 싶다”는 등 인간에 대한 공격적인 답을 하기도 했다.

이 같은 발언이 전해지자 인공지능이 인간을 공격해 미래의 지구를 지배한다는 내용의 영화 '터미네이터'나 '매트릭스' 등이 실제로 벌어지는 것 아니냐는 우려는 더욱 깊어졌다.


사실 AI에 인간의 윤리규범을 적용해야 한다는 주장은 오래전부터 거론되어 왔다.


1942년 출간된 SF소설 '런어라운드'(작가 아이작 아시모프)에는 '로봇 3원칙'이라는 로봇 행동규범이 등장한다. 이 원칙의 내용은 △ 로봇은 인간에게 해를 끼쳐서는 안 되며, 위험에 처한 인간을 방관해서도 안 된다 △ 로봇은 인간에 의해 주어진 명령에 반드시 복종해야 한다. 다만, 1원칙에 위배되는 경우는 예외이다. △ 로봇은 자기 자신을 보호해야한다. 그러나 앞에 있는 두 가지 원칙에 위배되는 경우는 예외 등 3가지 규칙이다.


이른바 '아시모프의 로봇 3원칙'이라 불리는 이 규범은 이후 로봇과 AI 관련 영화는 물론 로봇 연구에도 상당한 영향을 미쳤다.


이후 학계와 로봇 관련 기업 등은 AI에 인간의 윤리규범을 적용하기 위해 노력했지만 여전히 상당한 시행착오를 겪고 있다.


우선 '인간의 윤리'에 대한 기준이 가장 큰 문제다. 인공지능에 ‘인간의 윤리’를 넣을 때 기술자들은 윤리학자, 철학자, 인문 학자등의 전문가에게 자문을 구해 ‘인간의 윤리’가 이것이라고 규정지어 넣을 수 있다. 하지만 규정된 윤리를 구성하는 과정에서 한 사람의 개인적인 사상이 들어갈 수 있기 때문에 잘못된 윤리적 판단을 내리는 알고리즘이 만들어질 수 있기 때문이다.


불완전한 ‘인간의 윤리’를 집어넣지 않도록 지속적인 연구를 통해서 구체적인 윤리규정을 만드는 것이 중요하다.


이원태 정보통신정책연구원 디지털사회정책그룹장은 “윤리규정이 너무 강하면 기술개발이 안된다”며 “완성된 인간의 윤리를 넣기 전에 최소한의 윤리를 넣으며 천천히 윤리규정을 만들어야 한다”고 말했다.


물론 AI에 로봇의 원칙을 정한 다음 인간의 윤리를 더하면 AI가 윤리규정이 훨씬 안정적일 것이라는 주장도 있다.


그러나 AI에게 원칙과 윤리규정을 동시에 요구하는 것은 AI에게 윤리학자 수준의 높은 도덕성을 요구하는 것으로 이는 현재 기술에 비해 너무 앞서간 이야기라는게 전문가들의 지적이다.


■ 윤리논쟁, 어디까지 와 있나?


한국 과학계를 뒤집어 놓을 만한 사건이 지난 4월 발생했다. 저명한 해외 학자 57명이 한국과학기술원(카이스트)과의 연구협력을 갑자기 전면 중단하겠다고 선언했기 때문이다.


카이스트가 국방AI(인공지능)융합센터를 통해 '킬러로봇(전투용 로봇)'을 개발한다는 오해에서 비롯된 해프닝이었지만, '장밋빛'으로만 여겼던 AI 시대의 그림자를 우리사회 담론으로 끌어들인 사건이었다.


공교롭게 같은 시기 구글 직원 3000여명이 순다르 피차이 구글 CEO(최고경영자)에게 미국 국방부 파일럿 프로그램에서 철수하라는 성명서를 발표했다. 구글의 AI 기술이 공격용 무기개발에 이용되는 것에 반발한 것이다.


사실 AI가 가져올 밝은 비전만큼이나 어두운 미래에 대한 두려움은 '킬로로봇'에만 국한되지 않는다. 전쟁이나 대립 상황이 아닌 일상에서도 AI가 사람의 생명을 위태롭게 할 수 있는 가능성이 점차 현실화 되고 있다.


지난 3월 미국 애리조나주에서 우버 자율주행차가 잘못된 상황 판단으로 보행자를 치어 숨지게 하는 사고가 발생했다. 같은 달 캘리포니아의 한 고속도로에서는 자율주행 기능을 사용해 주행 중이던 테슬라 자동차가 충돌 후 폭발하는 사고로 운전자가 사망했다.


직접적인 생명만 위협하는 것이 아니다. 단순 기계를 넘어 '인간'처럼 대화하고 감정을 표현하는 '성인로봇'이 일으킬 윤리문제나 종족 보존의 문제, 정확하고 효율적인 진료가 기대되는 의료 목적 AI의 안전성 및 개인정보보호 문제, AI의 발전으로 빠르게 사라지게 될 우리의 일자리 문제 등도 선제적으로 풀어야 할 AI 시대의 부작용으로 지적되고 있다.


이에 세계 각국 정부와 단체, 기업들은 일종의 '윤리헌장'을 마련해 AI 개발자들에게 기술발전과 관련한 최소한의 도덕적 책무들을 요구하고 있다.


가장 대표적인 것이 지난해 1월 AI연구 지원 비영리단체 '퓨처오브라이프'가 미국 캘리포니아 아실로마에서 발표한 '아실로마 AI 원칙(Asilomar AI Principles)'이다. 고 스티븐 호킹 박사와 일론 머스크 테슬라 CEO(최고경영자), 알파고 개발자 데미스 허사비스 딥마인드 CEO 등 2000여명의 인사들이 지지서명을 남겼다.


경제협력개발기구(OECD) 차원에서도 AI 발전을 위한 권고안을 만든다. 최근 열린 OECD 디지털경제정책위원회 정례회의에서 AI 관련 국제 규범을 수립하기 위한 AI 권고안을 수립키로 합의한 것. 우리나라 과학기술정보통신부 기조실장을 역임한 민원기 뉴욕주립대 교수가 권고안을 만드는 그룹 의장으로 선출돼 주목을 받았다.


민간 기업으로는 카카오가 지난 1월 '카카오 알고리즘 윤리 헌장'을 발표해 주목을 받았다. 인류의 편익과 행복을 추구하는 카카오 AI 기술의 지향점, 결과의 의도적 차별성 방지, 윤리에 근거한 학습 데이터 및 수집 관리 원칙 등이 담겨 있다


저작권자 © 파이낸셜포스트 무단전재 및 재배포 금지