티스토리 뷰

지난 13일, IEEE(국제전기전자기술자협회)에서 윤리적 인공지능 시스템 개발을 위한 지침서의 초안을 출판했습니다. 



IEEE에 의하면 인공지능의 개발은 한쪽으로 편향되지 않으며 궁극적으로 인류에 혜택을 주는 "윤리적 디자인"을 추구하여야 하지만, 현재 기술 산업에서의 윤리의식과 책임감 부족이 "윤리적 디자인"을 가로막고 있다고 합니다. "Ethically Aligned Design"이라는 이름의 이 문서는 학계, 정부, 기업 등에서 인공지능, 법, 윤리, 철학, 정책 등의 분야에 종사하는 100인 이상의 전문가들의 생각을 담았습니다.


이 136페이지짜리 문서는 인공지능이 인권을 보장하고, 투명하게 동작하고, 자동화된 결정들이 어떻게 도출되는 것인지를 설명할 수 있어야 한다는 등 인공지능의 일반적인 원칙에 대한 내용으로 시작합니다. 그 다음은 세부적인 영역으로, 적절한 인간의 규범과 가치를 시스템에 내재시키기, 일어날 수 있는 차별을 방지하기, 신뢰성, 가치 판단 기준을 평가할 수 있게 하기 등으로 구성됩니다.


이외에도 윤리적인 연구와 디자인을 위한 방법론도 다루고 있습니다. 기술 산업에서 윤리에 대한 오너십과 책임감이 부족하다는 것을 지적하는 부분이 여기에 포함되며, 이공계 학위 과정에서 윤리가 다뤄지지 않는다는 등 다른 이슈들도 포함되어 있습니다. IEEE는 알고리즘의 동작을 감독할 수 있는 독립적인 평가기관이 부족하다는 점, 알고리즘을 만들 때 블랙박스 컴포넌트를 사용하는 점 또한 윤리적인 인공지능을 만들 때 발생하는 문제점으로 지적했습니다.


IEEE에서는 이렇게 인공지능 제작의 표준을 만듬으로써 인공지능 기술로 만들어진 제품들로 인한 사용자들이 피해 예방으로 위해 지능, 자율 기술의 생산 과정을 감독할 수 있을 것이라고 하였습니다.


Ethically Aligned Design 목차


이 지침서의 본문은 다음과 같은 내용들을 포함합니다.


"인공지능 시스템이 인간의 안전과 복지에 영향을 줄 수 있을 정도로 발전하게 되면, 시스템의 윤리성과 중립성이 점점 더 중요한 이슈가 된다. 엔지니어들은 반드시 블랙박스 소프트웨어에 관련된 윤리적인 위험을 인정하고 평가해야 하며, 이러한 위험을 완화하기 위한 전략을 실행해야 한다."


"전문 기술자들은 투명하고 평가 가능한 표준을 기반으로 본인들이 만든 알고리즘이나 시스템의 특징을 규정할 수 있어야 한다. 인공지능 시스템의 특성상 정확한 결과 예측은 힘들기 때문에, 이러한 표준을 기반으로 인공지능 시스템의 의사결정 과정을 확인하여 발생가능한 위험을 경감시켜야 한다."


"항공 분야에서 비행 데이터를 기록하는 것과 비슷하게, 의사 결정 알고리즘을 거꾸로 추적할 수 있는 것은 의사 결정의 어떤 부분이 위험한 행동을 도출해내는지에 대한 인사이트를 제공할 수 있을 것이다. 알고리즘을 따라가는 것만으로 정확한 의미를 알 수 없더라도, 전문적인 분석을 통해 알고리즘 내의 연산들의 간접적인 의미들을 찾아내어 위험을 탐지해내야 한다."


궁극적으로, 이 지침서의 결론은 엔지니어들이 블랙박스 소프트웨어 서비스를 배포할 때, 인공지능이 갖는 의사결정 과정의 모호함과 결과 검증 및 조사의 어려움을 고려하여 반드시 깊은 주의를 기울여야 하고, 윤리적인 문제들에 대해서도 생각해야 한다는 것입니다.


이 지침서의 '일반적인 인공지능의 안전성과 효용' 영역에서는 인공지능의 능력이 발전함에 따라 예상치 못한, 또는 의도하지 않은 동작을 하는 것이 더욱 위험해진다고 경고하고 있고, 이에 따라 안전성 기준이 더욱 일반적으로 적용될 수 있게 개량되고 있기 때문에 미래의 인공지능 시스템은 더욱 어려워질 것이라고 합니다. 따라서 연구자들과 개발자들은 더욱 자동화된 인공지능 시스템을 개발, 배포하면서 점점 더 복잡한 윤리적, 기술적 안전 문제들을 마주하게 될 것입니다.


Ethically Aligned Design Overview


이 문서는 또한 개인의 데이터로부터 만들어지는 인공지능 시스템의 비대칭적 특성(기술로부터 발생한 이득은 공정하게 분배되지 않고 있다는 점)에 대한 우려도 다루고 있습니다.


그동안 인공지능은 우리의 삶에서 얻어지는 직관들을 기반으로 발전해 왔습니다. 게다가 인공지능과 자율시스템은 우리가 가진 데이터에 대해 광범위한 접근권한을 유지하며 거의 무료로 이를 사용하고 있습니다. 하지만 아이러니하게도 대부분의 사용자는 여전히 인공지능을 통해 생산되는 경제적 이득의 분배에서 배제되어 있습니다.


이 비대칭성에 대해 말하기 위해서 사람들은 자신의 고유한 특성을 관리하는 큐레이터로서 자신의 개인 데이터를 반드시 정의하고, 이용하고, 관리할 필요가 있습니다. 또한 개인들의 데이터를 수집할 때, 개인의 어떤 정보가 수집될지에 대한 새로운 항목이 반드시 만들어져야 합니다. 미래의 정보를 제공하는 것에 대한 동의는 데이터와 장기적인 정보 자산을 희생하는 것의 제한적이고 구체적인 교환으로 한정되어야 합니다.


IEEE 지침서의 전문은 여기서 다운로드 할 수 있습니다.


인공지능의 윤리와 책임에 대한 이슈는 올해의 사회적, 정치적 안건으로 떠올랐습니다. 특히 마이크로소프트의 챗봇이 트위터에서 정치적으로 편향된 발언을 했던 사건과 같은 인공지능의 여러 실패 사례로 인해 인공지능의 윤리성 이슈는 더욱 주목을 받고 있습니다. 이 때문에 백악관에서도 독자적으로 인공지능과 R&D에 대한 보고서를 작성했으며, 영국 국회의 위원회는 정부에게 인공지능의 책임을 보장하는 것에 대한 필요성에 적극적으로 대응하라고 경고한 바 있습니다.


IEEE는 앞으로 인공지능 기술이 점점 더 많은 시스템에 적용됨에 따라 이번 "Ethically Aligned Design" 지침서가 핵심적인 역할을 할 것이라 기대하고 있습니다. IEEE 표준 협회의 전무인 Konstantinos Karachalios는 "기술자들에게 윤리적으로 합의된 인공지능 제품, 서비스, 시스템을 만드는 것에 대한 실용적인 권고안을 제공함으로써, 우리는 이 기술에 대한 공포 너머로 나아가고 현재와 미래의 인류에게 혜택을 가져올 수 있을 것이다" 라고 말했습니다.


IEEE 국제 이니셔티브 웹사이트에 있는 가이드라인을 따라 이 문서에 피드백을 주는 것도 가능합니다. 제시된 모든 의견은 공개되며, 2017년 3월 6일 이전까지만 접수한다고 합니다. IEEE에서는 이렇게 인공지능의 윤리와 책임에 대한 이슈의 합의점을 찾아내어 Ethically Aligned Design의 개념에 기반한 IEEE 표준 권고안을 완성시킬 계획입니다.


관련 기사

TechCrunch, "IEEE puts out a first draft guide for how tech can achieve ethical AI design"



에티 페이스북 페이지를 통해 에티의 다른 소식도 받아 보세요


저작자 표시 비영리 변경 금지
신고
댓글
댓글쓰기 폼