인공지능은 선한가, 악한가?

COVID-19 전염병은 전세계에 많은 비극을 일으켰다. 한 예로, 미국 보스턴은 어느 한 날 15 페이지의 부고를 발간했다. 하지만 비극이 일어나는 동시에 위기를 극복하기 위한 많은 선한 일들도 일어났다. 의사, 간호사, 그리고 긴급 구조원들이 병마와 싸우는 최전선에서 환자를 돕기 위해 목숨을 바치고 있다. 많은 임대주들이 4 월 한 달 동안 임대료 받지 않기 운동을 했다. 한국에서는 자원 봉사자들이 일회용 마스크가 부족할 때 수제 마스크를 만들었다. 많은 이들이 노인과 장애인을 위해 음식을 만들고 배달했으며 또는 도움이 필요한 사람들을 위한 기부금을 내고 있다.

인공지능 분야의 대학, 회사 및 연구 기관 또한 현재 위기에 대응하기 위한 치료법 및 솔루션을 찾는 데 자원을 쏟고 있다. 스탠포드(Stanford)의 HAI (Human-Centered Artificial Intelligence)는 4월1일, “COVID-19 및 AI: 가상 회의”라는 특별한 가상 회의를 이끌었고, 세계적으로 유명한 인공지능 연구자들이 인공지능을 사용해 실제 문제를 해결할 수 있는 방법을 제시하고 논의했다. 이런 가상 회의는 COVID-19 전부터 있었던 ‘AI for Good’ 운동의 일부였다. ‘AI for Good Global Summit’은 인공지능을 공공의 이익을 위해 사용하기 위해 UN이 개최하는 연례 회의이다. 스탠포드의 Fei-Fei Li 박사를 비롯한 스탠포드 가상 컨퍼런스에 참가한 많은 연구원들은 이미 ‘AI for Good’에 참여하고 있다.

우리 삶에 깊숙이 파고든 인공지능

아이러니하게도 ‘AI For Good(선한 것을 위한 인공지능)’이라는 용어는 인공지능 분야에서 무언가 잘못되었다는 것을 내포하고 있다. 사진을 예로 들자면, 사진이 악하게 쓰일 수 있지만 사진을 좋은데 쓰자는 운동을 벌이지는 않는다. 생물학, 문학, 기계 공학 및 기타 모든 연구 분야에 대해서도 마찬가지이다. 어떤 학문이나 물건이나 좋은 용도로 쓸 수도 있고 나쁜 일에 사용될 수도 있다. 그것은 전적으로 사용하는 사람에게 달려 있다. 그런데 왜 인공지능만 선하게 써야 한다고 하는 것일까? 왜 인공지능만 선해야 하는 것일까?

간단하게 답하자면 인공지능이 우리중의 하나가 됐기 때문이다. 인공지능은 한때 인지 과학 분야에서 그렇게 인기가 많지 않았던 난해한 연구 분야였다. 그러나 이제는 예상하지 못했던 분야에서 인공지능 컴퓨터가 인간을 넘어서기 시작했다. 예를 들어, 알파고(AlphaGo)는 세기의 대결에서 바둑의 최고수인 이세돌 9단을 4대1로 승리했다. 자율 주행 자동차는 이미 많은 도로에서 운행되고 있고 여러 명의 사상자를 초래하기도 했다. 인공지능이 노래를 부르고, 음악을 작곡하고, 아름다운 그림을 그리며, 책을 쓰거나, 새로운 기술도 발명할 수 있다. 최근에는, 미국과 영국 법원이 인공지능이 특허를 인정받을 수 없다고 판결해야 했다. 우리는 더이상 인공지능이 무엇을 할 수 있는지 물어보지 않는다. 오히려 인공지능이 할 수 없는 것이 무엇인지를 물어본다.

인공지능은 인간 두뇌의 작용에 따라 모델링 되었다. 뉴런은 신호가 전달되는 시냅스를 통해 서로 연결되어 있다. 수학적 모델이 개발되어 나중에 뉴런이 노드가 되고 시냅스가 노드 사이의 연결망이 되는 인공 신경 네트워크로 컴퓨터에서 구현이 되었다. 딥 러닝의 기초가 마련되었으며 그 이후 우리는 돌이킬 수 없는 길을 가고 있다.

인공 지능을 만든 목적이 인간처럼 행동하는 시스템을 만드는 것이라면 우리가 인공 지능을 두려워하는 이유는 무엇일까? 그 답을 우리는 이미 암묵적으로 알고 있다고 생각한다. 인공 지능이 우리의 직업을 빼앗고 사람이 인공지능에 종속될 가능성에 대해 두려운 것도 사실이다. 그러나 그보다는 우리 자신이 우리가 어떤 인간인지 알고 있기 때문이라고 생각한다. 다른 사람에 대해서는 말할 수 없지만 자기 자신만 돌아보아도 선함이 없다는 것을 알 수 있다. 인공 지능이 사람의 형상으로 만들어졌다면, 인공지능이 사람의 선함보다 더 낫지는 않을 것이다.

기술 발전과 예상치 못한 활용사례

모든 기술 발전을 보면 남용되거나 예상치 못한 방식으로 사용되는 다양한 방법들이 있다.

  • 딥 페이크 기술은 유명인들이 한 번도 해본 적이 없는 일들을 페이크로 만들어 낸다. 일부는 웃음을 주기 위한 것이고, 다른 일부는 악의적인 의도로 제작 배포되고 있다.
  • 메그비(Megvii)의 고도화된 객체 추적 알고리즘은 사람을 인증하고 이웃을 모니터링하는 데 사용되지만 정부에서 정치범들을 추적하는 데 사용할 수도 있다.
  • 멋지게 연결된 인터넷 세상은 39 초마다 공격을 가하는 해커들의 놀이터이기도 하다.
  • 욜로(YOLO)의 개발자인 조셉 레드몬(Joseph Redmon)은 2017 년 TED 강연에서 고속으로 객체 인식을 할 수 있는 엔진을 자랑스럽게 발표했다. 하지만, 일년 후 자신이 만들었던 엔진을 미군이 드론에 적용해 전쟁에 사용하고 있다는 것을 알고는 경악했다.

Figure 1YOLO in 2017 https://www.youtube.com/watch?v=Cgxsv1riJhI

데이터 윤리

테스트웍스의 주요 사업분야 중 하나는 데이터 처리이며, 테스트웍스는 데이터셋의 품질과 보안에 자부심을 가지고 있다. 테스트웍스는 정확성을 높이고 프라이버시를 보호하여 데이터 윤리를 지키기 위해 끊임없이 노력하고 있다. 편견증폭(Bias amplification)이란 용어는 인공지능 전문가들에게 잘 알려진 현상이다. 우리는 종종 데이터셋을 구축하고 인공지능 모델을 훈련시킬 때까지 어떤 편견이 있을지 잘 모른다. 최근의 연구에 따르면, 여러가지 활동을 식별하도록 훈련한 모델을 돌렸을 때 성별에 대한 편견이 크게 증폭된 것을 확인할 수 있었다. 요리활동의 경우, 학습셋에서는 33% 더 여성과 관련이 있었지만, 훈련된 모델에서는 68%로 더 편향된 결과를 보여주었다.

테스트웍스 데이터 가공-관리 솔루션 블랙올리브

지금은 잘 알려진 불미스러운 사건 중 하나는 구글의 사진 분류 앱이 두 흑인의 사진을 고릴라로 분류했다는 것이다. 나중에 구글은 고릴라와 함께 침팬지나 원숭이 같은 다른 관련 단어들을 어휘에서 간단히 제거함으로써 문제를”해결”했지만, 불행히도 이것은 구글이 실제로 문제를 해결한 것이 아니었다.

출처 https://www.dailymail.co.uk/sciencetech/article-5270891/Google-bans-word-gorilla-racist-Photos-app.html

질문, 인간 지능이 할 수 있는 고유 권한

윤리는 최근까지 IT 또는 인공지능 분야와는 관련이 없는 것으로 보였다. 엔지니어에게 그들이 하고 있는 일이 옳고 그른지 물어본다면, 아마도 그들은 대부분 이 질문에 제대로 답하지 못할 것이다. 대부분의 내성적인 엔지니어들은 질문하는 데 능숙하지 않다고 여겨진다. 공학 교육은 거의 전적으로 솔루션을 찾는 기술을 가르치는 데 중점을 둔다. 하지만 인공지능이 발전함에 따라 교육 시스템을 혁신해야 할 시기가 왔다. 전적으로 기술에 초점을 두기 보다는 학생들이 옳고 그름에 관한 질문을 할 수 있도록 윤리학은 모든 학문의 일부가 되어야 한다. 인공지능과 빅데이터라는 멋진 신세계에서 ‘무엇’과 ‘왜’에 대한 질문이 ‘어떻게’보다 중요해질 것이기 때문이다.

엔지니어들이 직면한 난제는 엔지니어가 이제는 단순히 맡겨진 업무를 충실히 수행할 뿐이라며 질문에 대한 답변을 회피할 수 없다는 것이다. 많은 사람들이 IBM을 나치 독일과 연관시키지는 않지만, IBM이 개발한 시스템은 홀로코스트 대상자들을 프로파일링하기 위해 제3제국(나치 독일)에서 사용되었다. 스스로 어려운 질문을 하지 않는 사람은 이미 끔찍한 범죄에 대한 공범이 될지도 모른다.

결론

위기는 사람들을 두 가지 극단으로 밀어붙이는 경향이 있다. 히틀러에 의한 제2차 세계 대전은 유럽을 넘어서 많은 혼란을 야기했다. 많은 사람들은 아무 질문없이 평소에 하던 그대로 업무를 수행했다. 하지만, 다른 사람들은 질문했다. 디트리히 본회퍼(Dietrich Bonhoeffer)목사는 탈출할 기회가 있었지만 처형당할 때까지 감옥에 남는 것을 선택했다. 평범한 사업가였던 오스카 쉰들러(Oskar Schindler)는 그의 사업을 통해 수천 명의 유대인을 구하는 역할을 했다.

현재의 COVID-19도 예외는 아니다. 자신의 이익만 챙기는 Covidiots(코로나 바보)가 있는 반면에, 다른 사람들을 위해 시간과 돈과 자신의 안전을 희생하는 사람들이 있다. 위기의 상황으로 내몰릴 때, 우리는 히틀러가 될 것 인가? 아니면 쉰들러가 될 것인가? 답을 하기가 두렵지만, 최소한 우리는 스스로에게 질문을 던져야 한다.

Written by 테스트웍스 CTO 이창신 소장(changsin@testworks.co.kr)

Testworks Inc., Seoul, Korea, CTO, Research & Development

Amazon Corporation (2014-2019), Seattle, WA, Sr. Software Development Engineer

Microsoft Corporation (1999-2014), Redmond, WA, Software Engineer