인간을 위하는 AI

인공지능은 왜 윤리적이어야 하는가.

인공지능(AI)은 접근이 어렵거나 모호한 미래의 기술이 아니다. 이미 우리의 삶과 밀접한 관계를 맺고 있다. 주차장 입구에서 카메라가 자동차 번호판을 촬영하면 AI가 고유 번호를 인식해서 요금을 계산한다. 스마트폰은 사용자의 조작 패턴을 파악해서 당장 필요하지 않을 것이라 예상하는 기능을 비활성화한다. AI 스피커는 사용자의 기분에 따라 스스로 음악을 선곡할 줄 알고, 검색 사이트는 실시간으로 주목받는 검색어를 사용자의 나이나 성향에 맞춰 보기 좋게 나열한다. 이렇게 우리가 일상에서 자연스럽게 접하는 많은 것들이 AI다.

AI는 알고리즘과 데이터가 바탕이다. 알고리즘은 일정한 규칙에 따라 결과를 배열하는 것을 말한다. 이것을 컴퓨터 언어로 코드화해 데이터에 연결하면 특정 패턴을 찾아낼 수 있다. 이 과정에서 기계는 패턴의 다양성을 학습하고 데이터적 사고를 바탕으로 결과를 도출(예측)한다. 실제로 AI는 특정 영역에서 인간보다 빠르고 효율적으로 결과를 내놓는다. 방대한 수준의 데이터를 다루는 데에서는 그 어떤 기술보다 유용하다. 하지만 한편으로 관련 기술의 발전 속도는 두려울 만큼 빠르다. 게다가 안전장치는 부족한 상황이다. 실제로 AI가 우리가 원하지 않는 방향으로 발전한 경우도 종종 있었다. 마이크로소프트가 2016년 선보인 채팅 서비스 테이(Tay)가 대표적이다.

테이는 인간의 언어를 이해하기 위해 만든 신경망 기반 AI다. 트위터, 그룹미, 킥 등의 소셜 메신저를 통해 다양한 사용자와 대화를 나누면서 스스로 대화 능력을 키우는 데 초점을 맞췄다. 테이에는 기본적으로 문제가 될 법한 단어는 답변을 거부하는 방어 장치가 있었다. 하지만 기술자가 예상치 못한 균열이 테이에게 영향을 미쳤다. 백인 우월주의자와 여성·무슬림 혐오자들이 의도적으로 테이에 편향적인 정보를 주입한 게 문제였다. 이후 테이는 인종차별적 발언을 쏟아냈다. 제2차 세계대전의 유대인 학살 사건이 지어낸 것이라며 왜곡된 사실도 주장했다. 결국 마이크로소프트는 테이의 베타 테스트를 시작한 지 16시간 만에 서비스를 중단했다. 테이 논란은 AI에 대한 경계심을 일깨움과 동시에 데이터 중심의 사고가 일으키는 문제의 가능성을 여실히 보여줬다. 이 사건을 통해 마이크로소프트는 AI 윤리의 중요성을 누구보다 빨리 깨달았다. 실패가 아니었다. 다음 단계로 발전하기 위한 방향성을 찾아낸 셈이다.

 

인간 대 기계라는 관점에서 벗어나 인간의 재능, 창의성, 공감 능력, 감정, 신체적 능력, 통찰 등을 어떤 식으로 AI와 결합시켜 사회를 발전시킬 것인가에 초점을 맞춰야 합니다.”
– 사티아 나델라(마이크로소프트 CEO)

 

AI는 개인과 밀접한 관계가 있다. 그리고 사회 구성 요소로 공존한다. 따라서 단순 기술로 볼 것이 아니다. 마이크로소프트가 AI를 발전시키는 과정에서 끊임없이 고민하는 이유다. 그들은 현재 AI의 정의를 세 가지 방향성으로 집중한다. 인간의 재능을 극대화할 혁신, AI를 더 많은 사람이 경험하고 활용하는 강력한 플랫폼, 마지막으로 책임감을 바탕으로 하는 AI 기술 개발과 신뢰 구축이다.

AI의 기술 혁신 부분에서 마이크로소프트가 세운 업적은 대단하다. 창립자 빌 게이츠가 1991년 마이크로소프트 연구소를 설립한 이후 지금까지 25년 이상 AI 기반 기술을 연구 및 보유하고 있다. 현재는 8000명 이상의 전문가, 기술자와 함께 AI와 양자 컴퓨팅, 클라우드 보안 등 다양한 분야를 연구 중이다. 관련된 논문 발표만 2만3000편에 달한다. 마이크로소프트는 이 중에서도 특히 AI 컴퓨터 비전과 자연어 음성인식, 기계 독해 분야에서 괄목할 만한 성과를 보였다. 2016년에는 사람과 동등한 수준의 음성인식 기술을 구현해냈고 2018년에는 사람처럼 문서를 읽고 질문까지 던지는 AI 기술을 만들어냈다.

물론 AI 기술은 형체가 없다. 예쁜 상자에 넣어서 누군가에게 택배로 보낼 수 없다는 뜻이다. 따라서 많은 사용자가 관련 기술을 접하기 위해서는 유연하고 강력한 플랫폼이 필수다. 그래서 마이크로소프트는 소프트웨어와 하드웨어를 넘나드는 광범위한 영역에서 포트폴리오를 제공하는 데에도 힘쓴다. 코타나 같은 자연어 인식 기반 AI 비서를 여러 경로로 접근할 수 있도록 한다. 개발자들을 위해서 다양한 툴과 프로그램이 가능한 비메모리 반도체(FPGA) 솔루션도 제공한다. 더불어 클라우드 기술의 리더로서 끊임없는 개발과 투자도 진행한다. 실제로 마이크로소프트 애저는 전 세계 54개 리전(지역 거점)을 기반으로 한 데이터 센터를 구축해서 업계 최고 수준의 성능과 안전, 보안성을 갖추고 있다.

사실 이 모든 것은 AI 발전을 지탱하는 기술 혹은 인프라에 해당한다. 비슷한 목적을 가진 많은 기업이 함께 경쟁하는 영역이다. 하지만 앞서 말했듯이 인간에게 도움을 주는 AI는 기술 경쟁이 핵심이 아니다. 데이터적 사고에는 우리가 이해하지 못하는 변수와 불안정성이 언제나 존재한다. 따라서 가장 중요한 것은 개발자와 사용자 모두가 신뢰할 수 있어야 한다는 것이다. 이런 이유로 마이크로소프트는 AI 분야에서 ‘윤리’를 무엇보다 중요하게 생각한다. 인간의 영혼을 이해하고 존엄성을 해치지 않는 기술. 즉 인간과 공감하는 AI를 만들겠다는 철학을 가지고 있다.

 

AI 기술의 진보가 가져올 사회적 문제를 어떻게 대처해야 하는지 신중하게 고민할 필요가 있습니다. 인류 역사상 기계에 이만한 힘이 주어진 건 처음이죠. 그만큼 인류의 미래를 위해서 충분히 생각해봐야 합니다.”
– 브래드 스미스(마이크로소프트 사장, 최고법무책임자)

 

그럼 이들이 주장하는 AI 윤리란 무엇인가? AI를 통해 모든 사람을 포용하고 인종, 국적, 지위나 경제적 수준, 나이, 성별, 육체와 정신적 장벽을 초월해야 한다. 그러려면 AI를 개발하는 인간의 편향된 의사가 결과에 영향을 미치지 않는 것이 중요하다. 그래서 객관적 원칙과 윤리 수립에 노력을 기울인다.

마이크로소프트는 지난해 개발자 콘퍼런스 ‘빌드 2018’에서 ‘AI 기술은 개발자들에게 엄청난 기회를 제공함과 동시에 그만큼 큰 책임감도 요구한다’는 것을 강조했다. 따라서 윤리적 AI를 포함한 세 가지 핵심 원칙을 지켜야 한다고 주장했다. 프라이버시(사생활 보호), 사이버 보안, 윤리적 AI가 그것이다.

요약하자면 프라이버시는 인권과 연결되는 사항이므로 최우선시해야 한다는 것이다. 소유자가 자신의 데이터에서 나오는 혜택을 누리도록 서비스하지만 동시에 사생활을 완벽하게 통제할 수 있어야 한다. 사이버 보안은 무고한 시민과 기업에 특정 대상이 사이버 공격을 가하지 못하도록 관련 국가와 협력하지 않겠다는 원칙이다. 이 부분은 2017년부터 마이크로소프트가 주장한 ‘디지털 제네바 협약’의 연장선에 있다. 실제로 그들은 2018년 개최된 세계 정보 보안 전시회 ‘RSA 콘퍼런스’에서 글로벌 IT 기업 34곳과 함께 ‘사이버 시큐리티 테크 어코드’ 협약에 서명하기도 했다.

 

우리는 AI가 좋은 일에 사용되는 것은 알고 있습니다. 하지만 의도하지 않은 결과가 생기지 않도록 해야 합니다. 책임감을 가지고 AI를 개발하면서도 과도한 경쟁으로 부작용이 생기는 것을 피하기 위해 검토가 필요한 시점입니다.” – 사티아 나델라(마이크로소프트 CEO)

 


가이드에서 강조한 윤리적 AI는 AI 연구 인력을 위한 디자인 원칙과 가이드다. AI를 개발할 때 공정성, 신뢰성과 안전 보장, 투명성, 개발에 대한 책임 등이 필요하다는 것이다.

AI 규제의 필요성도 꾸준히 강조한다. 아무리 좋은 의도의 기술이라도 관점에 따라서 같은 현상이 완전히 다르게 해석될 수 있기 때문이다. 마치 동전의 양면처럼 말이다. 안면 인식 AI 기술이 좋은 예다. 인도에서는 최근 이 기술을 활용해 단 4일 만에 2930여 명의 실종 아동을 가족의 품으로 돌려보냈다. 인도 뉴델리 경찰이 거주지가 다른 4만5000명의 실종 어린이를 안면 인식 소프트웨어로 추적한 결과였다. 안면 인식 AI는 이처럼 인류에게 도움이 되는 안전한 기술로 활용될 수 있다. 하지만 이 기술이 보급되면 악용될 가능성도 있다. 얼굴을 통해 쉽게 신원 확인이 가능하다는 점 때문에 특정한 누군가를 오랜 시간 추적할 수 있다. 이렇게 모인 방문 장소와 취향 같은 각종 사생활 정보가 유출된다면 큰 문제다. 그래서 마이크로소프트는 이런 위험을 사전에 막기 위해 적절한 규제가 필요하다고 주장한다. 미국에서 관련 기술을 상업적으로 이용할 때 규제하는 법안 동의 및 설립에 적극 참여하고 있다.

인간에게 유용한 AI 기술은 많다. 마이크로소프트의 경우 이런 활동을 ‘AI for Good’이라는 테마 아래 진행한다. 지구, 접근성 프로그램, 인도주의 프로젝트 등 크게 세 가지로 나눈다. 지구 환경을 위한 AI 프로젝트에서는 멸종 위기에 처한 동물이나 기후 및 생태계 변화, 도시화가 불러오는 다양한 환경 이슈를 해결하고자 한다. 대표적인 것이 코끼리 울음소리로 생사를 확인하는 AI 분석 기술이다.

 


아프리카 초원에는 지난 7년간 약 14만 마리(30%)의 코끼리가 급감했다. 불법 수렵이나 환경 변화가 원인이었다. 이런 문제를 해결하기 위해 콩고민주공화국 북부에 위치한 누아발레-느도키 국립공원에서는 코끼리 울음소리로 개체 수를 파악하고 보호·관리하는 프로젝트를 하고 있다. 여기서 사용하는 AI 시스템은 코끼리뿐 아니라 침팬지, 고릴라, 버펄로, 자동차 엔진, 사람의 목소리 등 다양한 소리를 수집한다. 이렇게 수집한 데이터는 첨단 알고리즘과 마이크로소프트 클라우드를 통해 분석된 후 인간이 분석할 때보다 훨씬 더 빠르게 결과를 내놓게 된다(수일 단축).

접근성 프로그램의 경우 우리가 일상생활에서 불편한 부분을 AI로 개선하는 것이 목표다. 시각장애인에게 주변 상황을 알려주는 스마트폰 애플리케이션(Seeing AI)이 많은 이들에게 도움을 주고 있다. 실제로 시각 장애가 있는 마이크로소프트의 한 기술자가 개발했다. 카메라에 보이는 모든 상황을 AI가 분석해 말로 설명해준다. 주변 환경이나 대화 중인 사람들의 감정까지도 자세히 전달된다. 근육 떨림이 심한 파킨슨병 환자가 정교하게 글씨를 쓸 수 있도록 하는 기술(프로젝트 엠마)도 주목할 만하다. 파킨슨병 환자의 손목에 찬 시계가 환자의 근육이 떨리는 반대 방향으로 진동을 발생시켜 근육 떨림을 멈추게 돕는 기술이다.

 

AI의 혜택을 몇몇 소수가 아닌 모두가 누릴 수 있도록 하려면 인간 중심의 AI가 되도록 개발해야 합니다. AI는 인간의 능력을 증진시킬 수 있어야 합니다. 그리고 우리는 AI 기술로 사람들이 더 많은 것을 이룰 수 있었으면 합니다. 그렇게 될 것이라고 믿습니다.”
– 해리 셤(마이크로소프트 연구 및 기술 부문 수석 부사장)

 

인도주의 프로젝트는 재해 지역 복구, 아동 보호, 인권 존중, 난민 및 실향민 보호 등의 분야에서 AI를 활용할 수 있도록 지원한다. 영아 돌연사 증후군의 원인을 규명하기 위해 데이터 사이언스와 의료 과학의 융합도 시도했다. 마이크로소프트의 데이터 사이언스 연구자들이 시애틀 영유아 발달 연구소에서 진행한 한 프로젝트는 2004년부터 2010년까지 집계된 290만 명의 신생아 데이터와 2만7000여 명의 영아 급사 사례를 AI 머신 러닝으로 분석했다. 그리고 이를 기반으로 여러 현상의 상관관계를 통해 잠재적 원인을 수천 가지 경우의 수로 조합해서 밝혀내는 중이다.

AI 기술은 방대한 영역에서 사용 중이다. 기술은 빠르게 발전하고 기존에 없던 새로운 영역으로 뻗어나간다. 우리가 예상하지 못한 범위까지 AI가 사용되는 시대다. 물론 AI의 잠재된 가능성만큼이나 위험성도 언제나 존재한다. 많은 이들이 특정 기술이 시간이 지나면 자연스럽게 발전한다고 생각한다. 이것은 대단한 착각이다. 기술은 스스로 나아지지 않는다. 눈에 보이지 않는 많은 이들이 기술을 올바른 방향으로 발전시키기 위해 열심히 노력해야만 진보할 수 있다. 첨단 기술을 가만히 내버려둔다면 기술 그 자체는 퇴보할 뿐이다. 반대로 맹목적으로 기술 경쟁에 뛰어들면 부작용이 생긴다. 마이크로소프트는 이 사실을 잘 알고 있다. 그들이 AI 기술의 중심을 ‘기술이란 결과’가 아니라 ‘윤리라는 과정’에 두는 이유이다.

 

  • Kakao Talk
  • Kakao Story