• 흐림동두천 1.0℃
  • 흐림강릉 1.3℃
  • 서울 3.2℃
  • 대전 3.3℃
  • 대구 6.8℃
  • 울산 6.6℃
  • 광주 8.3℃
  • 부산 7.7℃
  • 흐림고창 6.7℃
  • 흐림제주 10.7℃
  • 흐림강화 2.2℃
  • 흐림보은 3.2℃
  • 흐림금산 4.4℃
  • 흐림강진군 8.7℃
  • 흐림경주시 6.7℃
  • 흐림거제 8.0℃
기상청 제공

AI platform

[이슈분석] ‘이루다 사태’, 인공지능 윤리 고민 더해졌다“…기업들 노력은?

‘이루다’ 사태 이후 네이버·카카오·엔씨소프트·MS 등 대형기업 AI 윤리 고찰

URL복사

 

[투데이e코노믹 = 이지혜 기자] 인공지능(AI) 챗봇 ‘이루다’ 사태 이후 네이버·카카오·엔씨소프트·마이크로소프트(MS) 등 대형 기업을 중심으로 AI 윤리에 대한 고찰이 이루어지고 있다.

 

개인정보보호위원회는 지난 28일 이루다를 운영했던 스캐터랩에게 과징금 5550만 원, 과태로 4780만 원을 부과했다. 스캐터랩이 총 8가지 개인정보보호법을 위반했기 때문이다. 이번조치는 AI 기술 기업의 무분별한 개인정보 처리를 제재한 첫번째 사례다.

 

이루다는 지난해 12월 출시된 대화형 챗봇으로, 20대 여대생을 콘셉트로 했다. 출시 3주 만에 이용자 40만 명을 넘기면서 인기를 끌었지만 여성에 대한 성적 대상화, 장애인·성소수자에 대한 혐오발언으로 논란이 됐다. 이에 더해 스캐터랩이 자사 애플리케이션 ‘연애의 과학’과 ‘텍스트앳’에서 수집한 카카오톡 대화를 무단으로 이용했다는 의혹까지 불거졌다.

 

개인정보위에 따르면 스캐터랩은 이루다 AI 모델 개발을 위한 알고리즘 학습과정에서 카카오톡 대화에 포함된 개인정보를 삭제하거나 암호화하지 않았고, 약 60만 명에 대한 이용자의 카카오톡 대화문장 94억여건을 이용했다.

 

또한 개발자들의 코드 공유 사이트 깃허브에 지난 2019년 10월부터 올해 1월까지 이름 22건, 지명정보 34건, 성별 등이 포함된 카카오톡 대화문장 1431건과 함께 AI 모델을 게시한 점도 확인됐다.

 

 

개인정보 보호, 사회적 소수자 혐오 등 이루다 사태가 촉발한 AI 윤리 화두에 업계가 응답하기 시작했다. 

 

엔씨소프트는 연중기획 프로젝트 ‘AI Framework’ 시리즈를 통해 AI 시대의 리더쉽과 윤리개선에 대해 고찰한다. 하버드대, 스탠포드대 등에서 활동하는 세계적인 석학과의 토론을 통해 AI 기술을 바라보는 관점과 방향을 제시할 방침이다.

 

29일 공식 유튜브와 블로그를 통해 공개된 윤송이 최고전략책임자(CSO)와 스탠포드 인간중심 AI 연구소 페이페이 리 공동소장과의 대담영상에서, 리 공동소장은 “서로 다른 학문 간의 더 깊이 있는 융합으로 인간과 사회에 미치는 AI 영향력을 연구해야 한다”고 밝혔다. 

 

또한 AI는 인류를 대체하는 것이 아니라 인류의 더 나은 삶, 노동의 생산성을 높이는 것에 도움을 줄 수 있는 기술이라고 전했다. 

 

조장래 한국 MS 전무는 지난 29일 소프트웨어 정책연구소(SPRi)가 진행한 온라인 포럼 ‘신뢰할 수 있는 AI 구현을 위한 우리 사회의 역할과 과제’에 참여, “AI 윤리를 실행하는 데 있어 좋은 규제는 꼭 필요하다. 그렇지 않으면 AI는 인류를 위한 기술이 아닌 인류 모두를 디스토피아로 몰아넣게 될 것”이라고 말했다.

 

MS는 지난 2016년 AI 챗봇 ‘테이’를 출시했다가 인종차별, 성차별 옹호 발언 등이 불거지면서 서비스를 중단한 바 있다. 조 전무는 테이의 사례를 언급, “AI를 설계할 때 가장 중요한 측면 중 하나는 기술이 오용될 모든 가능성을 보완해내는 것”이라고 말하기도 했다. 

 

그러면서 ▲공정성 ▲신뢰·안전 ▲프라이버시·보안 ▲포용성 ▲투명성 ▲책임성 등 AI가 갖춰야할 6대 윤리 준칙을 강조했다. 

 

 

네이버와 카카오 양대 포털 기업은 자체적으로 윤리 준칙을 발표하기도 했다. 

 

네이버는 지난 2월 17일 서울대학교 AI 정책 이니셔티브와 함께 ‘네이버 AI 윤리 준칙’을 발표했다. 윤리 준칙에는 ▲AI 개발과 이용에 있어 인간 중심의 가치를 최우선으로 할 것 ▲다양성의 가치를 고려해 AI가 사용자를 포함한 모든 사람에게 부당한 차별을 하지 않도록 개발하고 이용할 것이라는 내용이 담겼다.

 

또한 ▲일상에서 AI의 관여가 있는 경우 사용자에게 합리적인 설명을 위한 책무를 다할 것 ▲서비스 전 과정에서 사람에게 유해한 영향을 미치지 않는 AI 서비스를 설계할 것 ▲개인정보 보호에 대한 법적 책임과 의무를 넘어 사용자의 프라이버시가 보호되도록 노력할 것이라는 내용도 포함됐다.

 

카카오도 같은 날 전 직원을 대상으로 AI 윤리 교육을 하겠다고 밝혔다. 카카오가 2018년 만들고 2020년 7월 개정한 ‘카카오 알고리즘 윤리 헌장’은 ▲알고리즘 결과에서 사회적 차별이 일어나지 않도록 경계할 것 ▲학습 데이터를 사회 윤리에 근거해 수집 분석 활용할 것 ▲알고리즘이 누군가에 의해 자의적으로 훼손되거나 영향받는 일이 없도록 엄정히 관리할 것 등의 내용이 포함됐다.

 

▲이용자와의 신뢰관계를 위해 알고리즘에 대해 성실히 설명할 것 ▲기술과 서비스가 사회 전반을 포용할 수 있도록 노력할 것 ▲아동과 청소년이 부적절한 정보와 위험에 노출되지 않도록 개발 및 서비스 디자인 단계부터 주의할 것 등의 내용도 담겼다.