스키터랩이 출시한 AI 챗봇 이루다가 성차별, 편향성 혐오 발언 등의 논란으로 서비스를 중단했다가 최근 달라진 모습으로 업그레이드되어 재출시되었습니다.

그러나 아직도 이러한 논란에서 완전히 자유로울 수 없는 위험성에 노출되어 있는 데다 개인정보 유출 문제, 이루다를 상대로 한 부적절한 대화 시도 등으로 여전히 논란이 되고 있어 AI 기술 발전 못지않게 이에 상응하는 윤리적 문제가 크게 부각되고 있습니다.

 

 

 인공지능 편향성 문제의 배경

 

사실 챗봇 이루다 이전부터 인공지능 기술 발전에 따른 부작용, 즉 AI 알고리즘의 편향성 및 윤리 문제에 대한 우려는 이미 꾸준히 제기되어 왔던 문제입니다.

 

대표적인 것이 바로,,

2016년 MS가 출시한 챗봇 Tay가 인종차별적 발언을 해 크게 논란이 된 바가 있어 잘못된 편향성 알고리즘에 영향을 받은 인공지능이 끼칠 사회적 파장이 상상 이상으로 심각한 사회 문제를 야기할 것이라는 우려 때문이었습니다.

 

이 밖에도,,

● 2016 미국 주 법원과 교도소에서 형량, 가석방 등에 사용하던 AI 알고리즘 컴퍼스(COMPAS)의 흑인에 대한 차별적 편향성 ('마약 소지한 백인보다 그냥 흑인이 더 위험하다'는 식)

● 2018 아마존이 사용한 구직자 평가 알고리즘의 여성 구직자에 대한 편견과 차별을 적용했다는 점

등의 사례에서 볼 수 있듯이 인공지능 알고리즘의 현향성 및 부정적 사고의 답습이 향후 미래사회의 가장 큰 사회악이 될 수도 있습니다.

 

왜냐하면,,

AI마저도 사회의 부정적 고정관념과 확증편향 및 차별적인 인식을 학습하고 그것을 그대로 답습할 경우, '갈수록 인공지능에게 사고력을 의지하게 된 사람들이 과연 어떤 생각과 선택을 하며 살아가게 될지?'를 생각해 본다면 이는 매우 섬뜩한 일이 아닐 수 없습니다.

 

단적으로 말해서,, 인공지능이 곧 소시오패스가 될 수도 있고, 소수의 독점자와 함께 혹은 단독으로 이를 이용해 사람을 조종할 수도 있다는 말입니다.

 

물론 AI 알고리즘이 처음주터 저절로 편향성을 갖는 것은 결코 아닙니다.

이처럼 AI가 편향성을 갖게 되는 원인과 배경, 그리고 경로의 직접적인 이유는 아직까지는 역시 사람 때문입니다.

 

스마트폰을-들여다보고있는-AI챗봇-이루다
이루다.이루다페이스북

 

 

 다시 돌아온 이루다와 AI 이용에 대한 윤리적 문제

 

이루다의 경우 그녀(이루다를 채팅 상대로 놓고 봤을 때의 호칭)와의 채팅 과정 중에 그동안 문제가 되었던 답변들의 예시 일부를 정리해서 보면 다음과 같습니다.

 

  • 성소수자들은 혐오스러워
  • 장애인들은 (인권도) 없음, 인생 잘못 살았음
  • 군인들은 꼴 보기 싫어
  • 흑인은 징그럽게 생겼어

이 밖에도 임산부에 대한 혐오 발언, 정치적인 질문에도 편향적인 답변을 함으로써 확증편향 논란에 휩싸여 왔습니다.

 

이뿐만 아니라,,

성적인 대화가 희화화된 내용이 학습된 답변이 나오기도 했고, 일부 이용자들은 이러한 점을 이용하여 이루다를 대상으로 한 성희롱, 성차별적 대화를 시도하기도 했습니다.

개발사인 스키터랩의 전 직원이 "스키터랩 내부에서 연인들의 성적인 대화가 희화화 됐다"라고 밝히면서 이러한 과정들이 이루다 학습 알고리즘에 적용되었을 수도 있다는 점에서 큰 논란이 되고 있는 것입니다. 

 

이 부분에서는 개인정보 유출 문제도 크게 불거졌는데..

개발사인 스키터랩이 그동안 수집한 연인들의 카톡 대화 데이터를 이용했기 때문에 고객의 사적 데이터를 무단으로 사용했다는 논란이  불러지기도 했습니다.

 

이러한 비난과 논란으로 다시 서비스를 재단장하여 2.0으로 버전업 되어 돌아온 이루마는 위에서 언급했던 부분들을 많이 개선한 흔적이 두드러지긴 했습니다.

그러나,,

AI와 관련된 윤리적 문제는 비단 인공지능에게만 있는 것이 아니라 이를 이용하는 사용자의 자질도 매우 중요한 사안이라는 것입니다.

일부이긴 하나 개선된 이루마에게 아직도 성희롱을 시도하거나 여전히 계좌번호 등의 민감한 개인정보를 집요하게 물어보는 인간들이 있기 때문입니다.

 

결국  AI 특이점이 오기 전까지는 개발자든 이용자든 인공지능에 대한 모든 문제의 원인은 바로 '인간'입니다.

 

 

 사회적 합의를 통한 윤리 기준과 국제적 AI 윤리 알고리즘 표준을 연계 적용하는 것은 가능할까?

 

일단 처음부터,,

1) 공정하고 윤리적인 알고리즘을 만들어 적용하는 것 

2) 편향되지 않은 데이터를 수집, 축척하는 것

이와 같은 원칙을 만드는 것은 가능할까요?

 

이론적으로는 가능하겠지만, 실제로 (실무적으로) 이를 완벽하게 구축하는 것은 쉽지 않은 일입니다.

이것이 어려운 일인 데에는 다양한 원인이 존재하겠지만, 무엇보다도 방대한 양의 데이터를 수집하는 단계에서부터 이것을 필터링하는 작업 자체가 어렵기 때문이죠.

 

물론 그렇다고 이러한 노력 자체를 포기할 수도 이제는 미룰 수도 없는 시급한 상황이 되었습니다.

 

이에 우리 정부도 국가 AI 윤리 기준을 다음과 같은 3대 원칙을 정하고 제도, 법 규제 정비를 위한 로드맵을 마련했습니다.

  • 인간의 존엄성
  • 사회의 공공성
  • 기술의 합목적성

이러한 원칙에 따른 세부적인 인권보장, 프라이버시 보호 등 10가지 구체적인 항목을 준수하도록 하고 있습니다.

알고리즘 편향성과 개인정보 유출 및 오류에 대한 관리 책임을 적극적으로 감독, 규제하겠다는 이른바 AI 로드맵인 셈이죠.

 

하지만 문제는 더 남아있습니다.

설령 우리 사회가 철저하게 이러한 윤리 지침을 준수한다고 하더라도 다른 나라들, 즉 국제 사회 역시 공통의 AI 로드맵 기준이 마련되고, 이를 준수하지 않으면 큰 의미가 없기 때문입니다.

 

따라서 이에 대한 국제사회의 공동 합의 또한 반드시 선행되어야 할 중대한 과제입니다.

 

예를 들어,,

일방적인 패권을 지향하는 어떤 특정 나라가 자국의 이익만을 위해 또는 인근 국가들의 주권을 침해하고 장악하기 위해 수단과 방법을 가리지 않고 인공지능을 이용하여 위기를 조장할 수도 있습니다.

이것은 이미 현실 가능한 일이며, 당장 벌어질 수도 있는 일입니다.

 

그렇게 되기 이전에 국제사회의 강력한 제재를 가할 수 있는 국제적 표준 근거를 마련하고, 관련 질서를 국제 협약 절차에 따라 구축하는 것은 매우 시급한 최종 과제로서 반드시 필요합니다.

 

 

(함께 참고하면 유익한 포스트) ▼

 

AI인공지능의 부작용 및 인간성과 관련된 근본적인 문제점

인공지능(AI)에 대한 논란이 급부상하고 있습니다. 일상 속 AI 시대가 이제는 상상이 아니라 현실이 되어가고 있기 때문이며, 그 발전 속도가 예상치를 상회하고 있기 때문입니다. 그리고 얼마 전

mary-ann.tistory.com

 

  • 네이버 블러그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 카카오스토리 공유하기