(210304) 인간과 AI, 공존 시대의 시작
작성자
이 은빈
작성일
2023-01-01 02:47
조회
16

▲MBC VR 휴먼다큐 ‘너를 만났다’
AI는 다양한 형태로 우리 앞에 선보여지고 있다. 최근에는 다양한 TV 프로그램을 통해서도 AI의 성장을 확인할 수 있다. 엠넷에서 방영된 ‘AI 프로젝트 다시 한 번’과 MBC VR 휴먼다큐 ‘너를 만났다’를 통해 사별한 이들의 생전 모습을 재연해내며 감동을 주기도 하고, SBS '세기의 대결! AI vs 인간‘을 통해 인간에게도 맞설 법한 AI의 다양한 분야에서의 성장세를 보여주며 놀라움을 안겨주기도 한다.
▲인공지능 스타트업 스캐터랩에서 출시한 AI 챗봇 ‘이루다’
최근에는 AI 챗봇인 ’이루다‘가 등장하며 큰 이슈를 낳았다. 이루다는 AI 전문 스타트업 기업인 ‘스캐터랩’에서 작년 12월 23일 출시한 인공지능 챗봇이다. 딥러닝 알고리즘 기능을 통한 100억 건 이상의 방대한 양의 카카오톡 대화 데이터가 학습되어 있어 놀라울 정도로 자연스러운 대화를 구현해낸다. 20세 대학생 여성의 친근한 컨셉으로 출시 된 이루다는 출시 한 달 만인 올해 1월 유저 수 40만 명을 돌파하며 Z세대에게 엄청난 인기를 끌었다.
▲‘이루다’ 공식 홈페이지의 서비스 중단 공지
그러나 스케터랩은 이루다 운영 3주 만에 잠정 중단 결정을 내릴 수밖에 없었다. 데이터 수집 과정에서의 심각한 개인정보 유출 문제와 소수집단에 대한 차별발언, 성희롱 문제가 발생했기 때문이다. 이루다의 자연스러운 대화 구현의 배경인 카카오톡 대화 데이터는 어플 ‘연애의 과학’에서 수집된 것인데, 이 데이터 수집 과정에서 대화 내용의 사용에 대한 적절한 안내가 없었던 것으로 알려지며 개인정보 유출 문제를 낳았다. 또한 이루다는 공공연하게 이루어진 성차별과 혐오 표현과 같은 사회의 비윤리적 행태까지 학습한 점에서 이용자들에 강한 비판을 받으며 잠정 중단의 결론을 내렸다.스케터랩은 이루다 서비스의 잠정 중단 직후 게시한 공식 입장문을 통해 ‘이루다의 차별적 발언 사례에 대해 사과드린다.’며 ‘이루다의 차별적 발언에 대해 동의하지 않으며, 회사의 의견을 반영하고 있지 않다.’고 공식적인 입장을 밝혔다. 이어 ‘향후 데이터 사용 동의 절차를 명확하게 하고 식별이 불가능한 정보라도 민감해 보일 수 있는 내용에 대해서는 지속적인 알고리즘 개선을 통해 보완하겠다.’고 말했다.
김재인 경희대 비교문화연구소 교수는 이루다 사건을 두고 “알파고-이세돌 9단의 대결 이후 한국 사회에서 가장 중요한 사건이었다”며 “알파고는 인공지능이 어떤 능력과 힘을 가졌는지 충격적으로 일깨워준 사건이었다면, 이루다는 인공지능 기술이 인간의 굉장히 깊숙한 영역까지 들어왔고 그만큼 이롭거나 해로울 수 있는 윤리적이고 사회적인 기술이라는 점을 깨닫는 계기가 됐다”고 말했다.
이루다 사건을 통해서 AI 윤리 기준 및 점검사항의 구체화가 필요하다는 의견이 각계이서 제시되고 있다. 변순용 서울교육대학교 교수는 미국, 핀란드, 호주의 경우 AI 윤리를 고려하는 다양한 학교교육을 시행하고 있는 반면에 우리나라는 각종 신기술 체험 교육과정으로만 이루어져 있다는 점을 지적하며, AI 전문가나 개발자가 아닌 국민 모두를 위한 AI 교육이 필요하다고 강조했다.

▲온라인 간담회를 진행하는 IBM 세뜨 도브린 박사
또한, IBM 최고데이터책임자로서 AI·클라우드 전환 비즈니스를 총괄하는 세뜨 도브린 박사는 화상 미디어 브리핑을 통해 AI 윤리 문제를 해소할 수 있는 방법론에 대해 "인공지능(AI)을 알고리즘 모델로만 국한해서 볼 게 아니라 전체적인 구조를 봐야 한다. 모델 관리 체계와 모델을 제어하는 방법, 학습 데이터에 대한 보안 문제 등 총체적인 관점에서 AI를 살펴야 한다. AI가 무엇을 하는지 이해하고, 문제없는 과정을 거쳐 결과를 도출하는지 항상 모니터링 할 수 있어야 한다."라고 설명했다.
▲IBM 제공의 ‘AI 거버넌스 역량’
도브린 박사는 신뢰성을 향상시킬 수 있는 조건으로 세 가지의 'AI 거버넌스 역량'을 제시했다. 이는 ai의 시장 출시 후의 투명성과 신뢰성을 확보하기 위한 역량을 의미한다.AI 거버넌스 역량의 첫 번째로 ‘모델 이해 역량’이 있다. 이 역량을 위해서 AI 메타 데이터를 자동으로 캡처하여 항상 데이터 추적을 가능하게 하며 투명성을 제고하는 것이다. 또한 AI가 새롭게 학습하는 것에 대한 문서를 통한 관리가 필요하다고 말한다. 두 번째는 ‘모델의 신뢰성 확보 역량’이다. 여기서 세뜨 도브린 박사는 AI를 사용하는 기업에서 적절한 규제와 정책을 세울 필요성에 대해 언급한다. 마지막으로 ‘모델 사용 역량’을 통해 AI가 학습할 편견이나 편향을 감시하고 관리할 수 있어야 함을 주장한다.
AI는 인간의 친구가 될 수 있을까. 최근 논란이 불거지며 비판의 대상이 된 인공지능 챗봇 ‘이루다’가 우리에게 남긴 질문이다. AI와 인간의 공존을 위해서는 AI 기술에 대한 적절한 이해와 학습, AI 윤리 규범 정립에 관한 우리의 지속적인 관심과 노력을 필요로 할 것이다.

사진출처
http://www.pdjournal.com/news/articleView.html?idxno=72201
http://www.ildaro.com/8973
https://luda.ai/
https://www.etnews.com/20210223000135
https://zdnet.co.kr/view/?no=20210223132121
전체 0
댓글을 남기려면 로그인하세요.