챗GPT-4와 관련 범죄 악용 우려
작성자
김나영
작성일
2023-04-08 01:43
조회
46

▲ OpenAI
인공지능 기술이 발전함에 따라 챗봇과 같은 대화형 인터페이스가 널리 사용되면서 윤리적 문제가 점점 더 중요해지고 있다. 하지만 해당 기술의 윤리적 문제들은 여전히 해결되지 않은 상태이다. 이번 기사에서는 새롭게 공개된 챗GPT-4와 이와 관련된 범죄 악용 사례에 대해 살펴보겠다.인공지능 챗봇의 윤리적 문제에 관해 이야기하기에 앞서, 새로 공개된 GPT-4에 대해 소개하겠다. 챗GPT의 기반이 되는 언어모델인 GPT 시리즈는 지난 3월 14일 초거대 언어모델 GPT-4를 공개했다. 지금까지 챗GPT는 3.5 버전을 기반으로 서비스되어 왔는데, 새로 공개된 GPT-4는 이전 모델보다 오류가 적고, 창의성은 더하는 대신 편향성은 줄였다고 한다. GPT-4는 이전 모델과 같이 웹페이지 등 공개적으로 사용할 수 있는 데이터와 더불어 오픈AI가 라이선스를 획득한 데이터를 통해 학습됐다.
새롭게 공개된 GPT-4는 멀티모달을 지원한다. 텍스트 입력만 지원했던 이전 버전에서 한 걸음 더 발전하여 이미지 입력도 가능해졌다. 예를 들어 식재료 이미지를 입력하고, 해당 이미지로 만들 수 있는 음식의 레시피를 알려달라고 하면 이에 대해 응답해준다. 그러나 한계점 또한 존재한다. 아직은 이미지를 입력받을 수는 있어도 출력은 텍스트로만 할 수 있으며, 오디오나 비디오 지원까지는 시간이 더 걸릴 전망이다.

▲ 챗GPT-4 주요 성능
이전 모델과 비교하여 달라진 점은 이것뿐만이 아니다. 오픈AI는 GPT-4가 창의성, 신뢰성, 그리고 미묘한 명령어 처리 등 여러 측면에서 이전 모델보다 개선되었다고 말했다.
챗GPT-4의 성능이 한층 발전했다는 사실은 뛰어난 성능을 자랑하는 모델은 상위 10% 정도의 점수로 미국 변호사 시험을 통과했다는 사례에서도 나타난다. SAT에서는 1,300점(1,600점 만점)을 맞았으며, 생물학, 미적분학, 거시경제학, 심리학, 통계학, 역사까지 총 6개의 과목의 고등과정 시험에서 5점(5점 만점)을 받았다. 뉴욕타임즈에서는 GPT-4에 심장병 환자 치료법을 물었던 한 의사가 정확한 해답을 얻었다고 전했다. 그뿐만 아니라 GPT-4는 웨일스어, 스와힐리어, 라트비아어와 같이 비교적 이용자가 매우 적은 언어로도 대화할 수 있으며, 영어 이외의 다른 언어에서도 우수한 성능을 발휘한다.
이처럼 개선된 부분이 많지만, GPT-4는 아직 완벽하지 않다. 사실과 전혀 다른 답을 당연한 듯 제시하는 할루시네이션(환각) 문제 역시 본질적으로 해결되지 않았고, 추론 과정에서 오류를 범하기도 한다. 학습한 데이터의 시기가 한정적이라는 문제 또한 여전히 존재한다. GPT-4는 2021년 9월 이후로 발생한 사건에 대한 지식이 부족하다. 또한, 때로는 다양한 영역에서 추론적인 오류를 내거나 사용자의 명백한 거짓 진술을 쉽게 받아들일 수 있다. 이에 따라 생성한 코드에 보안 취약점을 도입하는 것과 같이 어려운 문제에 실패할 수 있다.

▲ 챗GPT 활용 범죄
챗GPT 기술이 나날이 발전하면서 악용 사례도 늘고 있다. 챗GPT는 강력한 자연어 처리 기술을 기반으로 하는 만큼, 악용 가능성도 얼마든지 있다. 실제로 해외에서는 챗GPT 기술과 관련된 범죄 사례가 이미 있고, 국내에서도 얼마든지 범죄가 발생할 가능성이 있을 것으로 보인다.
이러한 악용 사례에는 다음과 같은 것들이 있을 수 있다. 첫째로, 허위 정보 생성이다. 챗GPT를 악용하여 해킹 방법이나 악성 코드에 관한 정보를 얻을 수 있다. 직접적으로 해킹 방법이나 악성 코드를 묻지 않고, 우회적으로 대화를 반복하다 보면 챗GPT로부터 쉽게 관련 정보의 답을 얻게 된다. 또한, 챗GPT를 이용하여 스팸 메시지를 생성할 수도 있다. 챗GPT가 생성한 스팸 메시지는 이메일뿐만 아니라 문자 등 다양한 형태로 나타날 수 있다.
사용자의 개인정보를 유출하는 사건도 간혹 발생하곤 한다. 이는 사용자와 대화하는 과정에서 개인정보를 수집하거나 신상을 이용하여 사기를 시도하면서 문제가 발생한다. 마지막으로, 챗GPT가 광고 및 마케팅에 악용될 수도 있다. 챗GPT와 마케팅이 거리가 멀다고 생각하기 쉽지만, 대화하는 과정에서 광고를 삽입하는 일이 발생하기도 한다. 더불어 사용자의 개인정보를 분석하여 맞춤형 광고를 제공하는 등 다양한 방식으로도 나타날 수 있다.
한편, GPT-4가 인공지능 기준 위반으로 고발당하는 사건도 있었다. 지난 30일 IT매체 엔가젯은 인공지능 디지털 정책센터(CAIDP)가 연방거래위원회(FTC)에 오픈AI를 고발한 사실을 밝혔다. CAIDP는 “GPT-4와 같은 대규모 언어 모델은 FTC 법을 위반하며, 편향적이고 기만적이며 개인정보와 공공 안전에 위험을 가한다.”라고 주장했다. 또한, “해당 모델은 투명하고 공정하며 설명하기 쉬워야 한다는 AI의 기준을 위반한다”라고 말했다.
해당 사건으로 인해 CAIDP는 지침을 충족할 때까지 오픈AI의 출시 중단과 제품 출시 전 철저한 검토 과정을 거치기를 요구하고 있다. 이는 전체적인 AI 산업에 영향을 미치기에 빠른 속도로 개발되고 있는 AI 시장의 성장을 늦출 수도 있다.
챗봇과 같은 대화형 인터페이스는 우리의 일상생활에 점점 더 많은 영향을 미치고 있다. 따라서 이에 따라 생겨나는 윤리적 문제들에 관심을 가지고, 문제를 최소화하기 위해 노력해야 한다.
사진 출처
https://www.businesspost.co.kr/BP?command=article_view&num=309041
https://www.donga.com/news/Inter/article/all/20230315/118351424/1
https://vtecon.com/news/120617/
관련 기사 바로가기
- 인공지능 ‘챗GPT’ 열풍
http://kgukubooki.cafe24.com/series/?mod=document&pageid=1&keyword=%EC%B1%97&uid=478

전체 0
댓글을 남기려면 로그인하세요.