챗GPT 등 대화형 인공지능(AI) 서비스가 사이버 범죄에 악용될 가능성이 있다는 지적이 나왔다.
우선 GPT-3와 같은 대화형 AI 모델은 사람처럼 글을 쓰고 응답할 수 있어 스팸 메시지나 사기 문자, 협박 메시지 가짜뉴스 등을 생성하는 데 사용될 수 있다. 또 대화형 AI는 텍스트를 분석해 이름, 전화번호, 이메일 주소 등과 같은 개인정보를 추출·수집을 용이할 수 있게 한다는 것도 문제가 될 수 있다. 이같이 AI 기술이 발전하면서 이를 악용하려는 시도가 증가할 것으로 보여 다양한 사이버 위협을 방지하기 위한 제도적 대책 마련이 시급한 상황이다.
백서에는 국가 차원에서 AI 기술의 개발과 적용에 대한 법적 규제와 지침 등을 마련하고, 개인정보보호와 같은 사용자 보호에 대한 법적 책임과 교육을 강화할 필요가 있다는 내용이 담겼다. 아울러 이용자들도 AI 서비스의 위협에 대해 올바르게 인식하고 대비하며, 윤리적으로 사용하는 법을 배워야 한다는 점이 강조됐다.
강우진 기자 kwj1222@sportschosun.com