글로벌 보안 업체 넷엔리치 위협연구팀
"텔레그램 통해 '사기(Fraud)GPT'란 AI 도구 유포"
월 200달러에 피싱 메일 작성 도와줘
'챗GPT'와 같은 생성형 인공지능(AI)이 해커들의 '공격 도구'로 악용되고 있다. 생성형 AI의 도움으로 전문 지식이 부족한 공격자도 쉽게 해킹을 할 수 있어 사이버 범죄가 더 많이 일어날 수 있다는 우려가 나온다.
18일 글로벌 보안업체 넷엔리치 위협연구팀은 사회관계망서비스(SNS) 텔레그램을 통해 '사기(Fraud)GPT'란 AI 도구가 유포되고 있다고 밝혔다. 사기GPT는 스피어 피싱(spear phishing:지인이나 회사에서 보내는 이메일처럼 위장한 공격)이나 해킹 도구 작성 등 사이버 공격을 돕도록 짜인 생성형 AI 프로그램이다. 어려운 악성 코드를 작성해 주거나 사기 이메일을 쓰고 해킹 방법 등을 알려준다.
사기 GPT를 만든 것으로 추정되는 캐네디언킹핀12(canadiankingpin12)그룹은 "수준 높은 스피어 피싱 메일을 작성할 수 있다"면서 "사기에 관한 원스톱 쇼핑을 하라"고 홍보하고 있다. 현재 다크웹 시장과 텔레그램 플랫폼에서 월 200~1,700달러에 팔리는 것으로 파악됐다.
생성형 AI를 사이버 범죄에 활용하는 사례는 늘어나는 추세다. 지난달에도 보안기업 슬래시넥스트가 피싱 이메일 공격을 도와주는 범죄 도구인 '웜GPT'를 발견했다. 웜GPT는 챗GPT처럼 챗봇 형태였다. 하지만 다른 생성형 AI와 달리 악의적 요청에 응답하지 못하도록 제한하는 윤리보호 장치 등을 모두 없앴다. 정부 부처나 특정 회사에서 보내는 이메일로 위장 공격을 하는 것을 쉽게 하도록 만든 것이다.
보안 업계는 생성형 AI가 '양날의 검'이라고 본다. 개인·기밀 정보가 빠져나가고 악성코드나 피싱메일을 보다 쉽게 개발할 수 있는 등 위협 요인이 커지는 동시에 이를 방어할 기술도 생성 AI가 빨리 찾아낼 수 있기 때문이다. 보안업계 관계자는 "생성형 AI가 고도화된 사이버 공격을 하기는 어렵지만 낮은 수준의 대규모 공격은 많아질 수 있다"면서 "아직 한국에선 생성형 AI를 이용한 해킹 범죄가 보고되지 않았지만 위협이 있는 만큼 대비가 필요하다"고 지적했다.
기사 URL이 복사되었습니다.
댓글0