시사>IT/과학

"AI 모델 내부 구조 뜯어보자"…AI 추출·증류 공격 증가

연합뉴스입력
구글 위협정보그룹·딥마인드, 생성형 AI 해킹 위협 분석
인공지능 (PG)[박은주 제작] 사진합성·일러스트

(서울=연합뉴스) 조성미 기자 = 인공지능(AI) 활용이 일상화되는 가운데 AI 모델의 추론과 사고 과정을 알아내려는 사이버 공격이 시도되는 것으로 파악됐다.

구글 위협정보그룹(GTIG)과 구글 딥마인드가 지난해 4분기 최신 AI 위협 동향을 분석해 13일 발표한 'AI 위협 추적 보고서'에 따르면 생성형 AI를 대상으로 모델 추출 및 증류 공격을 시도하는 위협 행위가 확인됐다.

이러한 공격은 AI 모델의 기본 추론 및 사고 과정을 알아내기 위한 것으로 AI 모델이 해킹돼 공격자 의도대로 동작할 경우 혼란이 일 수 있다.

다만, 아직은 사이버 위협 목적의 모델 추출·증류 공격보다는 주로 AI 모델의 논리를 복제해 도용하려는 글로벌 민간 기업과 학술 연구자들에 의해 일어난 것으로 분석됐다.

주된 표적이 된 것은 구글 제미나이 모델이었다.

또, 중국·러시아 등 국가 지원을 받는 사이버 공격자들이 위협 행위 전반에 AI를 도입하는 현상이 일상화되고 있다.

이란 정부의 지원을 받는 해킹 조직 APT42는 표적 맞춤형 소셜 엔지니어링(사람의 심리와 실수를 이용해 기밀 정보를 탈취하거나 특정 행동을 유도하는 비기술적 침입 방식) 기법을 강화하기 위해 AI 모델을 활용했다.

북한 정부의 지원을 받는 해커 그룹 UNC2970은 채용 담당자를 사칭해 방위 산업체에 대한 집중 공격을 수행한 바 있다. 이들도 제미나이를 활용해 공격 계획 수립과 정찰 활동을 했다.

구글이 영어권 및 러시아어권 다크웹 등 사이버 범죄 커뮤니티를 관찰한 결과 위협 행위자들은 독자적인 맞춤형 모델을 직접 개발하기 어렵다 보니 출시된 완성도 높은 AI 모델에 의존하는 경향이 발견됐다.

보고서는 "공격자들의 API(애플리케이션 활용 경로) 키 탈취 및 도용이 급증하는 것은 이러한 현상을 시사한다"고 분석했다.

csm@yna.co.kr

(끝)

<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>


댓글 0

권리침해, 욕설, 특정 대상을 비하하는 내용, 청소년에게 유해한 내용 등을 게시할 경우 운영 정책과 이용 약관 및 관련 법률에 의하여 제재될 수 있습니다.

권리침해, 욕설, 특정 대상을 비하하는 내용, 청소년에게 유해한 내용 등을 게시할 경우 운영 정책과 이용 약관 및 관련 법률에 의하여 제재될 수 있습니다.

인기순|최신순|불타는 댓글|