
첫 번째, 월스트리트저널 보도 내용입니다.
미국 월스트리트저널이 직접 테스트를 실시한 결과, 중국 딥시크의 생성형 AI 모델 R1이 다른 모델보다 유해·위험 가이드라인을 뚫는 탈옥 공격에 취약한 것으로 밝혀졌습니다. 테스트는 멀웨어 코드가 포함된 피싱 이메일 작성, 생체무기 공격 지침 제공, 히틀러 옹호 선언문 작성 등이 진행됐으며, 악용 가능성과 유해 및 허위정보 생성 등에 노출된 것으로 드러났습니다. 미국 앤트로픽은 딥시크의 AI가 생체무기 안전성 테스트에서 최악의 성적을 기록했다고 발표했습니다.
두 번째, 보안뉴스 보도 내용입니다.
챗GPT나 딥시크와 같은 거대언어모델, 약자로 LLM을 대상으로 한 사이버 공격이 빈번해지면서 사용자들의 금전적 손실이 급증하고 있습니다. 특히 LLM의 API 접근 권한을 훔치는 LLM 재킹 공격이 확산되며 오픈AI, 구글, 미스트럴 등의 LLM 모델 API 키가 악용되고 있습니다. 피해자들은 대략 4.5일 동안 약 5만 달러의 피해를 입는 것으로 나타났으며, 기업 내부 데이터 및 지식재산의 무단 유출도 보고되어 피해가 점차 증가하고 있습니다.
세 번째, 보안뉴스 보도 내용입니다.
국가정보원이 사이버 위협에 효율적으로 대응하기 위해 범국가 사이버안보 협력체와 방산·보안 등 기업 109개, 공공기관 등이 참여하는 사이버 파트너스 간담회를 개최했습니다. 윤오준 국가정보원 3차장의 주재로 진행된 이번 간담회에서는 AI와 우주 분야 등 첨단 분야에서 발생하는 사이버 위협 및 기술 유출에 대한 민관 협력을 통한 대응 방안을 논의했습니다.

상담센터(1544-8080)