AI가 사회 공학을 강화하는 방법과 기업이 이에 대해 할 수 있는 일
인공 지능은 사이버 범죄자가 인간의 행동을 조작하는 방식을 변화시키고 있습니다.
어색한 문구, 일반적인 인사말, 서투른 형식 등 한때 눈에 띄지 않았던 피싱 이메일의 징후는 훌륭한 언어 모델이 생성한 세련된 상황 인식 메시지로 대체되고 있습니다.
Deepfake 기술은 이제 CEO의 목소리를 복제하여 몇 분 만에 매력적인 비디오 메시지를 생성할 수 있습니다. 이 기술은 이미 수천만 달러 규모의 조직을 사취하는 데 사용되고 있습니다.
LevelBlue의 사회 공학 및 인간 요소 보고서에 따르면 조직의 59%는 직원이 실제 상호 작용과 가짜 상호 작용을 구별하기가 더 어렵다고 말합니다.
LevelBlue SpiderLabs의 보안 연구 관리자.
한편, 공격자들은 점점 더 AI 기반 사회 공학을 공급망 침해, 자격 증명 도용, 자동 인식과 결합하고 있습니다.
이러한 벡터는 사회 공학을 사람 문제에서 시스템적인 비즈니스 위험으로 변화시키고 있습니다.
커져가는 공허함
인식과 행동 사이의 격차는 더욱 커지고 있습니다. 기술적 통제가 계속 발전하고 있지만 인간의 행동은 여전히 가장 많이 악용되는 취약점으로 남아 있습니다.
결국 사람보다 컴퓨터 시스템을 패치하는 것이 더 쉽습니다. 공격자들은 시스템을 해킹하는 것보다 사람을 속이는 것이 더 쉽다는 사실을 배웠으며, AI는 두 가지 모두를 수행할 수 있는 속도와 정확성을 제공합니다.
AI의 새로운 전술적 이점
동적 벡터 변경: 위협 행위자는 무해한 이메일로 시작하여 참여(열기, 클릭)를 측정한 다음 동일한 스레드 내에서 피벗하여 음성 또는 비디오 페이로드를 전달할 수 있습니다. 이러한 민첩성은 정적 인식 훈련의 효과를 떨어뜨립니다.
스케일 캐릭터 생성: 공격자는 소셜 네트워크와 침해 덤프에서 집계된 데이터를 사용하여 이름, 역할, 목소리 톤이 포함된 신뢰할 수 있는 디지털 페르소나를 만들고 이를 사용하여 조직에 침투할 수 있습니다.
딥페이크 에스컬레이션: 대화 중에 AI가 생성한 오디오나 비디오를 삽입할 수 있습니다. “죄송합니다. 전화기를 다른 방에 두고 왔습니다. 이 회선으로 전화해 주세요.” 또는 “업데이트된 은행 송금 지침은 다음과 같습니다.” 익숙한 목소리나 얼굴이 익숙하면 직원들은 경계심을 늦출 수 있습니다.
적의 선동과 빠른 연결: 공격자는 생성 AI 프롬프트를 반복적으로 개선합니다. “더 격식 있게 들리게 만드세요” 또는 “분기별 성과에 대한 내용을 포함하세요.” 반복할 때마다 메시지가 더욱 믿을 만하고 목표가 명확해집니다.
이러한 기술은 디지털 통신에서 “정상”으로 보이는 것을 흐리게 만듭니다. 노련한 보안 전문가라도 진짜와 가짜 사이에 선을 긋는 것이 어렵다는 것을 알 수 있습니다.
인간이 여전히 경첩인 이유
이메일 필터, 제로 트러스트 아키텍처, 이상 탐지와 같은 기술적 방어는 여전히 필수적이지만 AI 지원 공격은 코드가 아닌 판단을 이용합니다. 모든 소셜 엔지니어링 캠페인은 궁극적으로 클릭, 공유, 승인 또는 승인에 대한 인간의 결정에 달려 있습니다.
복원력이 뛰어난 조직은 진정한 보안에는 시스템 잠금과 워크플로에 대한 판단 구축이 모두 포함된다는 점을 이해합니다. 그렇다면 어떻게 균형을 맞추나요?
1. AI에 대한 경영진의 의지와 인식
AI 기반 사회 공학은 기업에 대한 심각한 위협으로 간주되어야 합니다. 경영진, 엔지니어링 리더 및 DevOps 팀은 AI가 API, 고객 여정 또는 내부 프로세스를 어떻게 추진할 수 있는지에 대한 가시성이 필요합니다.
이사회가 확장성 및 규정 준수와 함께 AI 위험을 거버넌스에 통합하면 기술에 대한 투자에 맞춰 사람에 대한 투자도 늘어납니다.
2. AI 공격 체인 시뮬레이션
연간 낚시 테스트는 더 이상 현재의 위협 환경을 반영하지 않습니다. 현대의 레드팀 훈련은 AI로 강화된 공격(동일한 시뮬레이션 내에서 이메일 연결, 음성 프롬프트 및 심층 위조)을 복제해야 합니다.
사용자가 변칙을 발견한 시기, 점점 커지는 속임수에 어떻게 대응하는지 등의 데이터 포인트를 추적하세요. 이는 더 많은 교육이나 프로세스 강화가 필요한 부분을 식별하는 데 도움이 됩니다.
3. 인간 필터를 이용한 레이어별 AI 탐지
조직은 딥페이크, 음성 변칙, 행동 분석 등 AI 기반 탐지 엔진을 구조화된 인간 검증과 결합해야 합니다.
의심스러운 콘텐츠는 질문 응답 확인 또는 대역 외 확인을 트리거해야 합니다. AI는 이상 징후를 감지할 수 있지만 인간은 상황과 의도를 제공합니다. 이들은 함께 폐쇄형 방어 루프를 형성합니다.
4. 외부 벤치마킹 및 진화 교육
위협 행위자는 지속적으로 혁신하고 있으며 방어도 이와 동일하게 수행해야 합니다. 정기적인 “서비스로서의 레드 팀” 평가를 위해 사이버 보안 전문가와 협력하면 사각지대를 식별하고 새로운 AI 전술을 기반으로 한 교육을 업데이트하는 데 도움이 됩니다.
실시간 위협 데이터로 분기별로 업데이트되는 지속적인 모듈식 학습을 통해 팀은 작년의 플레이북 대신 최신 기술을 계속 사용할 수 있습니다.
AI 시대의 인간 회복력 구축
생성 AI는 실제와 인공 사이의 경계를 모호하게 만들었지만 인간 판단의 중요성도 재확인했습니다. 기술은 이상 현상을 보여줄 수 있지만, 믿을 것인지, 검증할 것인지, 행동할 것인지는 오직 사람만이 결정할 수 있습니다.
앞서 나갈 조직은 AI 기반 방어와 호기심, 검증 및 비판적 사고를 장려하는 문화의 결합이라는 상호 작용을 인식하는 조직입니다.
사이버 보안은 기술과의 경쟁 그 이상입니다. 인간의 핵심 요소를 강화하는 경주입니다.
우리는 최고의 보안 이메일 제공업체를 나열했습니다..
이 기사는 TechRadarPro의 Expert Insights 채널의 일부로 제작되었으며, 오늘날 기술 업계에서 가장 뛰어난 인재들을 소개합니다. 여기에 표현된 견해는 저자의 견해이며 반드시 TechRadarPro 또는 Future plc의 견해는 아닙니다. 협업에 관심이 있다면 여기에서 자세히 알아보세요.
