새로운 패러다임: AI에 데이터가 집중되면 더 큰 경계가 필요합니다
1980년대는 오늘날의 삶과는 거리가 멀었습니다. 주변에 없었다면 종이 지도를 사용하여 길을 찾거나, 블록버스터에서 VHS 영화를 대여하거나, 영화 스틸을 인쇄하거나, 유선 전화로 사람들에게 전화를 걸었던 것을 기억하지 못할 것입니다.
당시에는 사이버 보안이 중요했다는 사실도 모를 수도 있지만, 그것조차 오늘날과는 매우 달라 보였습니다. 초기 해커(예, 저도 그 중 하나였습니다)는 호기심과 시스템 한계를 테스트하는 스릴에 의해 동기를 부여받았습니다. 대규모 사이버 범죄나 광범위한 위협에 대한 우려는 거의 없었습니다.
DataKrypto의 창립자이자 CTO.
오늘날 위험은 극적으로 높아졌습니다. 데이터는 모든 조직의 가장 중요한 보물이 되었으며 가장 야심찬 사이버 범죄자들의 중요한 표적이 되었습니다. 따라서 데이터 보호는 모든 기업 CISO의 마음이자 정신이며 모든 보안 팀의 최우선 순위입니다.
위협 모니터링, 방어 및 대응을 담당하는 이들 팀은 오늘날 인공 지능(AI)의 급속한 도입으로 디지털 공격 표면이 빠른 속도로 확장됨에 따라 전례 없는 과제에 직면해 있습니다.
사일로에서 통합까지: AI와 새로운 데이터 집중
과거에는 비즈니스 데이터가 여러 시스템과 사일로에 분산되어 있었습니다. 이로 인해 운영상의 비효율성이 발생하는 동시에 공격자가 Fort Knox에서 엄청난 양의 금을 이동하는 물류 문제와 같이 귀중한 데이터 세트를 찾고, 액세스하고, 마이닝하기 위해 더 열심히 노력해야 했기 때문에 자연스러운 방어 계층도 제공했습니다.
AI는 이 모델을 뒤집어 놓았습니다. 교육 및 추론을 수행하려면 대용량 데이터를 소형의 휴대 가능한 모델로 통합하고 정제해야 합니다. 이제 공격자는 분산된 시스템의 조각을 하나로 엮는 대신 표적화하고 침투하기가 훨씬 쉬운 민감한 정보가 집중된 저장소에 직면하게 됩니다.
내장된 보안 기능이 거의 없는 AI는 데이터를 “밝은 곳에” 노출시켜 방어자의 임무를 Fort Knox를 보호하는 것이 아니라 다이아몬드 가방을 보호하는 것과 더 유사하게 만듭니다. 즉, 더 작고, 더 밀도가 높으며, 훨씬 쉽게 훔칠 수 있습니다.
이 시나리오는 AI를 사용하는 기업이 데이터 침해 위험이 훨씬 더 높아 재정적, 평판이 손상되고 규정 준수 실패로 이어지는 이유를 보여줍니다.
실제로 연구에 따르면 기업의 4분의 3 이상이 우발적인 데이터 유출부터 훈련 데이터 세트의 고의적인 중독에 이르기까지 AI 관련 침해를 경험했으며, 이로 인해 일반 데이터 보호 규정(GDPR), 건강 보험 이동성 및 책임법(HIPAA), 캘리포니아 소비자 개인 정보 보호법(CCPA)과 같은 규제 프레임워크를 준수하려는 노력이 위태로워졌습니다.
적절한 보호 장치가 없으면 AI 사용에 따른 위험은 명백하며 기업이 AI 투자의 전체 가치를 얻지 못하고 있다는 최근 MIT 보고서에서 확인된 문제에 기여할 수 있습니다.
위험이 너무 높으면 기업은 AI 사용을 제한하고 있으며, 이로 인해 매우 복잡한 문제에 대한 혁신적인 솔루션을 만드는 능력도 제한됩니다.
AI와 관련하여 전통적인 데이터 보안 방법으로는 더 이상 충분하지 않습니다.
새로운 접근 방식: 지속적인 암호화
기존 암호화는 저장 중인 데이터와 전송 중인 데이터(네트워크를 통해 이동할 때)를 보호하는 데 중점을 둡니다. 그러나 AI 시대에 가장 위험한 격차는 사용 중인 데이터에 있습니다. 처리를 위해 데이터가 메모리에 로드되는 순간, 암호를 해독하거나 “깨끗하게” 남겨두어야 하는 순간입니다.
지속적인 암호화가 필수가 되는 곳입니다. 저장 및 전송부터 활성 컴퓨팅에 이르기까지 수명주기 전반에 걸쳐 암호화를 유지함으로써 민감한 정보는 항상 보호됩니다. 훈련이나 추론 중에도 데이터가 해독되거나 무단 액세스에 취약해지지 않습니다.
이를 가능하게 하는 두 가지 중요한 기술은 다음과 같습니다.
- FHE(완전 동형 암호화) – 암호화된 데이터에 대해 직접 계산을 허용하여 원시 값을 해독할 필요가 없도록 보장합니다.
- TEE(신뢰할 수 있는 실행 환경)를 통한 기밀 컴퓨팅: 시스템 관리자나 클라우드 공급자도 액세스할 수 없는 격리되고 보호된 메모리에서 임시 작업이 발생하는 안전한 엔클레이브를 제공합니다.
이러한 기술이 결합되어 AI 공급업체나 악의적인 행위자가 보안 영역 외부에서 입력, 출력 또는 모델을 재구성할 수 없는 “영지식” 환경을 만듭니다. 결과적으로 오픈 소스 맞춤형 LLM과 AI 소유자 모두 완벽하게 보호되는 동시에 민감한 데이터의 개인정보 보호와 보안도 보장됩니다.
이러한 지식 없는 AI 환경은 승인된 생성 AI 도구와 승인되지 않은 생성 AI 도구를 사용하는 직원의 민감한 정보의 의도치 않은 유출을 포함하여 여러 가지 중요한 데이터 노출 위험을 방지합니다.
새로운 의무: 사용 사례 전반에 걸친 엔드투엔드 보호
보안 팀의 경우 지속적인 암호화는 중요한 데이터와 이에 대해 훈련된 모델을 모두 보호하는 실용적인 방법을 제공합니다. 이 접근 방식은 새로운 의무를 도입합니다. 보호는 저장 및 전송을 넘어 AI 수명주기의 모든 데이터 사용 단계를 포괄해야 합니다. 산업 및 사용 사례 전반에 걸친 이점은 강력합니다.
- 의료: 개인 건강 정보가 노출될 위험 없이 환자 기록을 분석하여 예측 통찰력을 얻을 수 있습니다.
- 금융 서비스: 개인정보 보호나 규정 준수를 침해하지 않고 암호화된 고객 데이터에 대해 사기 탐지 및 위험 평가 모델을 실행할 수 있습니다.
- 공공 부문 및 중요 인프라: 기관은 분석 프로세스 전반에 걸쳐 중요한 정보가 보호된다는 사실을 알고 안전하게 인텔리전스를 공유할 수 있습니다.
- 소매 및 소비자 서비스: 소매업체는 AI를 활용하여 쇼핑 경험과 충성도 프로그램을 개인화하는 동시에 고객의 구매 내역과 개인 데이터를 보호할 수 있습니다.
- 통신 및 클라우드: 공급자는 고객 데이터 노출 위험 없이 네트워크를 최적화하고 안전한 멀티 테넌트 AI 서비스를 제공할 수 있습니다.
각 경우에 암호화는 모델이 도난당하거나 환경이 손상되더라도 권한이 없는 사람이 중요한 데이터에 액세스할 수 없도록 보장합니다.
안전과 혁신의 조화
AI의 부상으로 인해 보안이나 규정 준수가 희생될 필요는 없습니다. 지속적인 암호화를 통해 조직은 기밀성, 무결성 및 규정 준수를 유지하면서 AI의 기능을 활용할 수 있습니다.
이 엔드투엔드 데이터 보호 방법은 조직이 AI에서 가장 중요한 보안 격차를 해소하여 노출에 대한 두려움 없이 혁신할 수 있다는 자신감을 제공할 수 있음을 의미합니다.
우리는 최고의 엔드포인트 보호 소프트웨어를 선보였습니다.
이 기사는 TechRadarPro의 Expert Insights 채널의 일부로 제작되었으며, 오늘날 기술 업계에서 가장 뛰어난 인재들을 소개합니다. 여기에 표현된 견해는 저자의 견해이며 반드시 TechRadarPro 또는 Future plc의 견해는 아닙니다. 협업에 관심이 있다면 여기에서 자세히 알아보세요.
