모든 경우에 적용되는 일률적인 AI 가드레일은 기업에서 작동하지 않습니다.
ChatGPT와 같은 AI 도구의 경우 실제 과제는 무엇을 할 수 있는지가 아니라 무엇을 말해야 하는지입니다.
유해한 콘텐츠에 대한 우려는 어디에나 있지만 더 어려운 질문은 “유해한”이 실제로 무엇을 의미하는지 누가 결정하고 누가 이를 볼 수 있는지입니다.
보안 필터의 한계
세간의 이목을 끄는 사례는 AI 도구가 잘못되면 어떤 일이 일어나는지 보여주었습니다. ChatGPT가 십대들에게 자살을 권유했다는 보고로 인해 주요 제공업체에서는 자살 및 자해와 같은 주제를 단속해야 했습니다. 이로 인해 광범위한 자녀 보호 및 장벽이 생겼습니다.
그러나 실제로 이러한 난간은 종종 서투른 단일 크기 접근 방식을 취했습니다. 연령, 경험, 상황에 관계없이 모든 사용자에게 동일한 규칙이 적용됩니다. 그래서 우리는 어른을 아이처럼 대하고, 아이를 어른처럼 대하는 답답한 상황에 빠지게 됩니다.
기업에는 뉘앙스가 필요하다
직장 내에서는 이 문제가 더욱 복잡해집니다. 마케팅 인턴, 규정 준수 담당자, CFO는 모두 동일한 AI 시스템에 도움을 요청할 수 있습니다. 그러나 그들이 보아야 할 것의 민감도는 극적으로 다를 수 있습니다.
규정 준수 담당자는 내부자 거래에 대한 규제 지침을 참조해야 할 수도 있습니다. 이와 동일한 정보가 하급 직원의 손에 들어가면 위험할 수 있습니다.
개발자는 IT 문서에 대한 심층적인 액세스가 필요할 수 있지만 비즈니스 사용자는 일상적인 프롬프트로 시스템 비밀을 노출할 수 없어야 합니다.
기업은 모든 사람을 동일하게 대하는 소비자 스타일의 콘텐츠 필터에 의존할 수 없습니다. 역할, 책임, 법적 경계를 인식하는 AI 시스템이 필요합니다.
Enter: 개인 기반 액세스 제어
모든 사람에 대해 전체 주제를 차단하는 포괄적인 제한 대신 기업은 다양한 사용자가 볼 수 있어야 하는 지식을 반영하는 개인 기반 액세스 제어(PBAC)를 적용할 수 있습니다.
PBAC를 준수하는 AI 시스템은 질문하는 사람과 그들이 알도록 승인된 내용을 기반으로 응답을 맞춤화합니다. 동일한 메시지라도 사용자의 부서, 권한 수준, 현재 프로젝트에 따라 다른 응답이 나올 수 있습니다.
이는 사이버 보안의 역할 기반 액세스 제어(RBAC)처럼 들릴 수 있지만 RBAC는 다음 질문에 답합니다. 이 역할은 어떤 시스템과 파일에 액세스할 수 있습니까? PBAC 답변: 이 특정 맥락에서 이 사람은 어떤 지식을 보아야 하며 무엇을 필터링해야 합니까?
예를 들어, RBAC를 사용하면 HR 관리자와 HR 소프트웨어 분석가 모두 자신의 역할에 따라 동일한 직원 기록 시스템에 액세스할 수 있습니다. 각 사람이 AI 비서에게 “지난 6개월 동안의 결근 추세를 요약해 주세요”라는 동일한 프롬프트를 요청하면 RBAC 제어에만 의존하는 AI 시스템은 두 사용자 모두에게 동일한 응답을 반환합니다.
여기에는 특정 직원의 결근, 해고 이유, 심지어 기본 기록이 적절하게 삭제되지 않은 경우 삽입된 의료 기록과 같은 민감한 세부 정보가 포함될 수 있습니다.
두 기능 모두 기술적으로 시스템에 액세스할 수 있지만 종료 시 예기치 않게 PHI(보호 건강 정보)가 노출되어 잠재적인 규정 준수 위험이 발생할 수 있습니다.
다른 캐릭터
PBAC를 사용하면 AI 도우미가 각 사용자의 페르소나에 맞게 응답을 맞춤화합니다.
페르소나에 직원 관리뿐 아니라 복지에 대한 책임도 포함될 수 있는 HR 리더의 경우 AI 도우미는 “지역 A는 주로 고객 대면 역할 중에서 병가가 17% 증가했으며 스트레스 관련 결근이 가장 일반적인 범주입니다.”와 같은 익명이지만 자세한 요약을 제공합니다.
성과 지표에 초점을 맞춘 데이터 분석가를 위해 AI 도우미는 의료적 또는 개인적 맥락 없이 최상위 추세 보고서를 생성합니다. “결근은 분기 대비 7% 증가했으며 운영 부서에서 가장 큰 증가가 발생했습니다.”
두 사용자 모두 동일한 질문을 했지만 PBAC는 각 사용자가 자신의 역할에 적합한 정보와 알아야 할 컨텍스트만 수신하도록 보장합니다.
몇몇 인터넷 보안 공급업체에서는 이미 이 접근 방식을 테스트하고 있습니다. 이는 대규모 언어 모델과 최종 사용자 사이에 위치하여 기업의 보안, 개인 정보 보호 및 규정 준수 요구 사항에 맞는 정책을 시행합니다.
시스템은 콘텐츠 방화벽이 되어 독성뿐만 아니라 각 사용자의 페르소나를 기반으로 과도한 상업적 위험을 초래할 수 있는 주제도 필터링합니다.
콘텐츠 조정을 넘어 거버넌스를 향해
PBAC는 더 나은 AI 거버넌스를 위한 기반을 마련합니다. 모델의 출력이 필터링되거나 차단되면 시스템은 이유를 문서화하고 어떤 콘텐츠가 어떤 정책에 따라 누구에게 제한되었는지 보여주는 감사 추적을 제공할 수 있습니다.
EU AI Act 및 NIST AI 위험 관리 프레임워크와 같은 AI 규정이 기업을 투명하고 추적 가능한 거버넌스로 이끌기 때문에 이러한 감사 가능성은 매우 중요합니다.
인공 지능 도입으로 인해 발생하는 비즈니스 위험을 관리하려면 기업은 기존의 강압적인 콘텐츠 조정 도구에서 좀 더 미묘하고 상황을 더 잘 인식하며 기업이 이미 액세스 제어에 대해 생각하는 방식과 더 일치하는 도구로 전환해야 합니다.
즉, AI 거버넌스의 미래는 자녀 보호보다는 사이버 보안과 훨씬 더 비슷해 보일 것입니다.
결론
AI가 비즈니스 워크플로에 통합됨에 따라 소비자 품질 가드레일만으로는 더 이상 충분하지 않습니다. 지나치게 제한적이고 포괄적인 통제는 혁신을 저해하고 합법적인 업무를 방해하는 반면, 느슨하거나 존재하지 않는 보호 장치는 규제 및 평판 위험을 초래합니다.
기업에는 사용자가 누구인지, 사용자가 볼 수 있는 내용은 무엇인지, 문제가 발생할 경우 발생할 수 있는 결과를 이해하는 접근 방식이 필요합니다.
개인 기반 액세스 제어는 다음 단계입니다. 이는 엔터프라이즈 AI가 요구하는 미묘한 차이와 맥락을 제공하여 이러한 강력한 도구가 안전하고 유용하며 비즈니스 목표에 부합하도록 보장합니다.
이러한 정렬을 정의하고 문서화하는 것은 AI 거버넌스의 차세대 개척지입니다. 여기서 보안은 임의의 검열이 아닌 체계적이고 잘 정의된 알 필요가 있는 정책에 따라 결정됩니다.
우리는 최고의 ID 관리 솔루션을 평가했습니다..
이 기사는 TechRadarPro의 Expert Insights 채널의 일부로 제작되었으며, 오늘날 기술 업계에서 가장 뛰어난 인재들을 소개합니다. 여기에 표현된 견해는 저자의 견해이며 반드시 TechRadarPro 또는 Future plc의 견해는 아닙니다. 협업에 관심이 있다면 여기에서 자세히 알아보세요.
