AI 시대 데이터 보안의 세 가지 원칙
최근 글로벌 AI 동향에 대한 S&P 보고서에서 70%에 가까운 응답자가 한 건 이상의 AI 프로젝트를 제작 중이라고 답할 만큼 AI의 유행과 도입에 대한 관심은 역대 최고 수준입니다. AI의 전망은 비즈니스 운영을 근본적으로 개편하는 동시에 새로운 리스크 벡터를 생성하고, 범죄 목적을 가진 개인에게 문을 열어주기도 하지만, 대부분의 기업은 이에 대한 완화 장치를 갖추고 있지 않습니다.
지난 6개월간 세 개의 보고서(S&P Global의 2023 AI 글로벌 동향 보고서, Foundry의 2023 AI 우선순위 연구, Forrester의 보고서: 생성형 AI 도입의 가장 큰 장벽은 보안 및 개인 정보 보호 우려)에서 얻은 공통적인 연구 결과에 따르면, 생성형 AI 도입과 구현을 모색 중인 조직에 데이터 보안은 가장 큰 문제이자 장벽인 것으로 드러났습니다. AI 구현에 대한 관심이 급증하면서 조직이 클라우드 환경 전체에 저장하고 있는 데이터의 양 또한 증가하는 직접적인 영향으로 이어졌습니다. 당연하게도, 일반적으로 다양한 지리적 관할권에 걸쳐 있는 다양한 클라우드 아키텍처 전반에서 저장, 액세스 및 처리되는 데이터가 많아질수록 보안 및 개인 정보 보호 위험도 더 커집니다.
조직이 적절한 보호 장치를 마련하지 않을 경우 즉각적으로 사이버 범죄자의 주요 표적이 될 것이며, Unit 42® 2024 인시던트 대응 보고서에 따르면, 해당 공격자의 45%는 점점 더 속도를 높이며 침해 후 데이터를 유출한 지 하루도 지나지 않아 데이터를 탈취하는 것으로 알려졌습니다. 데이터가 생명이라 할 수 있는 새로운 "AI 시대"에 접어들면서, 데이터 보안을 이해하고 이에 대한 우선순위를 두는 조직은 미래에 미치는 영향에 대한 두려움 없이 AI가 제공하는 모든 것을 안전하게 추구할 수 있는 중요한 위치를 점할 것입니다.
효과적인 데이터 보안 프로그램을 위한 기반 형성
새로운 AI 시대를 위한 효과적인 데이터 보안 프로그램은 다음 세 가지 원칙으로 나눌 수 있습니다.
AI에 대한 보안: 데이터, 파이프라인, 모델 출력 등 모든 AI 구축은 개별적으로 보호할 수 없습니다. 보안 프로그램은 AI 시스템이 사용되는 컨텍스트와 이들이 민감한 데이터 노출, 효과적인 액세스, 정기적인 규정 준수에 미치는 영향을 고려해야 합니다.
AI 모델에 대한 자체적인 보안은 AI 파이프라인 전체에 걸쳐 모델 리스크, 과도한 권한 액세스, 데이터 흐름 위반을 식별하는 것을 의미합니다.
AI로부터의 보안: 대부분의 신기술과 마찬가지로 인공 지능은 양날의 검입니다. 점점 더 많은 사이버 범죄자가 대규모 공격의 생성과 실행을 위해 AI로 전환하고 있습니다. 현재 공격자들은 생성형 AI를 활용하여 악성 소프트웨어를 생성하고, 감쪽같은 피싱 이메일을 작성하고, 딥페이크를 통해 온라인으로 허위 정보를 유포하고 있습니다. 공격자가 생성형 AI 도구와 대규모 언어 모델 자체를 침해할 수 있는 가능성도 있습니다. 이는 곧 데이터 유출 또는 영향을 받은 도구로 인한 결과 포이즈닝으로 이어지게 됩니다.
AI를 사용한 보안: AI는 어떻게 방어 전략의 필수 요소가 될 수 있을까요? AI를 방어용 기술에 도입하면 방어자가 사이버 공격을 예측, 추적하고 차단할 수 있는 전례 없는 수준의 가능성이 열립니다. AI는 위협을 선별하고 가장 중대한 것이 무엇인지 우선순위를 정할 수 있는 원활한 방법을 제공하며 보안 애널리스트의 시간을 절감해 줍니다. 또한 AI는 패턴 인식에 특히 효과적이기 때문에 랜섬웨어와 같이 반복적인 공격망을 따르는 위협을 조기에 차단할 수 있습니다.
위 세 가지 데이터 보안 원칙에 집중하면 조직은 기업을 위험에 노출시킨다는 두려움 없이 안심하고 AI를 탐색하고 이를 통해 혁신할 수 있습니다.