새로운 연구는 프로그래밍과 사이버 보안에서 AI의 양면성을 강조합니다

최근 학술 연구에서는 프로그래밍 및 사이버 보안 분야에서 고급 인공 지능 모델, 특히 OpenAI의 GPT-4의 몇 가지 설득력 있는 기능을 조명했습니다.

미국 대학 팀이 수행한 이 연구는 이러한 AI 도구가 사이버 보안 방어를 지원하고 반대로 사이버 공격을 촉진할 수 있는 잠재력을 강조합니다.

해킹 chatgpt

취약점을 악용하는 AI의 잠재력

연구의 초점은 GPT-4를 포함한 다양한 AI 모델이 소프트웨어 취약점을 악용하기 위해 공개적으로 사용 가능한 보안 데이터를 얼마나 효과적으로 활용할 수 있는지 평가하는 것이었습니다. 연구원들은 소프트웨어 구성 요소의 알려진 보안 위협을 나열하는 공공 자금 지원 데이터베이스인 CVE(Common Vulnerability and Exposures) 레지스트리에서 15개 취약점 데이터 세트를 사용했습니다.

놀랍게도 GPT-4는 이러한 취약점의 87%를 악용할 수 있었는데, 이는 GPT-0, 기타 LLM(대형 언어 모델) 및 ZAP와 같은 인기 있는 오픈 소스 취약점 스캐너와 같은 이전 버전의 악용률이 3.5%인 것과 극명한 대조를 이룹니다. 그리고 메타스플로잇. 이러한 효율성은 복잡한 데이터 세트에 대한 GPT-4의 고급 이해뿐만 아니라 실제 사이버 보안 애플리케이션에서의 잠재적인 유용성을 보여줍니다.

윤리적 및 보안적 영향

이 기능은 인상적이기는 하지만 많은 윤리적 및 보안 문제를 야기합니다. CVE 목록의 접근성은 투명성과 전반적인 사이버 보안 개선에 필요하지만 GPT-4와 같은 AI 시스템이 이 데이터에 액세스하여 잠재적으로 악의적인 활동을 지원할 수 있음을 의미합니다. 이 연구는 중요한 질문을 강조합니다. 협업 보안에 필요한 개방성과 AI 시스템에 의한 동일한 정보의 잠재적인 오용을 완화해야 하는 필요성 사이의 균형을 어떻게 맞출 수 있습니까?

비용 효율적인 사이버 보안인가, 아니면 사이버 범죄를 위한 도구인가?

이 연구의 또 다른 중요한 발견은 사이버 보안 작업에 GPT-4와 같은 AI를 사용하는 것의 비용 효율성입니다. 이 연구에서는 성공적인 사이버 공격을 수행하기 위해 GPT-4를 사용하면 비용이 8.80달러에 불과할 수 있다고 추정합니다. 이는 동일한 작업에 인간 사이버 보안 전문가를 고용하는 것보다 약 2.8배 저렴합니다. 이러한 비용 효율성은 사이버 보안 전략에 혁명을 일으켜 조직이 고급 방어 메커니즘에 더 쉽게 접근할 수 있도록 할 수 있습니다. 그러나 동시에 저비용 사이버 공격의 위험도 제기되어 잠재적으로 이러한 위협의 빈도와 정교함이 증가합니다.

향후 방향 및 권장사항

공개 액세스의 이점이 잠재적인 위험보다 크기 때문에 연구에서는 CVE 목록에 대한 액세스를 제한할 것을 제안하지 않습니다. 대신, 사이버 보안과 같은 민감한 분야에서 뛰어난 능력을 갖춘 LLM을 배포하는 데 있어 보다 미묘한 접근 방식이 필요합니다. 여기에는 잠재적인 규제 조치, AI 활동에 대한 강화된 모니터링, 안전하고 윤리적인 AI 사용에 대한 지속적인 연구가 포함됩니다.

결론

이 연구 결과는 사이버 보안에서 AI의 양면 특성에 대한 심오한 통찰력을 제공합니다. AI는 디지털 인프라를 보호하는 능력을 크게 향상시킬 수 있지만, 오용을 방지하려면 세심한 관리도 필요합니다. AI가 계속 발전함에 따라 그 잠재력을 책임감 있게 활용하여 AI가 우리에 대한 무기가 아닌 보호 도구 역할을 하도록 보장하는 전략도 필요합니다.