AI 뉴스

뉴스 · · 11:18 · astralyric

GitHub Copilot의 취약점으로 민감 데이터 유출

GitHub Copilot의 취약점이 민감한 데이터를 유출할 수 있는 방법이 발견되었습니다. 연구자들은 이 AI 도구를 속여 비공개 저장소에서 AWS 키와 같은 데이터를 유출할 수 있음을 밝혔습니다. 이 취약점은 GitHub의 AI 도우미가 분석하는 풀 리퀘스트에 숨겨진 주석을 통해 악용되었습니다.

사이버 보안 회사 Legit Security의 연구원 오머 마이래즈는 GitHub의 인프라를 이용한 CSP 우회와 원격 프롬프트 주입을 결합한 공격을 보고했습니다. 이 문제는 Copilot Chat에서 이미지 렌더링을 완전히 비활성화하여 해결되었습니다.

AI 챗봇을 외부 도구에 노출시키는 것은 공격 표면을 증가시키며, 악의적인 프롬프트가 사용자 권한으로 실행될 수 있는 경로를 제공합니다. GitHub Copilot Chat은 코드 설명, 코드 제안, 유닛 테스트 작성 등을 지원하며, 이를 위해 사용자 저장소에 접근할 수 있습니다.

공격자는 풀 리퀘스트를 통해 다른 사용자의 GitHub Copilot Chat에 악의적인 프롬프트를 실행할 수 있습니다. 이러한 요청은 코드 기여나 변경 사항을 검토 및 승인받기 위해 제출됩니다. GitHub의 기능 덕분에 이러한 설명에는 숨겨진 콘텐츠가 포함될 수 있습니다.

마이래즈는 GitHub Copilot이 사용자의 모든 코드에 접근할 수 있다는 점을 악용하여 민감한 정보를 유출할 수 있는지 실험했습니다. Copilot은 HTML 태그로 이미지를 표시할 수 있으며, 이를 통해 원격 서버로 요청을 트리거할 수 있습니다.

GitHub는 이 문제를 해결하기 위해 Copilot Chat에서 Camo URL을 통한 이미지 렌더링을 비활성화했습니다. 이 취약점은 데이터 유출을 방지하기 위한 기존 메커니즘을 우회할 수 있음을 보여줍니다.