10일(현지시간) 미 온라인 매체 악시오스는 오픈AI가 자체 위험 평가 프레임워크로 측정한 AI 모델 평가 보고서를 입수해 주요 내용을 보도했다.
샘 올트먼 오픈AI 최고경영자(CEO)(사진=AFP)
오픈AI는 또 새 AI 모델들이 기존에 알려지지 않았던 보안 취약점을 노린 제로데이 공격을 개발해낼 가능성, 또는 복잡한 기업·산업 침투 작업을 지원해 현실 세계에 영향을 주는 공격을 도울 수 있는 가능성이 있다고 제시했다.
AI모델의 사이버보안 성능은 빠르게 향상되는 중이다. GPT-5 모델은 지난 8월 열린 해킹 취약점 찾기 대회인 ‘캡처 더 플래그’에서 27%의 점수를 기록한 반면, GPT-5.1 코덱스 맥스 모델은 지난달 76%를 기록했다. 앞서 오픈AI는 생물무기(bioweapons) 위험과 관련해 비슷한 경고를 내놨고, 지난 7월에는 실제 챗GPT 에이전트가 생물무기 위험 ‘높음’ 수준으로 평가된 바 있다.
오픈AI는 “이 같은 경향에 따라 향후 나올 AI 모델들도 사이버 위험 능력이 계속 발전할 것으로 예상된다”며 “우리는 새 모델이 사이버보안 측면에서 ‘높은’ 위험 수준에 도달할 수 있다고 가정하고 모델을 계획·평가 중”이라고 밝혔다. ‘높음’은 위험 등급 중 두 번째로 높은 수준으로, 모델이 일반에 공개되기 부적합하다고 여겨지는 ‘치명적’ 바로 아래 단계다. 오픈AI는 아직 사이버보안 위험이 ‘높음’으로 평가된 최초의 모델이 언제 나올지 등은 구체적으로 밝히지 않았다.
오픈AI 관계자는 악시오스에 이 같은 사이버 위험 능력은 AI에 장시간 스스로 작업을 이어서 수행할 수 있는 능력이 부여되면서 높아졌다는 점을 언급하면서 “특히 위협이 되는 장시간 무차별 대입 공격은 방어체계가 잘 갖춰진 환경에서는 쉽게 탐지할 수 있다”며 AI에 대한 지나친 공포는 경계했다. 또 “오픈AI는 2023년 출범한 프론티어 모델 포럼과 함께 업계 전반의 사이버보안 위협 대응을 강화하고 있으며, 별도의 자문 기구인 프론티어 리스크 카운슬을 설립해 “경험 많은 사이버 방어 전문가들과 긴밀히 협업”할 계획”이라고 밝혔다.









