IT 관련정보/소프트웨어 뉴스

카카오, AI 개발 경쟁 속 '카나나' 출시와 안전성 확보 전략 발표

모두다레벨업 2024. 10. 24. 00:21
728x90
반응형

정신아 카카오 대표이사가 22일 경기 용인시 카카오AI캠퍼스에서 열린 '이프카카오(if kakao) AI 2024' 세션에서 기조연설하고 있다. 카카오 제공

 

카카오가 새로운 인공지능(AI) 브랜드 '카나나(kanana)'를 앞세워 본격적인 AI 개발 경쟁에 나섰다. 그러나 이와 동시에 AI 기술의 안전성 강화에도 힘을 쏟고 있다. 카카오는 AI의 위험성을 사전에 관리하기 위한 체계를 마련하며, 자체적인 평가를 통해 위험도가 높은 AI 서비스는 외부로 배포하지 않겠다는 원칙을 세웠다.

 

카카오는 23일, 자사가 주최하는 '이프카카오 AI 2024' 개발자 콘퍼런스에서 '카카오 AI 세이프티 이니셔티브(ASI)'를 구축했다고 공식 발표했다. 이 이니셔티브는 AI 기술의 개발과 운영 과정에서 발생할 수 있는 위험을 최소화하고, 안전하고 윤리적인 AI 시스템을 설계하기 위한 종합적인 지침을 제시한다. 카카오는 이미 2023년 3월에 발표한 '책임 있는 AI' 가이드라인을 기반으로 더욱 강화된 위험 관리 시스템을 마련했다.

 

이 시스템의 주요 특징은 AI 위험을 발생 주체별로 세분화해 관리하는 데 있다. AI가 주체가 되는 기술적 위험은 크게 두 가지로 나뉜다. 첫 번째는 AI가 올바른 답변을 내놓지 못하는 **'모델 불완전성'**이고, 두 번째는 AI가 지나치게 고도화되어 예측 불가능한 방식으로 동작하는 '통제 불가능' 위험이다. 반면, 인간이 주체가 되는 윤리적 위험은 적극적인 악용수동적인 부주의로 구분해 관리한다.

 

카카오는 테스트를 통해 이러한 위험을 평가하고, 저위험, 중위험, 고위험의 세 등급으로 나눈다. 네 가지 범주 중 하나라도 고위험 판정을 받은 서비스는 출시하지 않고, 보완 작업을 진행한다. 특히 '통제 불가능' 위험이 높은 것으로 평가되면 해당 서비스는 즉시 삭제되며, 위험 발생에 대비한 비상 정지 기능도 갖추어 추가적인 안전성을 확보할 예정이다. 또한, 이용자로부터 발생할 수 있는 윤리적 위험에 대해서도 사전 테스트를 통해 검증하고, 보안 조치와 지속적인 모니터링을 통해 대응한다.

 

카카오가 제시한 이러한 방침은 AI 기술의 빠른 발전 속에서 안전성과 윤리적 책임을 동시에 강조하려는 의도를 담고 있다. AI 기술이 점점 더 많은 부분에서 중요한 역할을 하고 있는 현재, 카카오는 단순한 기술 경쟁을 넘어 안전하고 신뢰할 수 있는 AI 시스템을 구축하는 데 중점을 두고 있다.

728x90
반응형