tgoop.com/sec_guide/297
Create:
Last Update:
Last Update:
Child Sexual Abuse Material (CSAM)이란
이름 그대로 아동 성적 학대 자료이다.
최근 애플에서 CSAM 탐지 소프트웨어를 탑재한다고 하여 프라이버시 침해라는 말이 나오는데 탐지 방식은 다음과 같다.
해시 코드: 임의의 길이를 가진 데이터를 고정된 길이의 데이터로 바꾼 값 (사진 -> 해시 코드는 가능하지만, 해시 코드 -> 사진은 불가)
먼저 사용자의 아이폰이 미 국립실종 및 착취 아동센터(NCMEC)와 다른 기관으로부터 CSAM 이미지 해시 데이터베이스를 받은 뒤
CSAM 이미지 해시 코드를 바탕으로 아이 클라우드 사진의 해시 코드를 비교하고
일정 수치 이상으로 일치할 경우 애플에서 사진을 직접 검토한 뒤 NCMEC에 통보한 뒤 아이클라우드 계정을 비활성화 조치를 하게 된다.
즉 이 방식은 NCEMEC나 다른 기관에서 보유 하고 있지 않은 CSAM은 발견이 불가능 하다.
그리고 이 중 뉴럴 엔진이 쓰이는 부분은 사용자의 사진에서 해시 코드를 추출하는 단계로서
Neural Hash라 불리는 기술을 사용해 사진의 크기, 압축 방식이 다르더라도 같은 해시 코드를 추출한다.
비슷한 사례로 구글과 마이크로소프트는 자신들의 서버에서 사용자의 자료를 스캔하여 CSAM을 발견해내고 있는데
이는 사용자의 기기에서 CSAM 검출이 이뤄지는 애플과는 큰 차이가 있다.
BY 보안 가이드
Share with your friend now:
tgoop.com/sec_guide/297