AI가 텍스트·이미지·영상을 쏟아내는 속도가 사람의 생산 속도를 넘어섰다. 문제는 수량이 아니라 신뢰다. “이거 AI가 만든 거 아냐?”라는 질문이 일상이 된 지금, 세계 각국은 AI 생성 콘텐츠에 라벨을 붙이라는 규제를 속속 도입하고 있다. 동시에 반대편에서는 “인간이 만들었다”는 라벨이 필요하다는 목소리가 커지고 있다.
왜 지금 라벨링인가
AI 콘텐츠의 폭증은 두 가지 신뢰 위기를 만들었다.
- 허위정보 확산 — 딥페이크 정치 광고, AI 생성 가짜 뉴스가 선거와 여론을 흔든다.
- 창작자 신뢰 하락 — 진짜 사람이 만든 사진·글·영상도 “AI 아니야?”라는 의심을 받는다.
인스타그램 책임자 아담 모세리(Adam Mosseri)는 “AI를 탐지하려 하기보다, 진짜 인간의 콘텐츠를 인증하는 편이 더 효과적”이라고 언급했다. 라벨링 논의가 AI 생성물 표시에서 인간 제작 인증으로 확장되는 흐름이다.
글로벌 규제 현황
EU AI Act — 2026년 8월 발효
EU AI Act 제50조는 합성 오디오·이미지·영상·텍스트를 생성하는 AI 시스템에 대해, 출력물을 기계 판독 가능한 형식으로 표시하도록 의무화한다. 딥페이크는 합법 콘텐츠라도 라벨이 필요하며, 풍자·창작물에는 “최소한의 비침해적” 공개만 요구한다.
단, 사람이 검토하고 편집 책임을 지는 콘텐츠는 라벨 면제 — 이 예외 조항이 이후 논란의 핵심이 된다.
2025년 12월 EU AI 사무국은 AI 생성 콘텐츠 투명성 실행 규범(Code of Practice) 초안을 공개했고, 2026년 6월 최종본 확정을 앞두고 있다.
중국 — 2025년 9월 시행
중국 국가인터넷정보판공실(CAC)은 2025년 3월, AI 생성 합성 콘텐츠 표시 관리 조치와 국가표준 GB 45438-2025를 공포했다. 핵심은 이중 레이어 접근이다.
| 레이어 | 내용 | 세부 규격 |
|---|---|---|
| 명시적 라벨 | 텍스트·음성·그래픽 표시 | 이미지 텍스트 높이 ≥ 짧은 변의 5%, 음성 120~160 wpm |
| 암묵적 라벨 | 메타데이터 내장 | 제공자명, 콘텐츠 ID 포함 |
규격이 놀라울 정도로 구체적이다 — 음성 라벨에 “AI”의 모스 부호 리듬까지 허용 규격으로 명시했다.
미국 — 연방법 부재, 주법 난립
연방 차원에서는 아직 포괄적 AI 라벨링 법이 없다. 대신 주 단위로 빠르게 움직이고 있다.
| 법률 | 내용 |
|---|---|
| 캘리포니아 SB 942 (2026.8 시행) | 월 100만+ 사용자 AI 시스템에 이미지·영상·오디오 탐지 도구 무료 제공 의무. 위반 시 일당 $5,000. 텍스트는 제외 |
| TAKE IT DOWN Act (2025.5 서명) | 최초의 연방 AI 콘텐츠 법. 비동의 친밀 딥페이크 형사 처벌, 플랫폼 삭제 절차 의무 |
| DEFIANCE Act (2026.1 상원 통과) | 비동의 딥페이크 민사 구제, 법정 손해배상 $150,000~$250,000 |
2025년 한 해 동안 미국 50개 주에서 1,208건의 AI 관련 법안이 발의되었고, 145건이 제정되었다. 28개 주가 정치 커뮤니케이션의 딥페이크를 규제하는 법을 이미 갖고 있다.
한국 — AI 광고 라벨링 의무화
2025년 12월, 한국 정부는 AI 생성·보조 광고의 라벨링 의무화를 발표했다. 2024년 식품·의약품 분야에서 적발된 96,700건 이상의 불법 AI 생성 온라인 광고가 직접적 계기다. 포털·플랫폼 사업자에게 라벨링 도구 제공 및 관리 의무를 부과한다.
가장 어려운 문제 — “AI 생성”의 기준
규제보다 어려운 건 정의다. 어디까지가 AI 생성이고, 어디서부터 인간 창작인가?
호주 산업과학자원부는 유용한 3단계 스펙트럼을 제시했다.
| 단계 | 설명 | 라벨 필요? |
|---|---|---|
| AI 보조(AI-Assisted) | 맞춤법 검사, 문법 교정, 톤 조절 | 불필요 |
| AI 강화(AI-Enhanced) | 프롬프트로 대폭 수정·재작성, 팩트체크 | 회색 지대 |
| 완전 AI 생성(Fully AI-Generated) | 간단한 프롬프트로 생성, 인간 감독 최소 | 필요 |
문제는 회색 지대다.
- AI가 초안을 쓰고 사람이 편집하면? EU는 “사람이 편집 책임을 지면 면제”라고 하지만, 5분 훑어보기와 3시간 재작성을 어떻게 구분하나?
- 워드프로세서의 자동 완성, 이메일의 스마트 리플라이는 AI 보조인가 AI 생성인가?
- MIT Sloan 연구에 따르면 “AI generated”와 “generated with an AI tool”이 가장 명확히 이해되는 표현이었고, “deepfake”나 “manipulated”는 출처와 무관하게 부정적 인식을 유발했다.
용어조차 합의되지 않은 상태에서 법적 기준을 세우는 것이 현재의 난제다.
기술적 접근 — 어떻게 표시하나
C2PA와 Content Credentials
C2PA(Coalition for Content Provenance and Authenticity)는 Microsoft, Adobe, Google, OpenAI, Meta, BBC, Sony 등이 참여하는 연합체다. 2025년 5월 기술 사양 v2.2를 발표했으며, ISO 표준 패스트트랙 진행 중이다.
핵심 개념은 Content Credentials — 디지털 콘텐츠의 “영양 성분표”에 해당한다.
- 파일에 C2PA Manifest를 내장: 제작자, 타임스탬프, 사용 도구, AI 개입 여부, 편집 이력
- 암호화 서명이 포함되어 변조 시 서명이 깨짐
- 워터마크가 아니라 인증된 메타데이터
SynthID — 보이지 않는 워터마크
Google DeepMind의 SynthID는 텍스트·이미지·오디오·영상에 눈에 보이지 않는 워터마크를 삽입한다.
- 이미지: 픽셀 수준의 미세 변경
- 텍스트: 토큰 확률 분포 조정
- 리사이징, 압축, 포맷 변환에도 유지
- 2025년 중반 기준 100억 건 이상 워터마크 적용
- 2024년 10월 SynthID Text 오픈소스 공개
다층 접근이 대세
EU의 실행 규범 초안은 메타데이터 + 보이지 않는 워터마크 + 핑거프린팅 + 로깅을 결합하는 다층 접근을 권고한다. 단일 기술만으로는 모든 콘텐츠 유형과 유통 경로를 커버할 수 없기 때문이다.
플랫폼별 대응
| 플랫폼 | 방식 | 현황 |
|---|---|---|
| TikTok | C2PA 자동 탐지 + 라벨 | 2025년 1월부터 적용, 13억 건+ AI 영상 라벨링. 실제 사인 개인의 합성 미디어는 전면 금지 |
| Meta | 자가 신고 + 자동 라벨 | 정치 광고 AI 콘텐츠 공개 의무. 자체 GenAI 도구 결과물 자동 라벨 (2025.2~) |
| YouTube | 크리에이터 수동 신고 | “사실적으로 변경·합성된 콘텐츠” 표시 의무. 반복 미이행 시 제재 |
| OpenAI | C2PA 메타데이터 | DALL-E 3 이미지에 Content Credentials 자동 내장 |
| Adobe | C2PA 기업용 | Firefly, GenStudio, Content Authenticity API에 적용 |
반대편의 움직임 — “인간 제작” 인증
AI 라벨링이 “이건 AI다”를 증명하는 방향이라면, 반대편에서는 “이건 사람이 만들었다”를 증명하려는 움직임이 나타나고 있다.
| 인증 | 설명 |
|---|---|
| Not by AI | 인간 제작 콘텐츠 배지 제공 |
| HUMA Certificate | 창작물 뒤의 인간 기여를 인증 |
| VerifiedHuman (2023~) | 최초의 인간 창작 표준 |
| ProudlyHuman (2025.8~) | 인간 제작 콘텐츠 인증 서비스 |
이들은 자신을 공정무역(Fair Trade)이나 유기농(Organic) 인증에 비유한다. 식품의 생산 과정을 증명하듯, 콘텐츠의 창작 과정을 증명하겠다는 것이다.
아직은 자발적·민간 주도이지만, AI 라벨링 규제가 강화될수록 “인간 제작” 인증의 상업적·제도적 가치도 함께 올라갈 가능성이 크다.
라벨링은 효과가 있는가
라벨을 붙이면 허위정보가 줄어들까? 연구 결과는 엇갈린다.
긍정적 연구:
- PNAS Nexus(2025) — AI 라벨이 오해의 소지가 있는 AI 콘텐츠에 대한 믿음을 낮추는 효과 확인
회의적 연구:
- Stanford HAI — 라벨이 “누가 만들었는지”에 대한 인식은 바꾸지만, 콘텐츠의 설득력 자체는 유의미하게 줄이지 못함
- 선택적 라벨링의 암묵적 신뢰 효과(Implied Truth Effect) — 라벨이 없는 콘텐츠가 오히려 더 신뢰받는 역효과
- AI 라벨이 붙으면 사실적으로 정확한 콘텐츠도 도덕적으로 더 문제 있다고 인식하는 편향
2025년 8월에는 캘리포니아 AB 2839의 일부 조항이 수정헌법 제1조 위반 가능성으로 연방 법원에서 제동이 걸리기도 했다. 라벨링 의무화와 표현의 자유 사이의 긴장은 앞으로도 계속될 쟁점이다.
앞으로의 방향
AI 콘텐츠 라벨링은 단순한 기술 문제가 아니라 신뢰 인프라의 재설계다. 몇 가지 흐름이 보인다.
- 기술 표준의 수렴 — C2PA가 ISO 표준으로 가면서 업계 공통 언어가 만들어지고 있다
- 이중 인증 체계 — “AI 생성” 라벨과 “인간 제작” 인증이 동전의 양면으로 공존할 가능성
- 다층 기술 접근 — 메타데이터, 워터마크, 핑거프린팅의 조합이 표준 관행으로 자리잡는 추세
- 정의 논쟁의 장기화 — AI 보조 vs. AI 생성의 경계는 기술 발전에 따라 계속 흔들릴 것
확실한 것은, “이 콘텐츠를 누가(혹은 무엇이) 만들었는가”라는 질문이 앞으로 모든 디지털 콘텐츠의 기본 메타데이터가 될 것이라는 점이다.