Loading...

텍스트

뉴스매체의 AI 사용 가이드라인 제안

페이지 정보

작성자 nedge
작성일 12.05 17:45
67 조회
0 추천
0 비추천

본문

AI 도구 Perplexity
프롬프트 https://mediacopilot.substack.com/p/ai-newsroom-policy 이 기사에 AI 가이드라인을 제시하고 있으면 그에 대해 설명하고, 바람직한 가이드라인을 제시하라.

이 글은 “AI 정책이 왜 시급한가”와 “정책이 최소한 답해야 할 질문”을 던지지만, 구체적인 조항 수준의 가이드라인을 상세히 나열하지는 않습니다. 다만 두 가지 핵심 질문(① 어떤 범위까지 AI ‘글쓰기’를 허용할 것인가 ② 그 사용을 어떻게 독자에게 공개할 것인가)을 제시하며, 프리랜서 계약까지 포함해 명문화해야 한다고 강조합니다.[1]

## 기사에서 제시하는 핵심 방향

- 대부분 뉴스룸에 AI 정책이 없고, 특히 “AI 사용 공개(disclosure)”에 대한 명시적 기준이 부족하다는 점을 문제로 지적합니다.[1]
- 정책이 없으면, 취재 메모 정리·리드 문장 초안·문장 손질 등 ‘애매한 구간’에서 AI 문장이 그대로 기사에 스며들 위험이 커진다고 설명합니다.[1]
- 따라서 최소한 다음 두 가지를 문서로 박아 넣으라고 제안합니다.[1]
 - 실제 AI가 작성한 문장(채팅창에서 그대로 나온 텍스트)을 어느 수준까지 허용할 것인가  
 - AI가 관여한 경우, 어떤 상황에서 어떤 방식으로 독자에게 알릴 것인가  

## 바람직한 AI 가이드라인(제안)

아래는 국제 단체와 주요 언론사 가이드, 그리고 기사에서 제기한 문제의식을 바탕으로 정리한 “실무형” 가이드라인입니다.[2][3][4][5][1]

### 1. 원칙과 금지선

- 인간 책임 원칙: 모든 기사와 헤드라인, 캡션의 최종 책임은 기자·편집자에게 있고, AI는 도구일 뿐이라는 점을 명시합니다.[3][5]
- 금지 사용:  
 - 취재 없이 AI만으로 기사·인터뷰를 생성하는 행위  
 - 허구 인물·발언을 실제처럼 구성하는 행위  
 - 딥페이크·합성 이미지를 속이기 위한 용도로 사용하는 행위(특히 속보·뉴스 사진).[3]

### 2. 허용되는 사용 범위

- 제한적 허용 영역을 명확히 구분합니다.[5][2][3]
 - 아이디어 브레인스토밍, 아웃라인 초안  
 - 스타일 교정·맞춤법·요약 보조  
 - 공적·검증 가능한 자료(공문, 통계 등)의 초벌 정리  
- 이때도 핵심 문장(리드·핵심 단락·인용 재구성)은 기자가 직접 쓰도록 규정합니다.[3]

### 3. 사실 검증과 편향 관리

- AI가 제안한 사실·숫자·인용은 반드시 독립된 출처로 검증해야 합니다.[5][3]
- 정치·인종·젠더 등 민감한 이슈에서는 AI 출력이 특정 집단에 편향되지 않는지 편집 단계에서 추가 점검하도록 규정합니다.[3]

### 4. 공개(Disclosure) 원칙

- “AI 사용의 유의미성” 기준을 세웁니다.[4][1][3]
 - 단순 맞춤법 교정·내부 검색 수준은 공개 불필요.  
 - 초안 작성, 문장 재작성, 인터랙티브 요소 등을 AI가 수행했다면 기사 말미나 크레딧에 명시. 예: “이 기사 제작 과정에서 AI 도구의 초안/편집 보조를 활용했습니다.”  
- 합성 이미지·데이터 시각화에 AI를 쓴 경우, 캡션이나 크레딧에 “AI 생성/합성”을 명확히 표기합니다.[3]

### 5. 데이터·프라이버시·저작권

- 기밀 정보·비보도 메모·계약서 등 민감한 자료는 공개형 AI 서비스에 업로드하지 못하도록 금지합니다.[5]
- AI에 넣는 텍스트·이미지의 저작권 상태를 점검하고, 타 언론사·크리에이터 콘텐츠를 그대로 학습소재로 업로드하지 않도록 규정합니다.[3]

### 6. 도구 목록·교육·프리랜서

- 사용 허가된 AI 도구 리스트와 금지 도구를 주기적으로 업데이트합니다.[2][3]
- 내부 교육: 기자·편집자·제품팀을 대상으로 최소 연 1회 이상 “AI 활용·리스크·사례 교육”을 실시하도록 명문 규정에 포함합니다.[6][2]
- 프리랜서·기고자 계약서에 동일한 AI 정책(허용/금지·공개 의무·저작권·기밀 유지)을 명시하고 서명받습니다.[4][1]

이 정도 수준으로 “원칙–허용 범위–공개–리스크 관리–대상 범위(내부+프리랜서)”까지 한 번에 정리해두면, 기사에서 지적한 ‘보이지 않는 회색 지대’와 향후 법적·신뢰 리스크를 상당 부분 줄일 수 있습니다.[2][4][5][1][3]

출처
[1] AI is already in your newsroom. Where's the policy? https://mediacopilot.substack.com/p/ai-newsroom-policy
[2] Three steps to an AI-ready newsroom: A practical guide https://www.trust.org/resource/ai-policies-newsroom-guide/
[3] Ethical guidelines for the use of artificial intelligence in ... https://www.patriciaventura.me/en/single-post/ethical-guidelines-for-the-use-of-artificia-lintelligence-in-journalism
[4] Most journalists use AI; few newsrooms have policies https://www.editorandpublisher.com/stories/most-journalists-use-ai-few-newsrooms-have-policies,258220
[5] Standards around generative AI | The Associated Press https://www.ap.org/the-definitive-source/behind-the-news/standards-around-generative-ai/
[6] AI is reshaping the daily work of newsrooms https://www.inma.org/blogs/conference/post.cfm/ai-is-reshaping-the-daily-work-of-newsrooms
[7] The Media Copilot – How to Use AI in Journalism, Media, Public ... https://mediacopilot.ai
[8] What are AI's limits in the newsroom? - The Media Copilot https://mediacopilot.substack.com/p/ai-limits-in-the-newsroom
[9] Business Insider lets journalists use AI to write first drafts ... https://mediacopilot.substack.com/p/business-insider-ai-writing-no-disclosure
[10] How Newsrooms are Really Using AI https://www.youtube.com/watch?v=3Kk2CxkosPM
 

댓글 0
전체 123 / 1 페이지
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입