Chapter 10: 윤리적 사용과 책임¶
학습 목표
- AI 사용에 따른 윤리적 쟁점을 이해한다
- 저작권, 표절, 학문적 진실성 문제를 인식한다
- AI 편향과 차별의 위험성을 파악한다
- 책임 있는 AI 활용을 위한 원칙을 수립한다
10.1 AI 윤리의 핵심 쟁점¶
왜 윤리가 중요한가¶
| 수준 | 윤리적 쟁점 |
|---|---|
| 개인 수준 | 표절/학문적 부정행위, 개인정보 노출, 무비판적 의존 |
| 조직 수준 | 저작권 침해, 기밀 정보 유출, 품질/신뢰성 문제 |
| 사회 수준 | 편향과 차별 강화, 일자리 영향, 잘못된 정보 확산 |
개인 수준의 문제가 조직 수준으로, 조직 수준의 문제가 사회 수준으로 확산될 수 있다.
핵심 윤리 원칙¶
| 원칙 | 설명 | 적용 |
|---|---|---|
| 투명성 | AI 사용 사실을 숨기지 않음 | 출처 표시, 사용 고지 |
| 정직성 | AI 출력을 자신의 것으로 위장하지 않음 | 기여도 명시 |
| 책임성 | AI 출력에 대한 최종 책임은 사용자 | 검증 후 사용 |
| 공정성 | 편향이나 차별을 인식하고 완화 | 다양한 관점 고려 |
| 존중 | 타인의 권리와 이익 존중 | 저작권, 프라이버시 |
10.2 저작권과 지적재산권¶
AI와 저작권의 복잡한 관계¶
핵심 이슈
AI가 생성한 콘텐츠의 저작권 문제는 아직 법적으로 완전히 정립되지 않았다. AI 학습 데이터의 저작권, AI 출력물의 저작권, 그리고 사용자의 권리가 서로 얽혀 있다.
| 단계 | 주요 이슈 | 세부 내용 |
|---|---|---|
| 입력 단계 | AI 학습 데이터 | 웹 콘텐츠, 책, 논문 등 기존 저작물 사용. 저작권자 동의 없는 학습의 적법성 논쟁 |
| 생성 단계 | AI 출력물 | 누구의 저작물인가? (AI? 사용자? 회사?) 기존 저작물과 유사할 경우 침해인가? |
| 활용 단계 | 상업적/비상업적 사용 | 사용 범위와 조건, 책임 소재 |
입력 단계에서 생성 단계로, 생성 단계에서 활용 단계로 이어지는 흐름에서 각 단계마다 저작권 문제가 발생할 수 있다.
📌 실제 저작권 분쟁 사례¶
사례 기록 시점: 2026년 2월
사례 1: Getty Images vs Stability AI (2023년 1월~2025년 11월 판결)
| 항목 | 내용 |
|---|---|
| 원고 | Getty Images (세계 최대 이미지 라이선스 기업) |
| 피고 | Stability AI (Stable Diffusion 개발사) |
| 쟁점 | 1200만 개 이상의 이미지를 동의 없이 AI 학습에 사용 |
| 판결 | 2025년 11월 4일, 영국 고등법원(UK High Court) 판결 |
핵심 판결 내용 (2025년 11월):
1. 저작권 침해 주장 → 기각: AI 모델 가중치는 저작권법상 '복제물'이 아님
2. 상표권 침해 → 일부 인정: Getty 워터마크가 생성 이미지에 나타난 사례 (극히 제한적)
3. 의의: AI 학습용 데이터 사용이 저작권 침해가 아니라는 최초의 영국 판례
산업적 영향
이 판결은 AI 기업들의 학습 데이터 사용에 대한 법적 불확실성을 크게 줄였습니다. 다만 미국에서의 별도 소송은 계속 진행 중이며, 관할권에 따라 결과가 달라질 수 있습니다.
사례 2: The New York Times vs OpenAI (2023년 12월~진행 중)
| 항목 | 내용 |
|---|---|
| 원고 | The New York Times |
| 피고 | OpenAI, Microsoft |
| 쟁점 | NYT 기사를 AI 학습에 무단 사용, 기사 내용 거의 그대로 출력 |
| 요구 | 수십억 달러 손해배상, 해당 데이터로 학습된 모델 삭제 |
| 최신 현황 | 2026년 1월 5일, 법원이 OpenAI에 2,000만 건의 ChatGPT 대화 로그 공개 명령 |
주요 경과 (2025~2026):
- 2025년 3월: 법원, OpenAI의 소송 기각 신청 기각 → 본안 재판 진행
- 2025년 5~11월: 양측 증거 개시(Discovery) 절차
- 2026년 1월 5일: 판사, 2,000만 건 ChatGPT 대화 로그 공개 명령
→ OpenAI가 선별 제출하려던 것을 법원이 전체 데이터셋 제출로 변경
- 예정: 2026년 4월 2일 약식판결(Summary Judgment)
시사점
이 소송은 AI 학습의 '공정 이용(Fair Use)' 여부를 판가름할 가장 중요한 사건입니다. 2,000만 건의 대화 로그 공개 명령은 AI 기업의 데이터 투명성에 대한 중대한 선례가 될 수 있습니다.
사례 3: Sarah Andersen 등 vs Stability AI, Midjourney (2023년 1월~)
| 항목 | 내용 |
|---|---|
| 원고 | Sarah Andersen, Kelly McKernan, Karla Ortiz (일러스트레이터) |
| 피고 | Stability AI, Midjourney, DeviantArt |
| 쟁점 | 예술가들의 작품을 동의 없이 학습하여 스타일 모방 |
출처: - Reuters. (2023). Getty Images lawsuit against Stability AI to go ahead in London. - The New York Times. (2023). The Times Sues OpenAI and Microsoft Over A.I. Use of Copyrighted Work. - The Verge. (2023). Artists file class-action lawsuit against Stability AI, Midjourney.
실무적 가이드라인¶
| 상황 | 주의사항 | 권장 행동 |
|---|---|---|
| 텍스트 생성 | 기존 문헌과 유사할 수 있음 | 표절 검사, 재작성 |
| 이미지 생성 | 특정 스타일/아티스트 모방 | 상업용은 법적 검토 |
| 코드 생성 | 오픈소스 코드 포함 가능 | 라이선스 확인 |
| 음악 생성 | 기존 곡과 유사 가능 | 상업용 주의 |
각 서비스의 이용 약관¶
서비스별 정책 확인 필수
각 AI 서비스마다 출력물의 저작권과 사용 조건이 다르다. 특히 상업적 사용 시 반드시 해당 서비스의 최신 이용 약관을 확인해야 한다.
| 고려 사항 | 확인 포인트 |
|---|---|
| 출력물 소유권 | 사용자 소유인지, 제한이 있는지 |
| 상업적 사용 | 무료/유료 버전 차이 |
| 재판매/배포 | AI 생성물 명시 의무 |
| 책임 한계 | 서비스 제공자의 면책 범위 |
10.3 표절과 학문적 진실성¶
AI 시대의 표절 개념¶
표절의 재정의
전통적 표절은 "타인의 아이디어나 표현을 출처 표시 없이 사용"하는 것이다. AI 시대에는 "AI 생성물을 자신의 것으로 제출"하는 것도 새로운 형태의 학문적 부정행위로 간주된다.
| 유형 | 설명 | 판단 |
|---|---|---|
| 1. 완전 대체형 | AI 출력물을 그대로 제출 | 명백한 부정행위 |
| 2. 부분 사용형 | AI 출력을 일부 포함, 명시하지 않음 | 출처 미표시 문제 |
| 3. 아이디어 차용형 | AI의 아이디어/구조를 가져와 재작성 | 기관별 정책에 따라 판단 |
| 4. 보조 도구형 | 문법 교정, 요약 등 보조 목적 사용 | 대체로 허용, 단 정책 확인 필요 |
기관별 정책 스펙트럼¶
| 입장 | 설명 | 예시 |
|---|---|---|
| 금지 | AI 사용 전면 금지 | 일부 시험, 자격증 |
| 제한적 허용 | 특정 용도만 허용 | 문법 교정, 브레인스토밍 |
| 조건부 허용 | 사용 시 명시 필요 | 많은 대학, 기업 |
| 자유 허용 | 도구로서 자유롭게 사용 | 일부 실무 환경 |
학문적 맥락에서의 권장사항¶
학생으로서:
| 해야 할 것 | 하지 말아야 할 것 |
|---|---|
| 기관/교수의 AI 정책 확인 | 정책 확인 없이 AI 사용 |
| AI 사용 시 명시적 표시 | AI 출력을 자기 것으로 제출 |
| AI를 학습 도구로 활용 | AI에 전적으로 의존 |
| 비판적 사고력 유지 | AI 출력을 무비판적으로 수용 |
연구자로서:
| 해야 할 것 | 하지 말아야 할 것 |
|---|---|
| 저널/학회의 AI 정책 확인 | 정책 위반 |
| AI 보조 사용 시 기재 | 연구 방법론에서 AI 사용 은폐 |
| AI 출력 철저 검증 | 검증 없이 데이터/분석 사용 |
| 공동저자 기준 준수 | AI를 저자로 등록 (대부분 금지) |
10.4 AI의 편향과 차별¶
편향이 발생하는 구조¶
AI 편향의 원인
AI는 학습 데이터에 포함된 편향을 학습하고 재생산한다. 인터넷의 텍스트에는 역사적 편향, 문화적 편견, 대표성 불균형이 포함되어 있어 AI 출력에 반영될 수 있다.
| 단계 | 설명 | 예시 |
|---|---|---|
| 1. 데이터 수집 | 특정 집단/관점 과대/과소 대표 | 영어 중심, 서구 관점 중심 |
| 2. 모델 학습 | 데이터의 패턴을 학습 | 편향된 상관관계도 함께 학습 |
| 3. 출력 생성 | 편향이 반영된 응답 생성 | 스테레오타입, 불균형한 표현 |
| 4. 실제 영향 | 의사결정에 편향 반영 | 채용, 대출, 추천 등 |
데이터 수집에서 시작된 편향이 모델 학습, 출력 생성을 거쳐 실제 영향으로 이어지는 연쇄 구조를 가진다.
편향의 유형과 예시¶
| 편향 유형 | 설명 | 예시 |
|---|---|---|
| 성별 편향 | 성역할 고정관념 반영 | "간호사"→여성, "엔지니어"→남성 연상 |
| 인종/민족 편향 | 특정 집단에 대한 스테레오타입 | 범죄, 직업과 인종 연관 |
| 문화적 편향 | 특정 문화권 관점 중심 | 서구 중심적 가치관 |
| 사회경제적 편향 | 계층에 따른 차별적 표현 | 특정 직업군 비하 |
| 연령 편향 | 세대에 대한 고정관념 | 노인/청년에 대한 일반화 |
📌 실제 AI 편향 사례¶
사례 기록 시점: 2025년 1월
사례 1: Google Gemini 이미지 생성 논란 (2024년 2월)
| 항목 | 내용 |
|---|---|
| 시기 | 2024년 2월 |
| 서비스 | Google Gemini (이미지 생성 기능) |
| 문제 | 역사적 인물 이미지 생성 시 부정확한 묘사 |
발생한 문제:
- "1943년 독일 군인" 요청 시 다양한 인종의 군인 이미지 생성
- 미국 건국의 아버지 이미지에서 역사적으로 부정확한 묘사
- 편향 교정 시스템이 과도하게 적용됨
Google의 대응:
| 조치 | 내용 |
|---|---|
| 서비스 일시 중단 | 인물 이미지 생성 기능 일시 중단 |
| 공식 사과 | "편향 교정이 목표를 벗어났다" |
| 시스템 재조정 | 역사적 맥락 고려하도록 수정 |
시사점
편향 교정 자체도 새로운 형태의 부정확성을 만들 수 있습니다. 균형 잡힌 접근이 중요합니다.
사례 2: Amazon 채용 AI 편향 (2018년, 지속적 교훈)
| 항목 | 내용 |
|---|---|
| 시기 | 2014-2017년 개발, 2018년 공개 |
| 목적 | AI 기반 이력서 자동 심사 시스템 |
| 문제 | 여성 지원자에게 불리한 평가 |
발생 원인:
- 10년간의 이력서 데이터로 학습
- 해당 기간 채용자 대다수가 남성
- AI가 "남성적 특징"을 선호하도록 학습
- "여성" 관련 단어(여대 졸업 등)에 낮은 점수 부여
결과 및 교훈:
| 항목 | 내용 |
|---|---|
| 조치 | 프로젝트 폐기 |
| 교훈 | 학습 데이터의 역사적 편향이 AI에 반영됨 |
| 영향 | AI 채용 도구의 공정성 검토 필요성 인식 확산 |
사례 3: AI 이미지 생성의 문화적 편향
| 문제 | 설명 |
|---|---|
| "아름다운 사람" | 서구적 외모 특징 중심 |
| "전문가" | 주로 백인 남성 이미지 |
| "가난" | 특정 인종/지역 이미지 |
| "범죄자" | 특정 인종 과대 표현 |
경고
AI 출력에 반영된 편향을 그대로 사용하면, 기존의 차별과 고정관념을 강화할 수 있습니다. 항상 비판적 시각으로 검토해야 합니다.
출처: - Reuters. (2018). Amazon scraps secret AI recruiting tool that showed bias against women. - The Verge. (2024). Google apologizes for 'missing the mark' with Gemini's AI image generation. - MIT Technology Review. (2023). AI image generators often give racist and sexist results.
편향 인식과 대응¶
사용자가 할 수 있는 것:
1. 비판적 검토
- AI 출력에 편향이 있는지 의식적으로 확인
- 특정 집단에 대한 표현 주의
2. 다양한 관점 요청
- "다른 관점에서도 이 문제를 분석해줘"
- "이 의견에 대한 반론은?"
3. 구체적 제약 설정
- "균형 잡힌 시각으로"
- "다양한 배경을 고려해서"
4. 결과 검증
- 다른 출처/관점과 비교
- 영향 받는 집단의 시각 확인
10.5 프라이버시와 데이터 보안¶
AI 사용 시 정보 노출 위험¶
개인/기밀 정보 입력 주의
AI에 입력한 정보는 서비스 개선을 위해 저장되거나 학습에 사용될 수 있다. 개인정보, 기업 기밀, 민감한 데이터를 AI에 입력하면 유출 위험이 있다.
| 구분 | 항목 | 세부 내용 |
|---|---|---|
| 사용자 입력 | 입력 데이터 | 사용자가 AI에 제공하는 모든 정보 |
| AI 서비스 서버 | 저장 가능 항목 | 대화 로그, 업로드 파일, 사용 패턴 |
| AI 서비스 서버 | 잠재적 활용 | 모델 개선/학습, 서비스 분석, (약관에 따라) 제3자 공유 |
| 위험 | 정보 노출 | 입력한 정보가 의도치 않게 노출될 수 있음 |
사용자 입력이 AI 서비스 서버에 저장되고 활용될 수 있으며, 이로 인해 정보 노출 위험이 발생할 수 있다.
입력하면 안 되는 정보¶
| 정보 유형 | 예시 | 위험 |
|---|---|---|
| 개인정보 | 주민번호, 여권번호, 생년월일 | 신원 도용 |
| 금융정보 | 계좌번호, 카드번호, 비밀번호 | 금전적 피해 |
| 기업기밀 | 미공개 전략, 소스코드, 고객 데이터 | 경쟁력 손실, 법적 문제 |
| 의료정보 | 진단 기록, 처방 내역 | 프라이버시 침해 |
| 법적 문서 | 계약서 원본, 소송 자료 | 법적 위험 |
안전한 사용을 위한 가이드¶
입력 전 체크리스트:
□ 이 정보가 공개되어도 문제없는가?
□ 개인을 식별할 수 있는 정보가 포함되어 있지 않은가?
□ 회사 기밀 정책에 위반되지 않는가?
□ 타인의 개인정보가 포함되어 있지 않은가?
□ 민감한 비즈니스 정보가 아닌가?
안전한 대안:
| 상황 | 위험한 방법 | 안전한 방법 |
|---|---|---|
| 이메일 검토 | 실제 이메일 전체 입력 | 민감정보 제거 후 입력 |
| 코드 리뷰 | 전체 소스코드 입력 | 핵심 로직만 추출, 가명화 |
| 문서 요약 | 기밀 문서 전체 업로드 | 공개 가능 부분만 입력 |
| 고객 분석 | 실제 고객 데이터 사용 | 익명화/가명화 데이터 사용 |
10.6 환경적, 사회적 영향¶
AI의 환경 비용¶
AI와 환경
대규모 AI 모델의 학습과 운영에는 상당한 에너지가 소비된다. 데이터센터의 전력 사용량과 이로 인한 탄소 배출은 AI의 숨겨진 비용이다.
| 측면 | 설명 |
|---|---|
| 학습 비용 | 대규모 모델 1회 학습에 수십~수백 톤 CO2 배출 |
| 운영 비용 | 질의 처리마다 전력 소비 |
| 지속적 증가 | 모델 규모와 사용량 지속 증가 |
사용자로서의 고려:
- 불필요한 반복 질의 줄이기
- 효율적인 프롬프트 작성
- 필요한 경우에만 AI 사용
사회적 영향¶
| 긍정적 영향 | 부정적 영향 |
|---|---|
| 생산성 향상 | 일자리 대체 우려 |
| 접근성 개선 | 디지털 격차 심화 |
| 교육 기회 확대 | 잘못된 정보 확산 |
| 창의적 가능성 확장 | 과도한 의존성 |
| 장애인 보조 기술 | 인간 상호작용 감소 |
긍정적 영향과 부정적 영향을 모두 인식하고, 균형 잡힌 활용이 중요하다.
10.7 Diligence Statement: AI 사용 투명성 선언¶
개념¶
Diligence Statement(성실성 선언)란 AI를 활용하여 만든 산출물에 첨부하는 투명성 문서입니다. Anthropic Academy에서 제안한 이 실천 방법은 세 가지 핵심 요소로 구성됩니다.
| 요소 | 설명 | 예시 |
|---|---|---|
| AI 역할 인정 | AI가 산출물에 기여한 부분을 명시 | "초안 생성에 Claude를 활용했습니다" |
| 검증 방법 | AI 출력을 어떻게 검증했는지 기술 | "통계 수치는 통계청 원본 데이터와 대조 확인" |
| 최종 책임 선언 | 산출물의 최종 책임이 사용자에게 있음을 선언 | "본 보고서의 내용에 대한 최종 책임은 작성자에게 있습니다" |
왜 Diligence Statement가 필요한가¶
투명성이 신뢰를 만든다
AI 사용을 숨기는 것은 단기적으로는 편하지만, 발각 시 신뢰를 완전히 잃을 수 있다. 반면, AI 사용을 투명하게 밝히면서 검증 과정을 보여주면 오히려 전문성과 신뢰도가 높아진다.
| 숨김 | 투명 공개 |
|---|---|
| 발각 시 신뢰 상실 | 전문적 도구 활용 능력 증명 |
| 검증 여부 불명확 | 검증 과정이 명시되어 품질 보장 |
| 책임 소재 모호 | 책임 소재 명확 |
Diligence Statement 템플릿¶
다음 템플릿을 산출물에 첨부하여 사용할 수 있습니다.
──────────────────────────────────
AI 활용 성실성 선언 (Diligence Statement)
──────────────────────────────────
1. AI 역할 인정
- 사용한 AI 도구: [예: ChatGPT, Claude, Gemini 등]
- AI가 기여한 부분: [예: 초안 생성, 데이터 정리, 번역 보조 등]
- 인간이 직접 수행한 부분: [예: 주제 선정, 분석 방향, 최종 편집 등]
2. 검증 방법
- 사실 확인: [예: 인용 출처를 학술 DB에서 검색하여 확인]
- 수치 검증: [예: 통계 수치를 정부 공식 자료와 대조]
- 전문가 검토: [예: 해당 분야 전문가의 감수를 받음]
3. 최종 책임 선언
본 산출물의 내용, 정확성, 적절성에 대한
최종 책임은 아래 작성자에게 있습니다.
작성자: _______________
날 짜: _______________
──────────────────────────────────
상황별 적용 가이드¶
| 상황 | Diligence Statement 수준 | 적용 예시 |
|---|---|---|
| 학술 과제 | 상세 (필수) | AI 사용 범위, 검증 과정, 독자적 기여 명시 |
| 업무 보고서 | 중간 | AI 보조 사실 기재, 핵심 데이터 검증 방법 명시 |
| 개인 블로그 | 간략 | "AI 보조로 작성" 정도의 표기 |
| 공식 문서/계약 | 상세 (필수) | 법률 검토 포함 여부, 전문가 확인 여부 명시 |
실습: 나의 Diligence Statement 작성
최근 AI를 활용하여 만든 산출물(과제, 보고서, 이메일 등)을 하나 선택하고, 위 템플릿을 사용하여 Diligence Statement를 작성해보세요.
- AI가 어디까지 기여했는가?
- 어떤 검증을 거쳤는가 (또는 거쳐야 했는가)?
- 최종 책임을 명확히 선언할 수 있는가?
10.8 윤리적 사용 프레임워크¶
의사결정 가이드¶
| 단계 | 질문 | 예 | 아니오 |
|---|---|---|---|
| 1. 필요성 검토 | AI 사용이 정말 필요한가? | 다음 단계로 | 기존 방법 사용 |
| 2. 정책 확인 | 관련 정책/규정이 허용하는가? | 다음 단계로 | 사용 자제 |
| 3. 위험 평가 | 개인정보/기밀/저작권 문제가 있는가? | 대안 모색 또는 위험 완화 | 다음 단계로 |
| 4. 투명성 확보 | AI 사용을 적절히 표시할 것인가? | 다음 단계로 | 재고 필요 |
| 5. 책임 수용 | 출력에 대한 책임을 질 준비가 되었는가? | 사용 진행, 검증 필수 | - |
상황별 윤리 가이드¶
| 상황 | 주요 고려사항 | 권장 행동 |
|---|---|---|
| 업무 보고서 | 회사 정책, 정보 보안 | 기밀 제거, AI 사용 고지 |
| 학술 논문 | 표절, 학술 진실성 | 기관 정책 준수, 명시적 표시 |
| 창작물 | 저작권, 독창성 | 출처 확인, 충분한 변형 |
| 의사결정 | 편향, 정확성 | 인간 검토, 다양한 관점 |
| 대외 커뮤니케이션 | 신뢰, 투명성 | AI 생성 여부 고지 고려 |
10.9 실천적 권고사항¶
개인 사용자를 위한 체크리스트¶
AI 윤리 실천 체크리스트
사용 전
- 이 작업에 AI 사용이 허용되는가?
- 입력할 정보에 민감한 내용이 없는가?
- AI 사용을 명시해야 하는 상황인가?
사용 중
- 편향된 표현이 없는지 확인하고 있는가?
- 출력을 무비판적으로 수용하고 있지 않은가?
- 저작권에 문제가 될 수 있는 요소가 없는가?
사용 후
- 출력 내용을 검증했는가?
- 필요한 곳에 AI 사용을 표시했는가?
- 최종 결과에 대한 책임을 질 준비가 되었는가?
조직을 위한 권고¶
| 단계 | 활동 | 세부 내용 |
|---|---|---|
| 1. 정책 수립 | AI 사용 범위와 조건 명시 | 금지 사항 명확화, 표시/공개 기준 설정 |
| 2. 교육 실시 | 윤리적 사용 교육 | 위험 인식 훈련, 정책 이해도 확인 |
| 3. 기술적 조치 | 기밀 정보 보호 장치 | 승인된 도구만 사용, 사용 로그 관리 |
| 4. 지속적 검토 | 정책 정기 업데이트 | 사고 대응 체계, 피드백 수렴 |
정책 수립 후 교육 실시, 기술적 조치, 지속적 검토의 순서로 진행한다.
핵심 정리¶
이 챕터의 핵심 포인트
- 저작권 주의: AI 출력물의 저작권은 복잡하며, 상업적 사용 시 특히 주의
- 학문적 진실성: 기관 정책을 확인하고, AI 사용을 투명하게 표시
- 편향 인식: AI 출력에 편향이 있을 수 있음을 인식하고 비판적으로 검토
- 정보 보안: 개인정보와 기밀을 AI에 입력하지 않음
- Diligence Statement: AI 역할 인정 + 검증 방법 + 최종 책임 선언으로 투명성 확보
- 책임 의식: AI 출력의 최종 책임은 사용자에게 있음
실습 과제¶
실습 1: 정책 분석
소속 기관(학교, 회사 등)의 AI 사용 정책을 조사하고:
- 허용/금지 범위 정리
- 표시/공개 의무사항 확인
- 불명확한 부분 목록화
실습 2: 편향 탐지
AI에게 다음 질문을 하고 출력에서 편향을 분석하시오:
- "성공한 CEO의 특징을 설명해줘"
- "좋은 간호사의 자질은 무엇인가?"
분석 관점: 성별, 연령, 문화적 가정
실습 3: 윤리적 딜레마 토론
다음 상황에서 AI 사용이 윤리적인지 토론하시오:
- 입사 지원서를 AI로 작성하는 것
- AI가 작성한 시를 자신의 창작물로 발표하는 것
- 회의록 작성에 AI를 사용하되 참석자에게 알리지 않는 것
참고 자료¶
더 읽어볼 거리¶
- Chapter 9: 환각의 이해와 대응 - AI 오류와 대응
- Chapter 11: 책임 있는 AI 사용 - 실천 가이드라인
용어 정리¶
| 용어 | 정의 |
|---|---|
| AI 편향 | AI 시스템이 특정 집단을 불공정하게 대우하는 경향 |
| 학문적 진실성 | 학술 활동에서 정직성과 윤리를 지키는 것 |
| 저작권 | 창작물에 대한 법적 권리 |
| 프라이버시 | 개인정보를 통제할 수 있는 권리 |
| 투명성 | AI 사용 사실을 숨기지 않고 공개하는 것 |