콘텐츠로 이동

Part 4: 한계와 위험 관리 (Risks & Ethics)

이 파트에서는 생성형 AI의 한계와 윤리적 고려사항을 학습합니다.


📖 이 파트에서 배우는 것

챕터 주제 핵심 질문
Ch.9 환각의 이해와 대응 AI는 왜 거짓말을 하는가?
Ch.10 윤리적 사용과 책임 어디까지가 허용되는가?
Ch.11 책임 있는 AI 사용 어떻게 책임감 있게 사용하는가?

🎯 학습 목표

이 파트를 마치면 다음을 할 수 있습니다:

  • 환각(Hallucination)의 발생 원인과 유형을 이해한다
  • AI 결과물의 팩트체킹 프로세스를 수행할 수 있다
  • 표절과 학습 보조의 경계를 판단할 수 있다
  • AI 사용 시 윤리적 원칙을 적용할 수 있다

⚠️ 이 파트가 중요한 이유

무지한 사용의 위험

생성형 AI를 제대로 이해하지 않고 사용하면:

  • 학술적 위험: 조작된 인용, 표절 문제
  • 법적 위험: 저작권 침해, 명예훼손
  • 비즈니스 위험: 잘못된 정보 기반 의사결정
  • 개인적 위험: 프라이버시 침해

📑 챕터 목록

Chapter 9: 환각(Hallucination)의 이해와 대응

  • 9.1 환각이 발생하는 메커니즘
  • 9.2 환각 유형: 사실 날조 vs 논리적 오류
  • 9.3 탐지 방법과 팩트체킹 프로세스
  • 📌 사례: Mata v. Avianca, Google Bard 사건

Chapter 9 읽기

Chapter 10: 윤리적 사용과 책임

  • 10.1 표절과 학습 보조의 경계
  • 10.2 AI 생성물의 출처 표기법
  • 10.3 편향성 인식과 비판적 평가
  • 10.4 데이터 프라이버시와 보안 원칙

Chapter 10 읽기

Chapter 11: 책임 있는 AI 사용 원칙

  • 11.1 인간이 최종 판단자: AI는 도구다
  • 11.2 투명성과 책임의 귀속
  • 11.3 나만의 AI 윤리 강령 수립

Chapter 11 읽기