정의
책임 있는 AI는 윤리적이고, 투명하며, 공정하고, 책임감 있는 AI 시스템의 설계, 개발 및 배포를 의미합니다. 위험은 최소화하고 사회적 편익은 극대화하는 데 중점을 둡니다.
목적
AI가 인권, 안전, 그리고 공정성을 준수하도록 하는 것이 목표입니다. 책임감 있는 AI 관행은 조직이 신뢰할 수 있는 AI를 구축하도록 지원합니다.
중요성
- AI 도입에 대한 신뢰를 구축합니다.
- 해롭거나 차별적인 영향을 방지합니다.
- 규정 준수를 보장합니다.
- 투명성과 책임성을 증진합니다.
작동 원리
- 윤리 원칙과 지침을 정의합니다.
- AI 수명주기 전반에 걸쳐 위험을 평가합니다.
- 공정성 테스트 및 편견 감사와 같은 안전장치를 적용합니다.
- 배포된 시스템을 지속적으로 모니터링합니다.
- 문서화하고 이해관계자에게 실행 사례를 전달합니다.
예시(실제 세계)
- Microsoft 책임 있는 AI 표준.
- 구글 AI 원칙.
- 전 세계 정부가 채택한 OECD AI 원칙.
참고문헌 / 추가 자료
- OECD AI 원칙.
- NIST AI 위험 관리 프레임워크.
- Jobin, A. 외. “AI 윤리 지침의 세계적 전망.” 네이처.
- 책임 있는 AI란 무엇인가요?