조직 내의 responsible AI 권장사항에 대한 필요성
responsible AI의 보편적 정의와 구현방법, 공식은 존재하지 않으며,
대신 조직에서는 자체적인 AI 원칙을 수립하고 있다.
이러한 원칙의 공통된 주제는 투명성, 공정성, 신뢰성, 개인정보 보호이다.
AI를 사용하기 위해 정의되고 반복 가능한 프로세스를 마련하는 것이 중요하다.
프로젝트의 모든 단계에 이루어 의견이 책임감 있는 AI에 영향을 미친다
사람은 AI 개발과 AI가 주어진 컨텍스트에서 적용되는 방식을 제어한다.
의사결정 지점마다 올바른 선택을 해야 개발과 유지관리동안 responsible AI를 유지할 수 있다.
조직이 자체적인 비즈니스 요구와 가치에 부합하도록 AI를 설계할 수 있다
google의 7대 AI원칙
1. AI는 사회에 유익해야 한다.
2. AI는 불공정한 편향을 만들거나 강화해서는 안 된다.
3. AI는 안전하게 빌드되고 테스트되어야 한다.
4. AI는 사람들에게 설명할 수 있어야 한다.
5. AI는 개인정보 보호 원칙을 준수해야 한다.
6. AI는 높은 수준의 과학적 우수성을 유지해야 한다.
7. AI는 이러한 용도에 부합하는 용도로 제공되어야 한다.
▼
'ML' 카테고리의 다른 글
구글 ML 스터디 잼 6] Encoder-Decoder Architecture (0) | 2023.10.11 |
---|---|
구글 ML 스터디 잼 5] Introduction to Image Generation (1) | 2023.10.10 |
구글 ML 스터디 잼 2] Introduction to Large Language Models (0) | 2023.09.21 |
구글 ML 스터디 잼 1] Introduction to Generative AI (0) | 2023.09.20 |