‘Responsible AI’를 위한 대응

‘Responsible AI’를 위한 대응
  • January 2024

Responsible AI는 AI의 잠재적 위험이 불거지며 주목받은 개념으로, AI 시스템의 개발, 운영, 배포 과정의 윤리성, 투명성, 사용자 개인 정보와 사회적 가치에 대한 존중을 포함합니다. 지난해 10월 30일 바이든 정부가 AI 관련된 조치 중 가장 강력하다고 평가받는 일명 ‘AI 행정명령’을 발표하며 Responsible AI는 피할 수 없는 흐름이 되었습니다. 이에 PwC컨설팅은 행정명령의 세부 내용을 살펴보며 Responsible AI 시대에 대응하기 위한 방법을 제안합니다.

Responsible AI의 개념과 등장 배경

  • 아마존의 채용 추천 AI의 성차별 논란, 유나이티드 헬스그룹의 치료 우선순위 결정 알고리즘의 인종차별 논란 등이 불거지며 AI 윤리 기준 마련의 필요성 대두
  • Responsible AI는 AI가 인간의 가치와 복지에 부합하는 방식으로 사용되는 것을 목표로 함
  • Responsible AI의 주요 구성 요소
윤리성 AI가 잠재적으로 미칠 영향과 운영 과정, 그리고 의사결정이 윤리적 지침에 부합
투명성 입력 데이터, 학습 방법, 의사결정 프로세스 및 결정을 이해관계자와 공유
공정성 차별적 결과를 초래할 수 있는 데이터 수집 및 알고리즘 모델의 편견 배제
개인정보 보호 및 보안 AI 개발 과정에서 데이터 유출 및 공개의 방지
책임성 AI에 기반한 의사결정 및 행동에 대한 책임 강조

바이든 행정부의 AI 행정명령

  • ‘2022 AI 권리장전을 위한 청사진’에 기반한 행정명령으로, 인력, 핵심 기반시설, 국가 안보, 민주주의 등에 대한 AI 리스크 해소 및 AI를 통한 새로운 국가적 기회의 발굴 목표. 2021년 6월 채택된 EU의 ‘AI 법안’과 2022년 2월 발간된 한국의 자율 준수 가이드라인을 포함한 전 세계 정부가 취한 조치들 중 가장 강력
  • Responsible AI를 위한 8가지 가이드
안전과 보안을 위한 기준
  • AI 개발자들은 미국 정부와 안정성 테스트 결과 및 AI 관련 중요 정보를 공유
  • AI 사이버 챌린지를 통한 AI 취약점 탐색, 수정 도구 개발, 시스템 안정성을 보장을 위한 레드팀 테스트 기준 설정
  • 생성형 AI 콘텐츠를 감지하고 식별하기 위한 콘텐츠 인증 및 워터마크 가이드라인 수립
  • AI와 보안에 관한 추가적 행위를 지시하는 국가 안보 각서 작성
미국인들의 프라이버시 보호
  • 프라이버시 보호를 위한 연구 네트워크와 학습 데이터의 개인정보를 보호하며 학습하도록 하는 AI 연구 프로젝트 등 자금 지원
  • 개인 식별 가능 정보 등 상업적으로 이용 가능한 정보를 수집해 사용하는 방법 평가 및 AI 리스크 대비를 위한 연방기관의 프라이버시 가이드 강화
  • AI 등에 이용되는 프라이버시 보호 기법을 평가하기 위한 가이드라인 개발
형평성과 시민권 증진
  • AI의 차별 악화 방지를 위한 연방 지원 프로그램 및 계약 담당자에 대한 가이드 제공
  • 훈련, 기술 지원, 법무부와 연방 시민권 사무소 간 조율을 통한 AI 알고리즘에 의한 차별 대응
  • 경찰력 운용 및 신병 확보에 관한 AI 선진 사례 개발을 통한 형사 사법 시스템의 공정성 제고
소비자, 환자, 학생 보호
  • 의약품 분야 AI의 책임 있는 활용 촉진
  • 안전하지 못한 AI 기반 헬스케어 행위 방지 및 대응
  • 학교에서 활용할 수 있는 AI 기반 교육 도구
근로자 보호
  • 근로에 대한 급여의 과소 지급, 불공정한 지원서 평가, 근로자 단체 조직 방해 등을 방지하기 위한  AI 원칙 및 사례
  • AI의 노동시장에 대한 영향 분석 및 노동시장의 불안정성에 대한 연방 지원 강화
혁신 및 경쟁의 촉진
  • 연구자와 학생들의 핵심 AI 자원과 데이터에 대한 접근성 제고 및 주요 연구 분야에 대한 보조금 확대
  • 소규모 개발자와 사업자에 대한 기술 지원을 통한 개방적이며 경쟁력 있는 AI 생태계 증진
  • AI 관련 전문가와 숙련된 비전문가의 미국 체류와 이민 기회 확대
미국 리더십의 해외 확장
  • 다수의 이해관계자 협력을 확대하고 AI의 효익 증진 및 리스크 관리를 위한 국제적 협력 가이드라인 수립
  • 해외 파트너와의 AI 연구 협력 및 지속 가능한 AI 개발 추진
정부의 책임 있고 효과적인 AI 활용 보장
  • 정부기관의 AI 활용 관련 지침 제시
  • AI 인재 수요 급증에 대응한 AI 전문 인력의 채용 확대 및 관련 기관의 모든 직급을 대상으로 한 AI 교육 제공

Responsible AI 시대를 위한 제언

  • Responsible AI를 위한 7가지 고려사항
행정명령이 조직에 미치는 영향 확인 연방 차원의 조치와 비즈니스 부문의 잠재적 교차점 파악 및 대응 계획 마련
규제 제정 과정 모니터링 및 의견 제시 행정명령 준수를 위해 유관 부서가 발표하는 구체적 지침 대비 및 의견 수렴 과정에의 적극적인 참여
AI 기술의 리스크 평가 및 관리 AI 리스크를 관리하고 보고할 수 있는 리스크 분류 체계와 기업 거버넌스 모델 개발, 관련 직원 역량 강화, 개인정보 보호 강화 기술 프레임워크를 포함하는 포괄적 프라이버시 프로그램의 도입 고려
Trust-by-Design 기법의 AI 적용 AI와 그 결과물의 신뢰를 입증하기 위한 요건의 정의와 그 효과성 입증, 관련 시스템과 데이터, 테스트 결과의 문서화
AI 모델의 세분화 안보, 공중 보건 등 특수한 영역의 AI 모델과 그 외의 일반적인 영역의 AI 모델을 구분
위험 완화에 활용 소프트웨어의 취약점을 찾아 수정하거나 사이버 사고를 자동으로 감지하는 등 위험 완화에 AI 활용
투명성 강화 위험 평가, 시뮬레이션 결과 공유와 같은 의무 이행을 위한 프로세스 문서화, 외부 정보 공개 요구에 대응

‘Responsible AI’를 위한 대응

Download PDF (PDF of 1.11mb)
We unite expertise and tech so you can outthink, outpace and outperform
See how