WHO, 건강을 위한 안전하고 윤리적인 AI 요구

WHO, 건강을 위한 안전하고 윤리적인 AI 요구

WHO 2023.05.16

세계보건기구(WHO)는 인간의 복지, 인간의 안전, 자율성을 보호 및 증진하고 공중 보건을 보존하기 위해 인공지능(AI)으로 생성된 대규모 언어 모델 도구(LLM)를 사용할 때 주의를 기울일 것을 당부하고 있습니다.

LLM에는 인간의 의사소통을 이해하고, 처리하고, 생성하는 것을 모방하여 가장 빠르게 확장되고 있는 ChatGPT, Bard, Bert 등 여러 플랫폼이 포함됩니다. 이러한 플랫폼의 대중적 확산과 건강 관련 목적의 실험적 사용이 증가함에 따라 사람들의 건강 요구를 지원할 수 있는 잠재력에 대한 기대가 커지고 있습니다.

사람들의 건강을 보호하고 불평등을 줄이기 위해 건강 정보에 대한 접근성을 개선하거나 의사결정 지원 도구로, 또는 자원이 부족한 환경에서 진단 역량을 강화하기 위해 LLM을 사용할 때는 그 위험성을 신중하게 검토하는 것이 필수적입니다.

WHO는 의료 전문가, 환자, 연구자, 과학자를 지원하기 위해 LLM을 포함한 기술을 적절히 사용하는 것에 열광하고 있지만, 일반적으로 신기술에 적용하는 주의가 LLM에 대해서는 일관되게 적용되지 않고 있다는 우려가 있습니다. 여기에는 투명성, 포용성, 대중의 참여, 전문가 감독, 엄격한 평가라는 핵심 가치를 광범위하게 준수하는 것이 포함됩니다.

검증되지 않은 시스템의 성급한 도입은 의료진의 실수를 초래하고, 환자에게 해를 끼치며, AI에 대한 신뢰를 약화시켜 전 세계적으로 이러한 기술의 잠재적인 장기적 혜택과 사용을 저해(또는 지연)할 수 있습니다.

기술이 안전하고 효과적이며 윤리적인 방식으로 사용되기 위해서는 엄격한 감독이 필요하다는 우려에는 다음이 포함됩니다:

  • AI를 학습시키는 데 사용되는 데이터가 편향되어 건강, 형평성, 포용성에 위험을 초래할 수 있는 오해의 소지가 있거나 부정확한 정보를 생성할 수 있습니다;
  • LLM은 최종 사용자에게 권위 있고 그럴듯하게 보일 수 있는 답변을 생성하지만, 특히 건강 관련 답변의 경우 완전히 부정확하거나 심각한 오류가 포함될 수 있습니다;
  • LLM은 이전에 그러한 사용에 대한 동의를 제공하지 않은 데이터에 대해 학습될 수 있으며, LLM은 사용자가 응답을 생성하기 위해 애플리케이션에 제공하는 민감한 데이터(건강 데이터 포함)를 보호하지 못할 수 있습니다;
  • LLM은 대중이 신뢰할 수 있는 건강 콘텐츠와 구별하기 어려운 텍스트, 오디오 또는 비디오 콘텐츠의 형태로 매우 설득력 있는 허위 정보를 생성하고 유포하는 데 오용될 수 있습니다.
  • 인류의 건강을 개선하기 위해 AI와 디지털 헬스 등 신기술을 활용하기 위해 노력하는 한편, 정책 입안자들은 기술 기업이 LLM을 상용화하기 위해 노력하는 동안 환자의 안전과 보호를 보장할 것을 권고합니다.

WHO는 개인, 의료 서비스 제공자, 의료 시스템 관리자 및 정책 입안자 등 일상적인 의료 및 의학 분야에서 널리 사용되기 전에 이러한 우려를 해결하고 혜택에 대한 명확한 증거를 측정할 것을 제안합니다.

WHO는 보건용 AI를 설계, 개발, 배포할 때 헬스 AI의 윤리 및 거버넌스에 관한 WHO 지침에 열거된 대로 윤리적 원칙과 적절한 거버넌스를 적용하는 것이 중요하다는 점을 다시 한 번 강조합니다. WHO가 규정한 6가지 핵심 원칙은 다음과 같습니다: (1) 자율성 보호, (2) 인간 복지, 인간 안전 및 공익 증진, (3) 투명성, 설명 가능성 및 명료성 보장, (4) 책임과 책임감 조성, (5) 포용성 및 형평성 보장, (6) 반응성 있고 지속 가능한 AI 촉진입니다.


의료용 인공 지능의 윤리 및 거버넌스

개요

보건용 인공지능의 윤리 및 거버넌스에 관한 WHO 지침은 윤리, 디지털 기술, 법률, 인권 분야의 주요 전문가와 각국 보건부 전문가들이 18개월에 걸쳐 숙고한 결과물입니다. 보고서에 따르면 인공지능을 사용하는 신기술은 진단, 치료, 보건 연구 및 신약 개발을 개선하고 감시 및 발병 대응을 포함한 공중 보건 기능을 수행하는 정부를 지원할 수 있는 큰 가능성을 가지고 있지만, 이러한 기술은 설계, 배포 및 사용의 중심에 윤리와 인권을 두어야 합니다.

이 보고서는 보건 인공지능 사용의 윤리적 도전과 위험, 인공지능이 모든 국가의 공공의 이익을 위해 작동하도록 보장하기 위한 6가지 합의 원칙을 식별합니다. 또한 보건용 인공지능의 거버넌스가 기술의 잠재력을 극대화하고 공공 및 민간 부문의 모든 이해관계자가 이러한 기술에 의존하게 될 의료 종사자, 인공지능 사용으로 인해 건강에 영향을 받게 될 지역사회 및 개인에 대해 책임감을 갖고 대응할 수 있도록 보장하는 일련의 권장 사항도 포함되어 있습니다.

이 블로그의 인기 게시물

대규모 언어 모델(LLM : Large Language Models) 연구 동향

장애인 접근성 향상을 지원하는 AI

메타, 2023년 트렌드 보고서 - 새롭게 떠오르는 문화

유럽 최고의 여름 여행지 추천

딜로이트, 2023 글로벌 그린수소 시장 전망