WHO 가이드라인 건강을 위한 인공지능(AI)의 윤리 및 거버넌스

WHO Guidance_Ethics And Governance of Artificial Intelligence For Health

요약

인공 지능(AI)은 기술로 인코딩된 알고리즘이 데이터를 통해 학습하여 프로세스의 모든 단계를 사람이 명시적으로 프로그래밍하지 않고도 자동화된 작업을 수행할 수 있는 능력을 말합니다. WHO는 AI가 공중 보건 및 의료 분야에 큰 가능성을 가지고 있음을 인정합니다. 또한 AI의 이점을 충분히 활용하기 위해서는 의료 시스템, 의료진, 의료 및 공중보건 서비스 수혜자가 직면한 윤리적 문제를 해결해야 한다는 점을 인식하고 있습니다. 이 보고서에 설명된 윤리적 문제 중 상당수는 AI가 등장하기 이전부터 제기된 것이지만, AI 자체는 여러 가지 새로운 문제를 야기합니다.

Ethics and governance of artificial intelligence for health

AI가 환자와 커뮤니티의 이익을 증진할 수 있을지 여부는 윤리적으로 방어 가능한 법률과 정책, 윤리적으로 설계된 AI 기술을 설계하고 구현하려는 공동의 노력에 달려 있습니다. 또한 의료용 AI 기술에 자금을 지원, 설계, 규제 또는 사용하는 사람들이 윤리적 원칙과 인권 의무를 우선시하지 않을 경우 심각한 부정적 결과를 초래할 수 있습니다. 따라서 AI의 기회와 도전은 불가분의 관계에 있습니다.

AI는 환자 치료를 개선하고, 정확한 진단을 내리고, 치료 계획을 최적화하고, 팬데믹 대비 및 대응을 지원하고, 보건 정책 입안자의 결정에 정보를 제공하거나, 보건 시스템 내에서 자원을 할당하는 등 의료 서비스 제공자의 역량을 강화할 수 있습니다. 이러한 잠재력을 실현하려면 의료 종사자와 보건 시스템은 이러한 시스템이 안전하고 효과적으로 작동할 수 있는 환경, 신뢰할 수 있고 적절한 사용을 보장하는 데 필요한 조건, 시스템 성능에 대한 지속적인 감사 및 평가 메커니즘에 대한 자세한 정보를 가지고 있어야 합니다. 의료 종사자와 의료 시스템은 안전하고 효과적인 사용을 위한 조건 하에서 이러한 시스템을 사용하고 유지 관리하기 위해 교육과 훈련에 접근할 수 있어야 합니다.

또한 AI는 환자와 지역사회가 자신의 건강 관리를 스스로 통제하고 변화하는 요구 사항을 더 잘 이해할 수 있도록 지원할 수 있습니다. 이를 위해서는 환자와 지역사회가 자신의 권리와 이익이 기술 기업의 강력한 상업적 이익이나 감시 및 사회 통제를 위한 정부의 이익에 종속되지 않는다는 확신이 필요합니다. 또한 환자 또는 지역사회 건강에 대한 위험을 감지하는 AI의 잠재력이 인간의 자율성과 존엄성을 증진하고 보건 의사 결정의 중심에서 인간을 대체하지 않는 방식으로 보건 시스템에 통합되어야 합니다.

AI는 환자가 의료진이나 의료 전문가에 대한 접근이 제한적인 자원이 부족한 국가에서 의료 서비스 접근성의 격차를 해소할 수 있도록 지원합니다. AI 시스템은 사회경제 및 의료 환경의 다양성을 반영하여 신중하게 설계되어야 하며, 디지털 기술 교육, 지역사회 참여 및 인식 제고가 수반되어야 합니다. 주로 고소득 국가의 개인 데이터를 기반으로 하는 시스템은 저소득 및 중간 소득 환경의 개인에게는 제대로 작동하지 않을 수 있습니다. 따라서 국가는 공평한 의료 서비스 제공과 접근에 해가 되는 편견이 담긴 AI를 피함으로써 효과적인 의료 시스템을 구축할 수 있도록 AI와 지원 인프라에 투자해야 합니다.

이 지침 문서는 WHO의 보건 연구 부서의 보건 윤리 및 거버넌스 부서와 디지털 보건 및 혁신 부서가 공동으로 작성한 것으로, 공중보건, 의학, 법률, 인권, 기술 및 윤리 분야의 전문가 20명으로 구성된 보건용 AI 윤리 및 거버넌스에 관한 WHO 전문가 그룹의 집단적 견해를 바탕으로 작성되었습니다. 이 그룹은 AI의 여러 기회와 과제를 분석하고 보건용 AI의 윤리적 사용을 위한 정책, 원칙 및 관행과 인권 및 법적 의무를 훼손하는 오용을 피하기 위한 수단을 권고했습니다.

의료용 AI는 코로나19 팬데믹의 영향을 받았습니다. 팬데믹은 이 보고서의 초점은 아니지만, 보건용 AI와 관련된 기회와 과제를 잘 보여줍니다. 팬데믹에 대응하기 위한 수많은 새로운 애플리케이션이 등장한 반면, 일부 애플리케이션은 효과가 없는 것으로 밝혀졌습니다. 몇몇 애플리케이션은 감시, 프라이버시 및 자율권 침해, 건강 및 사회적 불평등, 데이터 집약적 애플리케이션의 신뢰 및 합법적 사용에 필요한 조건과 관련하여 윤리적 문제를 제기했습니다. 전문가 그룹은 이 보고서를 심의하는 동안 코로나19 접촉자 추적을 위한 근접 추적 애플리케이션 사용에 대한 임시 WHO 지침을 마련했습니다.

건강을 위한 AI 사용의 주요 윤리적 원칙

이 보고서는 일련의 주요 윤리적 원칙을 지지합니다. WHO는 이러한 원칙이 정부, 기술 개발자, 기업, 시민 사회 및 정부 간 조직이 보건을 위한 적절한 AI 사용에 대한 윤리적 접근 방식을 채택하는 데 기초로 활용되기를 희망합니다. 6가지 원칙은 아래에 요약되어 있으며 섹션 5에서 자세히 설명합니다.

인간의 자율성 보호: AI를 사용하면 의사 결정 권한이 기계로 이전될 수 있는 상황이 발생할 수 있습니다. 자율성 원칙은 AI 또는 기타 계산 시스템의 사용이 인간의 자율성을 훼손하지 않아야 한다는 것을 요구합니다. 이는 의료 서비스의 맥락에서 인간이 의료 시스템과 의료 결정을 계속 통제해야 함을 의미합니다. 인간의 자율성을 존중하려면 의료진이 안전하고 효과적인 AI 시스템 사용에 필요한 정보를 제공하고, 사람들이 이러한 시스템이 자신의 치료에서 수행하는 역할을 이해하도록 보장하는 관련 의무도 수반되어야 합니다. 또한 개인정보와 기밀을 보호하고 데이터 보호를 위한 적절한 법적 프레임워크를 통해 유효한 사전 동의를 얻어야 합니다.

인간의 복지와 안전 및 공익 증진. AI 기술은 사람에게 해를 끼쳐서는 안 됩니다. AI 기술 설계자는 잘 정의된 사용 사례 또는 적응증에 대한 안전성, 정확성 및 효능에 대한 규제 요건을 충족해야 합니다. 실제 품질 관리와 시간이 지남에 따라 AI 사용의 품질 개선에 대한 측정이 가능해야 합니다. 피해를 예방하려면 AI가 대체 관행이나 접근 방식을 사용하여 피할 수 있는 정신적 또는 신체적 피해를 초래하지 않아야 합니다.

투명성, 설명 가능성 및 명료성 보장. AI 기술은 개발자, 의료 전문가, 환자, 사용자 및 규제 당국이 이해할 수 있거나 이해할 수 있어야 합니다. 명확성을 위한 두 가지 접근 방식은 AI 기술의 투명성을 개선하는 것과 AI 기술을 설명할 수 있게 만드는 것입니다. 투명성을 높이려면 AI 기술을 설계하거나 배포하기 전에 충분한 정보를 공개하거나 문서화해야 하며, 이러한 정보를 통해 기술이 어떻게 설계되고 어떻게 사용되어야 하는지 또는 사용되지 않아야 하는지에 대한 의미 있는 대중의 협의와 토론을 촉진할 수 있어야 합니다. AI 기술은 설명받는 사람의 역량에 따라 설명할 수 있어야 합니다.

책임과 의무의식 고취. 인간은 시스템이 수행할 수 있는 작업과 원하는 성능을 달성할 수 있는 조건에 대해 명확하고 투명한 사양을 요구합니다. AI 기술이 특정 작업을 수행하더라도 해당 작업을 수행할 수 있는지, 적절한 조건에서 적절한 교육을 받은 사람이 AI를 사용하는지 확인하는 것은 이해관계자의 책임입니다. 이러한 책임은 AI 기술의 개발 및 배포에 있어 환자와 임상의의 평가를 의미하는 "인간 보증"을 적용함으로써 보장될 수 있습니다. 휴먼 워런티는 사람이 감독하는 지점을 설정하여 알고리즘의 업스트림과 다운스트림에 규제 원칙을 적용해야 합니다. AI 기술에 문제가 발생하면 책임 소재가 분명해야 합니다. 알고리즘에 기반한 결정으로 인해 부정적인 영향을 받은 개인과 집단에 대해 의문을 제기하고 구제할 수 있는 적절한 메커니즘이 마련되어야 합니다.

포용성과 형평성 보장. 포용성은 연령, 성별, 소득, 인종, 민족, 성적 지향, 능력 또는 인권 규범에 따라 보호되는 기타 특성에 관계없이 최대한 광범위하고 적절하며 공평한 사용과 접근을 장려하도록 보건용 AI를 설계할 것을 요구합니다. AI 기술은 다른 기술과 마찬가지로 가능한 한 널리 공유되어야 합니다. AI 기술은 고소득 환경의 상황과 필요뿐만 아니라 LMIC의 역량과 다양성을 고려한 상황에서 사용할 수 있어야 합니다. AI 기술은 식별 가능한 집단, 특히 이미 소외된 집단에 불리한 편견을 인코딩해서는 안 됩니다. 편견은 평등한 대우에서 자의적으로 벗어날 수 있기 때문에 포용성과 형평성에 위협이 됩니다. AI 기술은 의료 제공자와 환자, 정책 입안자와 국민, AI 기술을 개발 및 배포하는 기업과 정부, 그리고 이를 사용하거나 의존하는 기업 간에 발생하는 불가피한 권력 격차를 최소화해야 합니다. AI 도구와 시스템을 모니터링하고 평가하여 특정 집단에 대한 불균형적인 영향을 파악해야 합니다. AI를 비롯한 어떤 기술도 기존의 편견과 차별을 유지하거나 악화시켜서는 안 됩니다.

반응성이 뛰어나고 지속 가능한 AI를 장려합니다. 응답성을 높이려면 설계자, 개발자, 사용자가 실제 사용 중에 AI 애플리케이션을 지속적이고 체계적이며 투명하게 평가해야 합니다. 이들은 AI가 전달된 정당한 기대와 요구사항에 따라 적절하고 적절하게 반응하는지 여부를 판단해야 합니다. 또한 대응성을 높이려면 AI 기술이 보건 시스템, 환경 및 작업장의 지속 가능성을 폭넓게 증진하는 것과 일관성을 유지해야 합니다. AI 시스템은 환경에 미치는 영향을 최소화하고 에너지 효율성을 높이도록 설계되어야 합니다. 즉, AI의 사용은 인간이 지구 환경, 생태계, 기후에 미치는 영향을 줄이기 위한 전 세계적인 노력과 일치해야 합니다. 또한 지속 가능성을 위해 정부와 기업은 의료 종사자가 AI 시스템 사용에 적응할 수 있도록 교육하고, 자동화 시스템 사용으로 인한 잠재적 일자리 손실 등 직장에서 예상되는 혼란을 해결해야 합니다.

보고서 개요

이 보고서는 9개의 섹션과 부록으로 구성되어 있습니다.

섹션 1에서는 WHO가 이 주제에 관여하게 된 근거와 보고서의 조사 결과, 분석 및 권장 사항의 대상 독자를 설명합니다.

섹션 2섹션 3에서는 방법과 적용 사례를 통해 보건용 AI를 정의합니다. 섹션 2에서는 AI 기술의 하위 집합으로서 여러 형태의 머신러닝을 포함하는 AI에 대한 비기술적 정의를 제공합니다. 또한 생물의학 또는 건강 빅데이터를 구성하는 데이터 소스를 포함하여 '빅데이터'를 정의합니다.

섹션 3에서는 의학, 보건 연구, 신약 개발, 보건 시스템 관리 및 계획, 공중 보건 감시 등 LMIC에서 사용되는 애플리케이션을 포함하여 보건용 AI 기술의 포괄적이지 않은 분류와 사례를 제공합니다.

섹션 4에서는 보건용 AI 사용에 적용되거나 적용될 수 있는 법률, 정책 및 원칙을 요약합니다. 여기에는 AI에 적용되는 인권 의무, 데이터 보호 법률 및 프레임워크의 역할, 기타 건강 데이터 법률 및 정책이 포함됩니다. 이 섹션에서는 보건용 AI 사용에 대한 윤리적 원칙과 윤리적 규범의 원천으로서 생명윤리, 법률, 공공 정책 및 규제 프레임워크의 역할을 권장하는 몇 가지 프레임워크에 대해 설명합니다.

섹션 5에서는 전문가 그룹이 보건용 AI의 개발 및 사용을 안내하는 6가지 윤리적 원칙을 설명합니다.

섹션 6에서는 이러한 기본 윤리 원칙을 적용할 수 있는 전문가 그룹이 식별하고 논의한 윤리적 과제를 제시합니다: AI 사용 여부, AI와 디지털 격차, 데이터 수집 및 사용, AI 의사결정에 대한 책임과 의무, 자율적 의사결정, AI와 관련된 편견과 차별, 안전 및 사이버 보안에 대한 AI의 위험, 보건의료 노동 및 고용에 대한 AI의 영향, 보건의료용 AI 상용화의 과제, AI와 기후 변화. 보고서의 마지막 섹션에서는 적절한 거버넌스 프레임워크를 포함하여 의료용 AI의 윤리적 사용을 촉진하기 위한 법적, 규제적, 비법적 조치를 식별합니다. 권장 사항이 제공됩니다.

섹션 7에서는 다양한 이해관계자가 윤리적 규범과 법적 의무를 예측하거나 충족하기 위해 윤리적 관행, 프로그램 및 조치를 도입할 수 있는 방법을 검토합니다. 여기에는 윤리적이고 투명한 AI 기술 설계, 대중의 참여와 역할을 위한 메커니즘, 의료진 및 환자와의 신뢰성 입증, 영향 평가, 의료용 AI의 윤리적 사용을 위한 연구 의제가 포함됩니다.

섹션 8에서는 의료 분야에서 AI 사용이 증가함에 따라 책임 제도가 어떻게 발전할 수 있는지에 대해 논의합니다. 여기에는 의료 서비스 제공자, 기술 제공자, AI 기술을 선택하는 의료 시스템 또는 병원에 책임을 부여하는 방법과 책임 규정이 의사가 AI를 사용하는 방식에 어떤 영향을 미칠 수 있는지에 대한 내용이 포함됩니다. 또한 이 섹션에서는 머신러닝 알고리즘이 제품인지 여부, AI 기술로 인해 피해를 입은 개인에게 보상하는 방법, 규제 기관의 역할 및 LMIC에 대한 구체적인 측면을 고려합니다.

섹션 9에서는 보건용 AI를 위한 거버넌스 프레임워크의 요소를 제시합니다. "보건 거버넌스"는 보편적 의료 보장에 도움이 되는 국가 보건 정책 목표를 달성하기 위해 국제 보건 기관을 포함한 정부 및 기타 의사 결정권자의 조정 및 규칙 결정을 위한 다양한 기능을 의미합니다. 이 섹션에서는 개발 중이거나 이미 성숙된 여러 거버넌스 프레임워크를 분석합니다. 데이터 거버넌스, 통제 및 이익 공유, 민간 부문 거버넌스, 공공 부문 거버넌스, 규제 고려 사항, 정책 관측소의 역할 및 모범 법률, AI의 글로벌 거버넌스 등이 논의됩니다.

마지막으로, 이 보고서는 세 가지 이해관계자를 위해 WHO 지침을 이행하기 위한 실용적인 조언을 제공합니다: AI 기술 개발자, 보건부, 의료 서비스 제공자. 이 고려사항은 다양한 이해관계자가 상황에 맞는 논의와 결정을 내리기 위한 출발점으로만 활용될 수 있습니다.

이 지침 문서의 주요 독자는 보건부이지만, 다른 정부 기관, AI를 규제할 부처, 보건을 위해 AI 기술을 사용하는 사람, 보건을 위해 AI 기술을 설계하고 자금을 조달하는 단체를 대상으로도 합니다.

이 지침을 이행하려면 집단적인 행동이 필요합니다. 기업과 정부는 부당한 감시나 관련 없는 상업적 상품 및 서비스 판매 증가와 같은 목적이 아닌 인간의 상태를 개선하기 위해서만 AI 기술을 도입해야 합니다. 의료 서비스 제공자는 적절한 기술을 요구하고 이를 사용하여 AI의 잠재력과 임상의의 전문성을 극대화해야 합니다. 환자, 지역사회 단체, 시민사회는 정부와 기업에 책임을 묻고, 기술과 규칙 설계에 참여하고, 새로운 표준과 접근법을 개발하고, 자신과 지역사회 및 의료 시스템의 필요를 충족하기 위해 투명성을 요구하고 추구할 수 있어야 합니다.

보건용 AI는 빠르게 변화하고 진화하는 분야이며, 아직 상상하지 못했던 많은 응용 분야가 공공 및 민간 투자 확대와 함께 등장할 것입니다. WHO는 추가 도구 및 애플리케이션에 대한 구체적인 지침을 발표하는 것을 고려할 수 있으며, 빠르게 변화하는 이 분야에 발맞추기 위해 이 지침을 주기적으로 업데이트할 수 있습니다.

https://www.who.int/publications/i/item/9789240029200

이 블로그의 인기 게시물

대규모 언어 모델(LLM : Large Language Models) 연구 동향

장애인 접근성 향상을 지원하는 AI

유럽 최고의 여름 여행지 추천

메타, 2023년 트렌드 보고서 - 새롭게 떠오르는 문화

딜로이트, 2023 글로벌 그린수소 시장 전망