AI 원칙 및 가이드라인
AI 원칙 및 가이드라인
이 섹션은 AI의 기본 원칙을 일상 업무에서 AI를 실제로 어떻게 적용할 수 있는지 이해하는 데 도움을 주는 것입니다.
Mission - 사명
Laerdal은 AI를 사용하여 기업의 사명, 즉, Helping Save Lives를 지원합니다.
사명을 위한 가이드라인
Helping Save Lives
Laerdal 제품 또는 서비스에 사용되는 모든 AI 솔루션은 직접적으로든 간접적으로든, 회사의 전체적인 사명(Mission)인 Helping save lives에 기여해야 합니다.
Trust - 신뢰
Laerdal은 사용자, 고객 및 파트너가 제품과 서비스를 신뢰할 수 있도록 하며, AI가 솔루션의 일부로 포함될 경우 사용자에게 항상 적절한 정보를 제공하는 것을 목표로 합니다.
신뢰를 위한 가이드라인
투명성
Laerdal은 고객 대상 제품에서 AI 사용에 대해 투명성을 유지하며, 사용자, 고객 및 파트너에게 필요한 정보를 제공하고, 다음과 같은 내용을 포함합니다.
- 사마리아인: 고급 데이터 처리 또는 AI로 강화된 Laerdal의 모든 제품과 서비스에는 사용자에게 정보를 제공하기 위해 사마리아인 아이콘이 장착되어 있어야 합니다.
- 시스템 개요: 협력자 및 이해관계자에게 AI 솔루션에 필요한 통찰 수준을 확립하기 위해 시스템 아키텍처 다이어그램이 제공됩니다.
인간의 역할
Laerdal은 AI의 개발 및 사용과 관련하여 인간의 역할을 깊이 인식하고 있으며, 결국 인간이 책임을 진다는 것을 인정합니다.
- 인공지능(AI)을 통한 인간 지원: 인공지능 솔루션이 인간의 작업을 지원할 때, 해당 솔루션은 의도한 대로 작동해야 하며, 개발 및 테스트를 담당한 사람들은 품질에 대한 책임을 져야 합니다. 그러나 AI 솔루션을 기반으로 수행된 행동에 대한 책임은 여전히 도움을 받는 인간에게 있습니다.
- AI를 활용한 자동화: AI 솔루션이 작업을 자동화하는 방식으로 적용되고 인간이 직접 관여하지 않을 때, 품질과 의도하지 않은 이벤트의 결과 분석에 특별한 주의가 필요합니다. 또한, AI 솔루션에 대한 최종 책임은 인간에게 있으므로, 정기적인 검토와 조정이 반드시 이루어져야 합니다.
- 인간의 주체성: AI 솔루션의 목적에 따라 가능한 경우, Laerdal은 사용자에게 제어와 참여를 위한 합리적인 옵션을 제공하기 위해 노력합니다. 예를 들어 일시 중지, 선택적 탈퇴, 취소 및 AI 솔루션의 측면을 무시할 수 있는 기능을 제공합니다.
품질 보장을 위한 테스트
Laerdal의 모든 AI 솔루션은 의도치 않은 사고의 발생 가능성과 그 결과에 비례하여 테스트됩니다. 여기에는 다음이 포함됩니다.
- 소프트웨어 테스트: 모든 소프트웨어와 마찬가지로 전통적인 테스트, 자동화 및 내부 인간 기반 테스트를 포함하며, 첫 번째 릴리스 전 테스트와 후속 릴리스를 위한 회귀 테스트도 포함됩니다.
- 사용자 테스트: 실제 사용자가 개발에 대한 가정을 테스트하고 사각지대를 피하기 위해 테스트합니다.
- 훈련된 모델 테스트: AI 솔루션의 일환으로 맞춤형 머신러닝 모델이 훈련된 경우, 과적합으로 인한 오해의 소지가 있는 긍정적 성능 지표를 피하기 위해 데이터 분할을 통해 테스트 데이터셋에 대한 머신러닝 특정 평가로 품질을 평가해야 합니다.
- 사고 예측: 테스트에서 발견된 문제점 외에도, AI 솔루션을 검토하고 가장 관련성이 높은 사고 위험을 식별해야 합니다.
출시 후 개선 사항: Laerdal은 제품을 지속적으로 개선하기 위해 노력하며, 제품이 처음 출시된 후에도 사용자 반응과 테스트 결과를 수집하려고 합니다.
운영 관리
Laerdal에서 운영 환경에 배포된 모든 AI 솔루션 중 사용자에게 영향을 미치는 솔루션은 안정적인 운영과 신속한 문제 해결을 위해 모니터링되고 추적되어야 합니다. 여기에는 다음이 포함됩니다.
- 버전 관리: AI 솔루션의 각 구성 요소의 버전을 항상 정확하게 식별할 수 있어야 합니다. 이것은 디지털 솔루션이 버전 관리 하에 있음을 의미합니다.
- 로그 기록: AI 솔루션이 문제 해결, 의도치 않은 사고 조사 및 책임성을 보장하기 위해 항상 활동 로그를 남겨야 합니다.
- 모니터링: AI 솔루션은 운영 중 모니터링되어야 하며, 서비스가 정상적으로 작동하고 의도한 대로 운영되고 있는지, 그리고 AI 성능이 시간이 지남에 따라 저하되지 않는지 확인해야 합니다. 모니터링에는 원치 않는 또는 비정상적인 이벤트를 알리기 위한 경고가 포함되어야 합니다.
- 책임성: Laerdal은 AI 기반 제품 및 서비스의 개발, 출시 및 운영 과정에서 명확한 역할과 책임을 가지고 있으며, 사용자는 피드백을 제공하고 사고를 보고할 수 있는 기회를 가져야 합니다.
데이터 보호
고객이 직접 사용하는 제품의 개발 및 운영, 그리고 내부 솔루션의 모든 활동은 사용자, 고객 및 파트너가 Laerdal의 데이터 보호에 대한 신뢰를 유지할 수 있도록 수행되어야 합니다. 여기에는 다음이 포함됩니다.
- 데이터 안전 서비스: AI의 사용은 고객 대상이든 내부적이든, 데이터가 안전하지 않은 환경에서 공유되지 않도록 해야 합니다. 외부 서비스를 사용하기 전에 기존 승인 절차를 따라야 합니다.
- 법적 기준: Laerdal이 AI를 사용하는 모든 경우, 법적 규정 및 관련 기준을 준수해야 합니다. "규정 준수를 위한 가이드라인"에 대한 하위 섹션을 참조하세요.
기술 공급업체
Laerdal은 주요 클라우드 공급업체를 포함하되 이에 국한되지 않고, 다양한 기술 공급업체를 사용하여 AI 솔루션을 개발하고 있습니다. Laerdal은 모든 기술 공급업체에 대해 다음을 보장하기 위해 최선을 다하고 있습니다.
- 소싱: 기술 공급업체는 기존 회사 프로세스에 따라 선정되어야 하며, 소프트웨어와 공급업체 모두를 평가해야 합니다.
- 법률 및 기준: Laerdal이 AI를 사용하는 모든 경우, 법적 규정 및 관련 기준을 준수해야 합니다. "규정 준수를 위한 가이드라인"에 대한 하위 섹션을 참조하세요.
Fairness - 공정성
Laerdal은 모든 개인과 그룹에게 공정성을 보장하기 위해 노력하며, AI 솔루션에서 차별과 편향을 방지하기 위해 적극적으로 노력하고 있습니다.
공정성을 위한 가이드라인
평등
평등과 공정성은 Laerdal에게 필수적입니다. 이는 기술이 사용자의 배경에 관계없이 모든 사용자에게 공평한 결과를 제공하도록 보장하기 때문입니다. 이를 보장하기 위해 모든 AI 솔루션은 윤리적 고려 사항, 조사, 및 기능에 따라 검토되어야 합니다. 측면에는 다음이 포함됩니다.
- 보편적 디자인: AI 솔루션은 보편적 디자인 원칙을 목표로 합니다. 즉, 연령, 능력, 또는 지위와 관계없이 모든 사람을 위해 설계된다는 것을 의미합니다. 여기에는 접근성에 대한 주의가 포함됩니다.
- 편향: 개발 및 테스트 과정에서 Laerdal은 잠재적인 편향을 평가하고, 식별된 문제를 해결하기 위해 필요한 조사 및 완화 조치를 수행합니다.
- 피드백 옵션: Laerdal은 사용자가 AI 솔루션이 공정성에 문제가 있다고 생각할 경우 피드백을 제공할 수 있도록 하는 것을 목표로 합니다.
Compliance - 규정 준수
Laerdal은 AI 솔루션 및 관련 데이터에 대한 법적 요건과 표준을 준수하며, 데이터 프라이버시 및 정보 보안과 관련된 위험을 최소화하기 위해 지속적으로 노력합니다.
규정 준수를 위한 가이드라인
인공지능
AI 솔루션의 모든 개발 및 운영은 AI 사용에 관한 관련 법률과 표준의 요구 사항을 충족해야 합니다. 작업을 보장하고 용이하게 하기 위해서 다음을 수행합니다.
- AI 솔루션 평가: AI 솔루션이 포함된 고객 대상 제품이나 서비스의 경우, 검토 및 승인을 위한 지식 기반을 형성하기 위해 AI 솔루션에 대한 평가를 실시하는 것이 권장됩니다.
- 전문성: 고객을 대상으로 하는 제품 및 서비스에 대해 AI의 규정 준수 측면에 대한 평가는 법률 전문가 또는 관련 분야 전문가와 협력하여 수행됩니다. 내부 AI 솔루션에 대해서는 의심이 있을 경우 전문가의 조언을 구하는 것이 좋습니다.
데이터 프라이버시
AI 솔루션의 모든 개발 및 운영은 데이터 프라이버시에 관한 관련 법률과 표준의 요구 사항을 충족해야 합니다. 작업을 보장하고 용이하게 하기 위해서 다음을 수행합니다.
- 개인정보 보호 설계: 모든 제품 및 서비스는 초기 개발 단계부터 프라이버시 고려 사항을 통합하여 사전에 개인정보 위험을 최소화해야 합니다.
- 계약의 명확성: 데이터 저장 또는 처리를 수행하는 제품 및 서비스는 Laerdal과 고객 또는 고객 접점 파트너 간의 관련 계약 조건 및 Laerdal과 기술 공급업체 간의 계약 조건에 따라 수행되어야 합니다. 이를 보장하기 위해 계약 환경에 대한 명확한 개요가 확립되었습니다.
- 프라이버시 영향 평가: 특정 제품 또는 서비스의 개인정보에 미치는 영향은 프라이버시 영향 평가(PIA)를 통해 평가됩니다.
- 전문성: 고객 대상 제품 및 서비스에 대한 데이터 프라이버시의 규정 준수 평가를 법률 전문가 또는 관련 분야 전문가와 협력하여 수행합니다. 내부 AI 솔루션에 대해서는 의심이 있을 경우 전문가의 조언을 구하는 것이 좋습니다.
정보 보안
Laerdal의 모든 제품과 서비스는 정보 보안을 보장하고 데이터 유출 및 보안 침해로부터 보호해야 합니다. 과정을 보장하고 용이하게 하기 위해서 다음을 수행합니다.
- 안전한 소프트웨어 개발: 모든 제품 및 서비스는 개발 초기부터 보안 고려 사항을 통합하여 보안 위험을 사전에 최소화해야 합니다.
- 전문성: 정보 보안 평가에 대한 지원이 권장됩니다.
Sustainability - 지속 가능성
Laerdal은 지속 가능성 목표에 부합하는 AI 기반 제품 및 서비스를 개발하는 데 최선을 다하고 있습니다.
지속 가능성을 위한 가이드라인
탄소 중립
Laerdal의 지속 가능성 목표에 따라, AI 솔루션 개발은 환경적 영향을 최소화하는 데 중점을 두어야 합니다.
- 제품 개발에서의 CO2: 제품 및 서비스의 예상 CO2 배출량을 조기에 평가하고 이를 평가 과정에 반영해야 합니다.
- 지속적으로 CO2 감소: Laerdal은 다양한 AI 솔루션이 서로 다른 탄소 발자국을 가지고 있음을 인식하며 이용 가능한 가장 환경 친화적인 옵션을 채택하기 위해 노력하고 있습니다.
- 보고: Laerdal은 자사의 지속 가능성 업데이트에서 제품 및 서비스와 관련된 이산화탄소(CO2) 배출량을 정기적으로 보고합니다.