跳转至内容页
打开网站导航

AI Principles and Guidelines

 

人工智能原则与指南

本节致力于将总体人工智能原则转化为日常人工智能工作中的具体实践应用。

使命

Laerdal 使用人工智能以支持“帮助拯救生命”之使命。

 

使命实施指南

帮助拯救生命

Laerdal 产品或服务中使用的任何人工智能解决方案,无论是直接还是间接,都必须支持公司的总体使命——帮助拯救生命。

信任

Laerdal 始终致力于确保用户、客户以及合作伙伴对我们所提供的产品和服务抱有充分的信任。同时,当人工智能技术融入到解决方案之中时,我们也会确保用户能够及时且适当地获取到相关的信息告知。

 

信任实践指南

透明

Laerdal 在客户产品中运用人工智能时秉持透明原则,并为用户、客户以及合作伙伴提供所需信息,具体如下:

  • Samaritan™:Laerdal 所有经由高级数据处理或人工智能赋能的产品和服务,均配备 Samaritan™ 图标,以此告知用户。
  • 系统概览:向合作方及利益相关者提供系统架构图,助力其深入洞察人工智能解决方案。

 

人的作用

Laerdal 深知人在人工智能开发与应用中的关键地位,并明确人肩负着最终责任:

  • 人工智能辅助人:当人工智能解决方案助力人完成任务时,该解决方案必须按既定目标运行,其开发与测试团队需对质量负责。然而,使用该解决方案的人仍需对其基于该方案所做决策及行动后果负责。
  • 人工智能自动化:若人工智能解决方案用于自动化任务且无人直接介入,需格外关注其质量与可能产生的意外后果。此外,必须定期开展审查与调整工作,因为人始终对人工智能解决方案负有最终责任。
  • 人的能动性:在人工智能解决方案目的允许的范围内,Laerdal 尽可能为人提供合理的控制与参与选项,例如暂停、退出、撤销以及驳回该解决方案的某些方面。

 

测试以确保质量

Laerdal 的所有人工智能解决方案均依据意外事件发生的可能性及其后果的严重程度进行相应测试,具体包括:

  • 软件测试:采用传统软件测试方法,涵盖自动化测试、内部人工测试,以及首次发布前和后续发布的回归测试。
  • 用户测试:通过真实用户进行测试,以验证开发过程中的假设并避免潜在盲点。
  • 测试训练模型:若人工智能解决方案中包含自定义机器学习模型训练,必须在测试数据集上运用机器学习特定评估方法进行质量检测,防止因过拟合产生误导性的积极性能指标。  
  • 事件预测:除测试过程中发现的问题外,还需对人工智能解决方案进行全面审查,识别最相关的潜在事件风险。
  • 发布后改进:Laerdal 始终致力于产品持续改进,在产品最初发布后,积极收集用户反馈与测试结果,以推动产品优化升级。

 

运营治理

Laerdal 部署的所有影响用户的人工智能解决方案,必须进行严格监控与追溯,以确保稳健运营并实现快速故障排除,具体措施包括:

  • 版本控制:必须能够精准识别每个组件的版本,确保数字解决方案处于有效版本控制之下。
  • 日志记录:全程记录人工智能解决方案的活动日志,以便进行故障排除、调查意外事件并落实问责制。
  • 监控:在运营期间持续监控人工智能解决方案,确保服务正常运行、按预期工作,并防止人工智能性能随时间下降。监控系统应包含警报功能,及时通知相关人员任何不期望或异常事件。
  • 问责制:在人工智能驱动的产品和服务的开发、发布与运营过程中,Laerdal 明确各角色职责与问责机制,同时为用户提供反馈渠道及事件报告途径。

 

数据保护

所有面向客户的产品开发与运营,以及内部解决方案,均需以维护用户、客户及合作伙伴对 Laerdal 数据保护能力的信任为前提,具体要求如下:

  • 数据安全服务:无论是面向客户还是内部使用的人工智能应用,都必须确保数据不被共享至不安全环境。使用外部服务时,必须遵循既定审批流程。
  • 法律标准:Laerdal 的所有人工智能应用必须严格遵守相关法规与标准,具体可参见 “合规指南” 子部分。

 

技术供应商

Laerdal 与不同技术供应商合作开发人工智能解决方案,涵盖但不限于主要云服务提供商。对于所有技术供应商,Laerdal 承诺确保以下事项:

  • 采购:依据公司现有流程对技术供应商进行采购,全面评估软件及供应商资质。
  • 法律和标准:Laerdal 的所有人工智能应用必须严格遵守相关法规与标准,具体可参见 “合规指南” 子部分。

公平

Laerdal 努力确保对所有个体和群体的公平性,积极防止我们的人工智能解决方案中出现歧视和偏见。

 

公平保障指南

平等

平等与公平对于Laerdal至关重要,这确保了技术能够为所有用户带来公平的结果,无论他们的背景如何。为了确保这一点,任何人工智能解决方案都必须接受伦理考量、调查和评估。具体方面包括:

  • 通用设计:人工智能解决方案遵循通用设计原则,即为所有人设计,无论年龄、能力或地位如何。这包括对无障碍性的关注。
  • 偏见评估:在开发和测试过程中,Laerdal会评估潜在的偏见,并实施必要的调查和缓解措施来解决任何发现的问题。
  • 反馈选项:Laerdal致力于让用户能够提供反馈,如果他们认为人工智能解决方案存在公平性问题。

合规性

Laerdal 确保人工智能解决方案及相关数据符合法律要求和标准,并持续努力最小化数据隐私和信息安全风险。

 

合规性指南

人工智能

所有人工智能解决方案的开发和运营都必须满足相关法律法规对人工智能使用的要求。为确保这一点并简化工作流程:

  • 人工智能解决方案评估:建议对任何面向客户的产品或服务中的人工智能解决方案进行评估,形成供审查和批准的知识基础。
  • 专业性:对于面向客户的产品和服务,与法律专家或其他相关领域专家合作,对人工智能的合规性进行评估。对于内部人工智能解决方案,如有疑问,建议寻求专业意见。

 

数据隐私

所有人工智能解决方案的开发和运营都必须满足相关法律法规对数据隐私的要求。为确保这一点并简化工作流程:

  • 隐私设计:所有产品和服务都必须从开发之初就融入隐私考量,从而主动最小化隐私风险。
  • 合同清晰:存储或处理数据的产品和服务必须按照 Laerdal 与客户或面向客户的合作伙伴以及技术供应商之间的相关合同协议进行操作。为此,建立了清晰的合同全景图。
  • 隐私影响评估:通过隐私影响评估(PIA)来确定特定产品或服务对隐私的影响。
  • 专业性:对于面向客户的产品和服务,与法律专家或其他相关领域专家合作,对数据隐私的合规性进行评估。对于内部人工智能解决方案,如有疑问,建议寻求专业意见。

 

信息安全

Laerdal 的所有产品和服务都必须确保信息安全,防止数据泄露和安全漏洞。为确保这一点并简化流程:

  • 安全软件开发:所有产品和服务都必须从开发之初就融入安全考量,从而主动最小化安全风险。
  • 专业性:建议对信息安全进行评估。

可持续性

Laerdal 致力于开发与我们的可持续发展目标相一致的人工智能产品和服务。

 

可持续性指南

碳中和

与Laerdal的可持续发展目标一致,人工智能解决方案的开发应专注于减少对环境的影响:

  • 产品开发中的碳排放:必须尽早评估产品和服务预期的二氧化碳排放,并将其纳入评估过程。
  • 持续降低碳排放:鉴于不同人工智能解决方案的碳足迹各不相同,Laerdal 力求采用最环保的可用选项。
  • 报告:Laerdal 会定期在公司的可持续发展报告中,公布我们产品和服务相关的碳排放数据。