(一)研究内容:政府使用人工智能大模型需格外谨慎,应从透明度、可审计性、可重现性等方面维护人工智能开源安全;
(二)研究结果
要点一:应进一步鼓励透明度卡的使用,以提供更好的透明度。
要点二:AI模型出处和设计的开放性,允许政府、企业、公民等各类消费者更好地理解模型结果的可信度。
要点三:关于模型、数据集和权重的更多信息可允许第三方对模型进行审计和安全研究。
要点四:CISA可以支持国会图书馆授予独立研究人员访问AI 训练数据和模型的DMCA豁免权。
要点五:政府在选择使用的模型时,应评估其透明度和开放度。
要点六:政府在AI生态系统中具有独特地位和观点,应考虑参与适当的工作组。
要点七:应该收集和发布额外的数据,以便在事后更好地复制和验证模型。
(三)建议
CISA强调“可重现构建”的重要性,并应鼓励开源 AI 模型提高透明度、可审计性和可重现性,包括提供有关模型、数据以及底层数据集的信息。