笔灵AI论文写作
当前位置:首页>AI资讯>OpenAI 发帖介绍如何确保 AI 安全:监管是必要的,从实际使用中学习预防风险

OpenAI 发帖介绍如何确保 AI 安全:监管是必要的,从实际使用中学习预防风险

4 月 6 日消息,美国当地时间周三,OpenAI 发帖,详细介绍了其确保 AI 安全的方法,包括进行安全评估、改进发布后的保障措施、保护儿童以及尊重隐私等。该公司表示,确保 AI 系统的构建、部署和安全使用对实现其使命至关重要。

以下是 OpenAI 帖子的全文:

OpenAI 致力于确保强大的 AI 安全,让尽可能多的人受益。我们知道,我们的 AI 工具为当今人们提供了许多帮助。世界各地的用户向我们反馈,ChatGPT 有助于提高他们的工作效率、增强他们的创造力,并提供量身定制的学习体验。但我们也认识到,与任何技术一样,这些工具也存在真正的风险。因此,我们正在努力确保在各个系统层面上的安全性。

打造更加安全的人工智能系统

在推出任何新的人工智能系统之前,我们都会进行严格的测试,征求外部专家的意见,并通过人工反馈的强化学习等技术来改善模型的表现。同时,我们还建立了广泛的安全和监控系统。

以我们最新的模型 GPT-4 为例,完成训练后,我们在整个公司范围内进行了长达 6 个月的测试,以确保其在公开发布之前更加安全可靠。

我们认为,强大的人工智能系统应该接受严格的安全评估。监管是必要的,以确保这种做法被广泛采纳。因此,我们积极与各国政府接触,探讨最佳的监管形式。

从实际使用中学习,提高保障措施

我们尽力在系统部署之前预防可预见的风险,但实验室中的学习永远有限。我们广泛研究和测试,但无法预测人们会如何使用我们的技术,或滥用它。因此,我们认为从实际使用中学习,是创建和发布越来越安全的人工智能系统的关键组成部分

我们谨慎地将新的人工智能系统逐步发布给人群,并采取实质性的保障措施,并根据我们吸取的教训不断改进。

我们提供自己服务和 API 中最强大的模型,以便开发人员可以直接将技术集成到他们的应用程序中。这使我们能够监控滥用行为并采取行动,同时制定应对措施。这样,我们可以采取实际行动,而不仅仅在理论上想象如何应对。

实际使用中的经验也促使我们制定了越来越细化的政策,以应对对人们构成真正风险的行为,同时仍然允许我们的技术以更有益的方式使用。

我们认为,社会需要更多时间适应日益强大的人工智能,每个受其影响的人都应该在人工智能的进一步发展方面拥有发言权。迭代部署有助于不同利益相关者更有效地参与人工智能技术的对话中,而拥有使用这些工具的第一手经验至关重要。

保护儿童

我们的安全工作关注重点之一是保护儿童。我们要求使用我们的人工智能工具的人必须年满 18 岁或以上,或者在父母同意的情况下年满 13 岁或以上。目前,我们正在研究验证功能。

我们不允许我们的技术用于生成仇恨、骚扰、暴力或成人等内容。与 GPT-3.5 相比,最新的 GPT-4 对受限制内容请求做出响应的可能性降低了 82%。我们已经建立了强大的系统来监控滥用行为。GPT-4 现在可供 ChatGPT Plus 的订户使用,我们希望随着时间的推移能让更多人体验它。

我们已经采取重大措施,最大限度地减少我们的模型产生伤害儿童内容的可能性。例如,当用户试图将儿童安全虐待材料上传到我们的图像生成工具时,我们会阻止它并向国家失踪和受剥削儿童中心报告此事。

除了默认的安全防护,我们与非营利组织可汗学院 (Khan Academy) 等开发机构合作,为他们量身定制了安全措施。可汗学院已经开发了一款人工智能助手,它可以作为学生的虚拟导师,也可以作为教师的课堂助手。我们还致力于开发允许开发者为模型输出设置更严格标准的功能,以更好地支持需要此类功能的开发者和用户。

尊重隐私

我们的大型语言模型是在广泛的文本语料库上进行训练的,其中包括公开可用的内容、获得授权的内容以及由人类审核人员生成的内容。我们不利用这些数据来销售我们的服务或广告,也不用它们来建立个人档案。我们只是利用这些数据来让我们的模型更好地为人们提供帮助,例如通过与人们进行更多对话来提高 ChatGPT 的智能水平。

尽管我们的许多训练数据中包括可以在公共网络上获得的个人信息,但我们希望我们的模型了解的是整个世界,而不是个人。因此,我们致力于在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝个人信息的查询请求,并响应个人从我们的系统中删除其个人信息的请求。这些措施将我们的模型生成包含个人信息的响应的可能性降至最低。

提高事实准确性

现今的大型语言模型,基于之前的模式和用户输入的文本,可以预测下一个可能要使用的词汇。但在某些情况下,下一个最有可能出现的词汇实际上可能存在事实性错误。

提高事实准确性是 OpenAI 和许多其他 AI 研究机构关注的重点之一,我们正在取得进展。通过利用被标记为不正确的 ChatGPT 输出的用户反馈作为主要数据来源,我们提高了 GPT-4 的事实准确性。相比于 GPT-3.5,GPT-4 更可能产生符合事实的内容,提高幅度达到 40%。

当用户注册使用该工具时,我们努力做到尽可能透明,以避免 ChatGPT 可能给出错误回复。然而,我们已经认识到,要进一步降低误解的可能性,并教育公众了解这些 AI 工具目前的局限性,还有很多工作要做。

持续的研究和参与

我们认为,解决 AI 安全问题的一个切实可行方法是,投入更多的时间和资源来研究有效的缓解和校准技术,并针对现实世界可能被滥用的情况进行测试。

重要的是,我们认为提高 AI 的安全性和能力应该同时进行。我们迄今为止最好的安全工作来自于与我们最有能力的模型合作,因为它们更擅长遵循用户的指示,更容易驾驭或“引导”它们。

我们将越来越谨慎地创建和部署能力更强的模型,并将随着 AI 系统的发展而继续加强安全预防措施。

虽然我们等了 6 个多月才部署 GPT-4,以更好地了解其功能、好处和风险,但有时可能需要更长的时间来提高 AI 系统的安全性。因此,政策制定者和 AI 开发商需要确保 AI 的开发和部署在全球范围内得到有效监管,这样就没有人会为了保持领先而采取捷径。这是一项艰巨的挑战,需要技术和制度创新,但我们渴望为此做出贡献。

解决 AI 安全问题还需要广泛的辩论、实验和参与,包括为 AI 系统的行为设置界限。我们已经并将继续促进利益相关者之间的合作和开放对话,以创建更安全的 AI 生态系统。

讯飞星火桌面版
©版权声明:如无特殊说明,本站所有内容均为AIHub.cn原创发布和所有。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。否则,我站将依法保留追究相关法律责任的权利。
AI大模型产品经理孵化营
0 条回复 A文章作者 M管理员
    暂无评论内容
error: