AI 创业公司 Anthropic 正在修改其政策,至少在某些情况下允许未成年人使用其生成式 AI 系统。

公司在周五官方博客的一篇文章中宣布,Anthropic 将开始允许青少年和儿童使用由其 AI 模型驱动的第三方应用程序(但不一定是自己的应用程序),只要这些应用的开发者实施特定的安全功能,并向用户披露他们正在利用的 Anthropic 技术。

在一篇支持文章中,Anthropic 列出了为未成年人创建 AI 驱动应用的开发者应包括的几项安全措施,如年龄验证系统、内容审核和过滤以及关于未成年人“安全和负责任”使用 AI 的教育资源。该公司还表示,它可能会提供旨在为未成年人量身定制 AI 产品体验的“技术措施”,如开发者针对未成年人时必须实施的“儿童安全系统提示”。

使用 Anthropic AI 模型的开发者还必须遵守“适用”的儿童安全和数据隐私法规,例如保护 13 岁以下儿童在线隐私的美国联邦法律——儿童在线隐私保护法 (COPPA)。Anthropic 表示计划“定期”审查应用的合规性,对反复违反合规要求的账户进行暂停或终止,并要求开发者在面向公众的网站或文档上“明确说明”他们的合规情况。

Anthropic 在文章中写道:“有一些使用案例,AI 工具可以为年轻用户提供显著的好处,如考试准备或辅导支持。”考虑到这一点,我们更新的政策允许组织将我们的 API 整合到他们针对未成年人的产品中。”

随着儿童和青少年越来越多地转向生成式 AI 工具寻求学校作业和个人问题的帮助,以及竞争对手生成式 AI 供应商——包括谷歌和 OpenAI ——正在探索针对儿童的更多用例,Anthropic 的政策变动正逢其时。今年,OpenAI 成立了一个新团队来研究儿童安全,并宣布与 Common Sense Media 合作,共同制定适合儿童的 AI 指南。谷歌也使其聊天机器人 Bard(重新命名为 Gemini)在选定地区的英语环境中向青少年开放。

根据民主与技术中心的一项民意调查,29% 的儿童报告说他们使用了生成式 AI(如 OpenAI 的 ChatGPT)来应对焦虑或心理健康问题,22% 用于解决与朋友的问题,16% 用于家庭冲突。

去年夏天,学校和学院急忙禁止使用生成式 AI 应用程序——特别是 ChatGPT——因为担心抄袭和错误信息的问题。从那以后,一些学校已经撤销了这些禁令。但并非所有人都相信生成式 AI 的潜力,他们指出了一些调查,如英国更安全互联网中心的调查,该调查发现超过一半的儿童(53%)报告说他们看到同龄人以负面方式使用生成式 AI——例如制作令人信服的虚假信息或图片以伤害他人(包括色情换脸视频)。

对于制定儿童使用生成式 AI 的指南的呼声正在增加。

联合国教科文组织(UNESCO)去年晚些时候推动各国政府对教育中使用生成式 AI 进行监管,包括为用户设置年龄限制,并对数据保护和用户隐私设置保护措施。联合国教科文组织总干事奥德丽·阿祖莱(Audrey Azoulay)在一份新闻稿中表示:“生成式 AI 可以是人类发展的巨大机会,但也可能造成伤害和偏见。没有公众参与和政府必要的保护措施与法规,它不能被整合到教育中。”

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注