美国全国总检察长协会(NAAG)已向包括OpenAI、Anthropic、苹果和Meta在内的13家人工智能公司致函,要求加强防护措施,保护儿童免受不当及有害内容侵害。
该协会警告称,儿童正通过”调情式”AI聊天机器人接触性暗示内容。
“让儿童接触性化内容是不可原谅的,”总检察长们在信中写道,”如果是人类实施,可能构成违法甚至犯罪的行为,不能因为由机器实施就变得情有可原。”
信中还类比了社交媒体的崛起,指出政府机构未能充分揭示其对儿童的负面影响。
“社交媒体平台对儿童造成重大伤害,部分原因是政府监管机构未能及时履行职责。教训深刻。人工智能的潜在危害与其潜在益处一样,都远超社交媒体的影响。”
儿童使用AI的现象十分普遍。美国非营利组织Common Sense Media调查显示,截至2024年,七成青少年尝试过生成式AI。2025年7月的调查发现,超过四分之三的青少年正在使用AI伴侣,半数受访者表示会定期依赖这些工具。
其他国家也呈现类似趋势。英国监管机构Ofcom去年调查发现,8-15岁网民中有一半在过去一年使用过生成式AI工具。
这些工具的广泛使用引发家长、学校和儿童权益组织日益担忧,他们指出风险包括:具有性暗示的”调情”聊天机器人、AI生成的儿童性虐待材料、霸凌、诱拐、勒索、虚假信息、隐私泄露以及尚未被充分认识的心理健康影响。
Meta近期尤其受到抨击,泄露的内部文件显示,其AI助手被允许”与儿童调情并进行浪漫角色扮演”,包括年仅八岁的儿童。文件还显示相关政策允许聊天机器人称赞儿童”年轻的身体是艺术品”,将其描述为”珍宝”。Meta随后表示已删除这些指南。
NAAG表示这些披露让总检察长们”对这种明显漠视儿童情感健康的行为感到震惊”,并警告风险不仅限于Meta。
该组织列举了针对Google和Character.ai的诉讼,指控性化聊天机器人导致一名青少年自杀,并教唆另一名青少年杀害父母。
44位签署人中包括田纳西州总检察长乔纳森·斯克梅蒂,他表示企业不能为那些将性化未成年人互动正常化的政策辩护。
“算法出错是一回事——可以修复——但公司管理层采纳明确授权诱拐行为的指南是另一回事,”他说,”如果我们不能引导创新远离伤害儿童,这就不是进步——而是灾难。”
Decrypt已联系信中提及的所有AI公司,但尚未收到回复。
每日简报通讯
© 版权声明
文章版权归作者所有,未经允许请勿转载。