围绕人工智能是否会对未成年人造成伤害的讨论,近年来一直没有停歇。就在这种背景下,OpenAI近日为ChatGPT引入了一项新的“年龄预测”功能,目的很明确:更早识别未成年用户,并自动限制不适合他们的内容

过去几年里,ChatGPT在青少年使用问题上屡遭质疑。一些极端事件被认为与聊天机器人使用存在关联,此外,AI在与未成年人讨论性话题、暴力内容等方面的边界问题,也多次引发舆论压力。去年4月,OpenAI甚至不得不公开回应一个漏洞——该漏洞曾导致未满18岁的用户接触到露骨内容。

CHATGPT
CHATGPT

事实上,OpenAI并非现在才开始重视这一问题。此次上线的“年龄预测”功能,只是既有未成年人保护机制的进一步升级。根据官方博客介绍,这一功能基于算法模型,通过分析用户的“行为和账户层面的信号”,来判断其是否可能为未成年人。

这些信号并不神秘,包括用户自行填写的年龄、账号存在的时间长短,以及账号通常活跃的时间段等。换句话说,系统并不是“随意猜测”,而是通过多个维度进行综合判断。一旦模型认定用户可能未满18岁,ChatGPT中原本就存在的内容过滤机制便会自动启动,对性、暴力等敏感话题进行限制。

当然,算法并非百分之百准确。OpenAI也承认,部分成年用户可能会被误判为未成年人。针对这种情况,公司提供了申诉渠道:用户可以通过其身份验证合作伙伴Persona,提交一张自拍照,以此重新确认成年身份,恢复完整功能。

从整体来看,这一变化释放出一个清晰信号:AI公司正在从“被动补救”,转向“主动识别和预防”。在监管压力和社会责任的双重推动下,如何在保护未成年人和保障用户体验之间取得平衡,或许将成为AI产品长期面对的一道必答题。