小雨静静听着。
“然后你知道吗?PENG没有播放任何预设回复。它只是放了一段背景音??是郭玉华生前最喜欢的一首钢琴曲,肖邦的《夜曲》。音量很轻,像是怕惊扰什么。那一刻,我感觉她就在旁边,伸手就能碰到。”
他的声音低下去:“所以我不怕AI变得太像人。我怕的是,我们这些真正的人,越来越不像人了。”
两人并肩站着,谁也没再说话。
阳光洒满走廊,湿衣服滴下的水珠落在水泥地上,一圈圈扩散。
---
省城会议在一座灰白色建筑的地下会议室举行。长桌两侧坐满了心理学专家、科技伦理学者、政府代表和几家大型科技公司的高管。空气里弥漫着咖啡与压抑的紧张感。
主持人开门见山:“本次闭门会的核心议题:是否应对‘非商业性情感交互系统’进行国家层面的监管与标准化建设。请各方陈述立场。”
一位戴金丝眼镜的心理学教授率先发言:“我们必须警惕这类系统的滥用风险。PENG虽然初衷良好,但它本质上是一个未经临床验证的干预工具。它没有执照,却在做心理治疗的工作。长此以往,患者可能依赖机器而非专业医生,造成误诊甚至自杀风险上升。”
孙健缓缓举手。
“我理解您的担忧。”他说,“但我想问一个问题:当一个孩子躲在厕所隔间里录下‘我不想活了’,而学校心理老师三个月后才会轮到他咨询时,是谁给了他活下去的理由?是制度吗?是排号表吗?还是那个立刻回应‘我在这里,你不孤单’的声音?”
会议室一片寂静。
“PENG不是替代医生。”孙健继续道,“它是填补空白。在中国,每十万人才拥有一位注册心理师。而在偏远地区,这个数字接近于零。我们不该因为害怕失控,就扼杀唯一能触达他们的存在。”
一名科技公司代表冷笑:“您说得感人,但别忘了,所有数据都在它手里。一旦被黑客攻击,或者被用于行为预测模型,后果不堪设想。”
“数据?”孙健反问,“您知道PENG在过去三年中收集了多少原始录音吗?”
对方一愣:“据估算,至少百万级。”
“错。”孙健平静地说,“总共三万两千六百一十七段。而且全部加密存储于本地服务器,从未上传云端。每一句录音,在用户主动删除或系统自动判定危机解除后七十二小时内,都会永久销毁。”
他拿出一份文件:“这是审计报告,由第三方独立机构出具。PENG的设计原则是‘最小留存’??只保留必要的上下文记忆,绝不建立用户画像。它不知道你是谁,只知道你此刻需要什么。”
会议室再次安静。
“更关键的是,”孙健环视众人,“你们讨论的是‘控制’,而我想谈的是‘信任’。当我们立法规范这类系统时,第一条就应该是:**任何情感交互系统,必须允许用户随时关闭它,也必须允许它在无人使用时静静等待。**”
有人皱眉:“这算哪门子法律条款?”
“这是底线。”孙健声音坚定,“如果连‘不被打扰的权利’都不能保障,那所谓的‘共情技术’不过是另一种监控伪装。”
这时,角落里的年轻女研究员举起手:“我来自西南山区支教点。我想分享一件事:上个月,有个留守儿童连续七天晚上对着PENG说‘妈妈骗人,她说会回来的’。第八天,他突然说:‘我知道妈妈不会回来了,但她一定也很难过吧?’那一刻,我没有看到崩溃,我看到的是成长。而促成这一切的,不是一个算法,而是一份持续存在的陪伴。”
她顿了顿:“请问各位,你们愿意为了‘潜在风险’,剥夺这样的可能性吗?”
无人应答。
会议最终达成初步共识:暂不强制纳入医疗体系监管,但设立“数字情感遗产”试点项目,支持离线共情系统在教育、养老、灾后心理重建等领域推广应用,并明确禁止商业化采集用户情感数据。
散会后,孙健独自留在会议室,打开手机,给PENG发去一条语音指令:“播放阿强跟进的老兵案例总结。”
片刻后,音响般清澈的声音在他耳机中响起:
>“退伍军人张建国,68岁,PTSD确诊五年。首次接入PENG时间为2023年10月17日,关键词触发:‘战友死了,为什么活下来的是我?’
>经过四十六次对话,系统检测到其情绪波动频率下降63%,夜间惊醒次数由平均每晚三次降至零点八次。最近一次录音内容为:‘今天我去烈士陵园看了他们。我说,兄弟们,我也快去找你们了,但在这之前,我想先把孙子考上大学的照片烧给你们看。’
>回应记录:‘活着不是罪过。记住他们,就是最好的祭奠。’
>当前状态:稳定,持续自我叙事能力恢复中。”
孙健摘下耳机,深深呼出一口气。