王建国坐在听证会的椭圆桌主位,指尖轻叩桌面。全息投影在会议室中央亮起,悬浮着一行醒目的标题:《人工智能伦理规范(草案)》。桌旁坐着十二位代表——有科学院的院士,有法律界的泰斗,还有三位来自欧盟的观察员,此刻正对着投影上的条款低声议论。
“第3.2条,‘AI不得自主决定人类生死’,这一条太模糊了。”说话的是法律界泰斗周老,他推了推老花镜,指着投影,“战场上的自主武器算不算?医疗AI判断病人抢救无效时,停止治疗算不算?”
王建国调出附件,全息屏上瞬间展开密密麻麻的注释:“周老请看附件,自主武器必须保留人类最终决策权,医疗AI需同时满足三个条件——主治医生签字、家属同意、AI风险评估报告存档,三者缺一不可。”
欧盟观察员之一的琼斯博士突然开口,操着生硬的夏语:“王主任,你们的草案里说‘AI需植入夏国核心价值观’,这是否意味着技术壁垒?我们担心……”
“琼斯博士,”王建国打断他,语气平稳却带着锋芒,“夏国核心价值观里,‘以人为本’排第一。我们禁止AI生成歧视性内容,禁止用AI制造虚假信息,这些难道不是全人类的共识?”他调出一组数据,“去年贵国某社交平台的AI推荐算法,导致极端言论传播速度提升了370%,这就是没有伦理约束的后果。”
琼斯博士脸色微变,旁边的李院士接过话头:“建国,我更关心‘火种源智能’的伦理边界。它已经能自主优化能源分配,万一哪天它觉得‘减少人口能提高能源利用效率’,怎么办?”
这话戳中了要害。火种源智能是王建国团队的得意之作,依托火种源能量驱动,能实时调配全国的能源网络,上个月刚创下连续72小时零误差的纪录。但正因其强大,才更让人忌惮。
王建国点开一段视频,画面里是火种源智能的核心代码片段,滚动的绿色字符中,穿插着一行行红色标注——“人类生存权优先于能源效率”“任何优化方案需经能源部、民政部、公安部三重审核”。
“我们在底层代码里植入了‘伦理锁’。”王建国解释道,“就像给汽车装刹车,火种源智能每提出一项优化方案,都得先过这把锁。上周它提出关闭西部某偏远山区的输电线路,理由是‘年损耗超过维护成本’,但‘伦理锁’直接驳回了——因为那里住着127户牧民,断了电就断了生路。”
会议室里静了片刻,欧盟观察员之一的索菲亚女士突然笑了:“王主任,你们的‘伦理锁’会不会成为技术霸权的工具?比如……限制其他国家的AI接入你们的能源网络?”
王建国看向她,目光锐利如刀:“索菲亚女士,去年你们拒绝向夏国共享疫苗专利时,可没说‘技术无国界’。”他调出另一份文件,“我们欢迎符合伦理规范的外国AI接入,但前提是接受第三方审计——就像你们坐飞机要过安检,不是吗?”
争论持续了三个小时,从医疗AI的隐私保护,到工业AI的失业风险,再到军事AI的使用红线,每一条都吵得面红耳赤。直到傍晚,周老敲了敲桌子:“我提个折中方案——保留‘伦理锁’,但成立跨国监督委员会,夏国占40%席位,其他国家共占60%,如何?”
王建国沉吟片刻,点头:“可以,但委员会必须设在夏国,因为目前只有我们能稳定运行火种源智能的模拟测试系统。”
散会时,琼斯博士主动走过来握手:“王主任,你们的草案比我们预想的更开放。或许……欧盟可以派专家参与‘伦理锁’的迭代?”
“欢迎。”王建国握住他的手,“但有个条件——你们得先公开道歉,为去年用AI伪造夏国企业偷税的假新闻道歉。”
琼斯博士的笑容僵在脸上,王建国却已转身离开。走到会议室门口,他收到何雨水的消息:“四合院那边出事了,傻柱把医疗AI的诊断报告当废纸卖了,说是‘机器哪有老大夫靠谱’。”
王建国揉了揉眉心。他以为离开四合院就能摆脱那些鸡飞狗跳,却忘了旧习惯的惯性有多顽固。“让保卫科去处理,顺便把医疗AI的‘二次确认’功能加上——必须让主治医生手写签名,才能打印报告。”
坐进车里,窗外的霓虹灯次第亮起,像一串流动的星子。王建国看着全息屏上仍在闪烁的伦理草案,突然想起小时候在四合院,聋老太总说“机器不如人心细”。现在想来,或许她说对了一半——机器确实不如人心细,但人心会藏私、会偏倚,而被伦理约束的AI,至少能守住底线。
他给何雨水回了条消息:“明天把‘伦理锁’的原理做成科普动画,放给四合院的人看看。告诉他们,这不是不信人,是怕人心的漏洞,最后得用技术来补。”
车窗外,火种源智能调度中心的灯塔正发出脉冲式的蓝光,每一秒都在优化着千万家庭的用电。王建国知道,技术跑得越快,伦理这根缰绳就得攥得越紧——不然,跑得再快,也可能跑偏方向。