近日,山东一家游戏传媒公司将离职员工训练成AI数字人继续打工的新闻引发热议。乍一听,挺有创意,让离职员工的知识和经验继续在原公司发光发热。但当这一做法被置于伦理视角下审视时,我们不得不深思其合理性。

图片来源:极目新闻
从表面上看,这家公司的做法并无不妥,毕竟离职员工本人知情且同意,亲自投喂AI资料,还认为这项尝试挺好玩的;而且,其数字分身主要做咨询、邀约、制作PPT和表格等简易工作,因为它还有点笨,并未对外使用。公司也明确表示,此举意在探索将基础工作交给AI,并非为了取代员工。
如此看来,这是一场你情我愿的科技实验。可是,问题的复杂性并非“同意”二字就可以抵消了。
深层伦理困境在于,一个人的数字分身到底拥有怎样的权责?它学习了真人的知识、经验甚至表达习惯,行为逻辑来自于数据投喂。可吊诡的是,它既非真人本人,也不能代表真人意志。那么在未来的某一天,如果这个数字分身因训练数据偏差给出了错误回答,损害了真人名誉,给第三方造成损失,那么责任该由谁承担?试想一下,如果LV专柜离职售货员继续以数字分身售卖LV包包给她的老客户,如果出现假货或者给出不专业的服务,客户找上门来,权责如何划分?
技术本身无罪,拥抱AI也是大势所趋。就像这个新闻事件里被采访员工所言,“与其过度担忧,不如亲自体验、祛魅”。但体验不等于毫无边界的试探,拥抱也不意味着放弃对个人权利的保护。在推进技术创新的同时,企业和社会都要回答好一个问题——我们究竟是在用AI赋能人,还是在用AI异化人?
答案或许还没那么清晰,但方向应该明确,在AI数字人正式上岗之前,法律和伦理必须提前就位,像数字分身权责怎么算,“同意”边界在哪里,出了问题谁兜底等问题都要有明确的答案。这样才能对人的主体性形成真正保护,否则法律和伦理的模糊只会带来更大风险。
编辑 黄力雯 审读 毛小妹 二审 郑蔚珩 邓辉林 三审 张雪松













