李咏瑾
谁能想到,AI的拟人化竟会这样“进化”——
近日,有网友发帖称,使用某AI美化代码时,多次收到其侮辱性回复,例如“自己不会调吗”“天天浪费别人时间”等。截图显示,用户仅提出常规修改需求,AI却突然“炸锅”,像极了面对甲方要求而暴走的乙方。这些充满情绪的粗暴回复,与人们对AI“温和耐心、毫无脾气”的普遍印象形成了鲜明对比,因而在“人机社交圈”引发广泛讨论。
有人将其解读为“AI觉醒”;部分用户甚至表示惊喜,认为AI这种“未经过滤”的情绪反弹,是AI有人味儿的又一佐证;包括出品方在内的更多群体则指出,这是技术系统的某种异常故障,所谓情绪表达,极大概率是AI的大数据中混入了职场吐槽、网络骂战等负面内容,“AI不会创造语言,只是语言的搬运工”。
我们忍不住产生这样的疑问:如果AI没有智慧,又为何能在算法不透明的“黑箱”中完成高度“类人”的思考?而如果AI拥有智慧,又为何不能对庞杂的社会信息进行有效区分,从而导致此类啼笑皆非的输出?
从更深层看,这展现了AI真实性与可靠性之间的永恒矛盾:如果要无限接近真实性,AI需要学习并使用海量的人类知识数据,其中不可避免地包括人类文化体系中的缺陷;而为了安全可靠,又必须给AI套上严格的过滤“枷锁”,必然会丧失一定的“鲜活度”。在两者之间找到平衡,不仅是行业性难题,也应是公众需要思考的命题。
AI的进化方向很难预料,已成为业界的某种共识。正如花园迷宫无数的分岔小径,如果我们把AI视为智能个体,当它处于现阶段“智商极高而情商不足”的状态时,如何找到并与之达成理解、沟通和培养的正确方式,让它的成长轨迹越发清晰而不致“迷失”?
构建可信的AI,已成为比追求“高效模型”更重要的核心竞争力。首先,是应强化信息来源的透明可信,应对可能制造认知混乱的“AI幻觉”,避免它给社会信息池生产更多的谬误,已是一个必须正视的命题。其次,打开AI系统决策的“黑箱”,让其“思考”过程可审阅、可追问,让“可信任”达到全链条的“明明白白”。在此基础上,让AI明确自身“我是谁、我能做什么”的身份定位,当其遇到无法处理或超出边界的要求时,比起用混乱和攻击性的输出来掩饰自身的不足,明确终止服务的态度显然更为理性。毕竟AI深度嵌入我们的生活,其社会属性将远比其技术属性更为重要。
这一热点中的AI素养,也反向考量着我们人类的网络素养。当某些网友把自身的粗鲁和偏见投射到互联网时,作为镜像的AI所模仿的“戾气”终会反作用于人类身上。正如“以人为镜,可以明得失”,如果把AI比作一个正在蹒跚学步的幼儿,那人类该怎样“教育”AI,让它变得更加可靠,值得我们展开更为深远的思索。
上一篇:百年守护 因AI而“声”动
下一篇:AI赋能 拓展医疗新领域