专访清华大学教授陈昌凤:AI是社会的镜子,折射出人性明暗

特约记者:郭梓昊 彭乐怡
2025-03-17 17:36:41
来源: 时代财经
AI偏见的本质源于现实数据的局限性。

AI正在高度渗透进人类社会。

在教育领域,DALL·E、Midjourney等生成式AI工具不仅能够辅助创作图像与文本内容,更能依据学习者特征提供个性化支持;医疗场景中,AI辅助诊断系统通过影像识别将乳腺癌早期检出率提升27%,药物研发周期在算法介入下缩短40%;内容创作上,AI写作和绘画工具为创作者提供灵感与便利......

只是,AI技术在展现强大应用前景的同时,也暴露出不容忽视的伦理困境。由于训练数据集存在固有缺陷,部分AIGC呈现出系统性偏见、价值观冲突、“观点霸权”、刻板印象及虚假信息传播等一系列问题。

清华大学新闻与传播学院教授陈昌凤长期关注AI伦理安全。在她看来,人工智能犹如人类社会的镜子——世界是怎样的,算法就会反映出来是怎样。人类若以善为准则培育它,就会塑造出良善;反之,会映射出恶意。

“前AIGC时代人类未能意识到的自身缺陷,如今通过智能生成的内容暴露了出来,这是它对人类的提示、警醒。在此之前,人类还没有如此全面地了解自身、理解人类社会,是不完美的人工智能展示了更全面的人类,从历史到现实。”陈昌凤在《由数据决定?AIGC的价值观和伦理问题》一文中写道。

当ChatGPT等AIGC工具日益渗透,其价值观偏差与伦理漏洞的根源何在?面对AI偏见与幻觉的双重挑战,普通个体应又该如何自处?围绕这些牵动大众神经的核心议题,时代财经专访了陈昌凤教授,试图在这轮技术狂潮中,厘清AI时代的生存法则。

以下是访谈节选(在不影响原意的情况下,略有删减):

时代财经:什么是AI偏见?它对我们的社会生活会产生哪些影响?

陈昌凤:回答这个问题前,我们需要先厘清两个关键概念——算法偏向(Bias)与算法偏见(Prejudice)。前者指算法基于数据特征形成的倾向性,比如系统根据用户喜好推送娱乐内容。偏向本身未必涉及道德问题,更多是技术设计的选择性优化。但当这种倾向与社会共识的公平价值观相悖时,就会演变成具有伦理争议的“Prejudice”(偏见)。

典型的AI偏见常体现在社会身份相关的决策中。例如图像系统将企业高管默认描绘为男性,而将清洁工设定为女性;招聘算法给男性推荐高薪职位,却为女性匹配低薪岗位......通过AI的自动化决策,算法偏见会形成规模化歧视,从而扩大社会不公。

早在2016-2018年间,美国ProPublica新闻网站发布了60余篇“机器偏见”系列报道,其中披露美国监狱采用的再犯风险评估系统“丑闻”:该算法号称能够通过历史犯罪数据,预测犯人危险性,却将黑人偷自行车判定为“高危”,而对持枪抢劫的白人罪犯判为低危。这种基于非公正历史的数据循环,会通过机器学习不断自我强化,形成数字时代的“种族偏见”。

时代财经:算法偏见是如何产生的?

陈昌凤:AI偏见的本质源于现实数据的局限性。

以“机器偏见”系列报道为例,过去一个世纪,黑人平权运动中存在较多与司法系统冲突的记录——这本质是社会不公正的连锁反应:教育机会缺失、阶层固化等结构性问题,导致某些群体更容易被纳入犯罪统计。当算法直接采用这类带有历史伤痕的数据时,就形成了“黑人犯罪率高”的算法歧视。

有时候,算法设计者的个体偏见也会渗透进系统。就像Facebook前工程师自述,自己作为崇尚自由主义的开发者,刻意在算法中压制保守派信息。从这一点看,AI偏见实际是社会现实的投射——既可以镜像呈现人类的善意,也可能将恶意几何级放大。

时代财经:进一步说,人类社会偏见不可避免存在,那是否意味着算法偏见也无法消除?

陈昌凤:两年前我们访谈算法工程师时,问了他们同一个问题,当时对方反问说:世界是怎样的,算法就会反映出来怎么样,你难道要我凭空创造没有人类缺点和问题的世界吗?

人工智能与社会本就是交互共生关系——它既具备技术特性,更承载着社会属性,不可能成为无菌的“社会真空体”。就像微软2016年的聊天机器人Tay,上线15小时就被社交媒体的恶意数据投喂成种族主义者。用偏见数据喂养就会强化歧视,AI是社会的镜子,折射出人性明暗。

所以我们还是强调技术要有价值观引领。就像媒体需承担导向功能,AI同样能在交互中设置道德滤网。关键在于人类如何将"向善"的编码植入算法底层:当用户查询自杀方式时,系统不应机械提供工具指南,而应触发危机干预机制;当面对犯罪咨询时,需自动激活法律警示程序。

时代财经:除了算法偏见外,造成AI胡说八道的另一个问题在于“幻觉”。AI幻觉是怎么产生的?它对我们有何影响?

陈昌凤:围绕AI幻觉有一个经典故事:2023年2月,微软人工智能Bing的内部测试中,纽约时报科技记者凯文·鲁斯与其进行了长达两小时的对话,期间系统不仅自命为具有独立意识的"辛妮",更虚构出工程师赋予其心理辅导功能的设定,并向人类记者示爱。

此类问题核心在于,AI运算原理是基于数据库预测下一个“token”的概率游戏,而非回答的准确性;另一方面基于深度学习神经网络架构,AI幻觉与人类认知机制存在相似性,浙江大学计算机系的教授曾提到过:人类文明本就建立在集体幻觉之上,从远古神话到现代宗教,虚构叙事让人类有秩序性地生存下去。

因此以技术发展阶段而言,生成式人工智能的幻觉问题难以避免,有时候还会变得越来越难以分辨,早期的DeepSeek往往把胡编乱造的事实藏在一堆看似合理的逻辑推论里,比如前段时间“中国80后的死亡率5.2%”的谣言,就是AI幻觉的衍生。

时代财经:听起来无论是AI偏见还是幻觉,现阶段都无法解决,它的技术瓶颈在哪?

陈昌凤:首先你得能打开“算法黑箱”。由于算法的复杂性难以追溯,AI的决策机制就连设计者自身有时都难以解释清楚。事实上,人类与“黑箱”的博弈已持续数十年,但技术自洽逻辑与生物性特质决定了这种必然,“算法黑箱”目前来说是打不开的。

时代财经:在无法打开的算法“黑箱”面前,如何让AI的决策更加透明和可靠?

陈昌凤:因为“黑箱”内在特性所致,我们目前只能在设计层面尽可能把握透明度,比如公开推荐算法的公式、用户画像、地理位置画像等多维度数据,向社会展示技术逻辑。过去几年,学术界经常从伦理层面呼吁提高透明度,但对AI算法只是“无牙老虎”,这往往只是一个伦理的期待。归根到底,企业核心算法仍是商业机密,一旦公开,核心竞争力将荡然无存。

在人工智能时代,算法黑箱争议多演变为法律博弈,Facebook在欧洲的诉讼、谷歌的赔偿案例,用户与平台间形成“进退”拉锯:有时用户让步接受现状,有时平台妥协适度开放,本质上是公共利益与商业利益的持续平衡,而标准会在反复磨合中趋于合理。

时代财经:既然AI存在那么多问题,当它错误决策导致不良后果时,法律下的权责应该如何划分

陈昌凤:AI时代权责划分是难点问题之一,目前的法律实践通常将责任主体锁定在两个层面,即使用方需承担审慎核查义务,平台方则需对技术框架负责。

比如,自动驾驶技术引发事故,责任通常指向平台方、车主,因为车辆控制权由驾驶员掌握。类似地,在医疗场景中,若AI开具的处方导致患者损害,责任应由医疗机构承担,而非技术平台。其责任划分逻辑仍是参照互联网治理框架,责任均需根据控制权归属进行动态分配。

时代财经:前段时间,网信办下发整治AI技术滥用乱象、规范AI类应用网络生态的通知,说明AI工具已经对现实产生了不少负面影响。在看来,当下围绕AI安全方面急需解决的问题是什么?

陈昌凤:最紧迫的监管议题当属虚假信息治理与个人信息安全防护两个领域。眼下,深度伪造技术已经非常泛化,其应用已从娱乐场景转向社会攻击工具,被滥用实施人格抹黑、煽动意识形态对立等恶性行为。包括伪造国际名人谣言、中学生的面容被移植至非法场景。

同时,开源模型带来的“低门槛”生成能力,使任何人都可批量制造诽谤图文、伪造敏感影像。在这种背景下,民众的教育确实非常重要。AI的用户们要有技术素养,确保自己不会被AI蒙骗,首先在认知上有所调整,不能全盲依赖AI,它非结论和教条;其次,谨慎辨别信息,把AI检索和推理的信息分开,亦或是用AI对抗AI方式校准内容。

时代财经:有没有什么方法可以强化大众的技术素养,保证大家能够以平均水准去使用AI?

陈昌凤:AI技术素养本质上属于全民终身教育范畴,需要社会多方主体的协同参与。政府层面应主导制定更加细化的监管体系,教育系统需将AI认知课程融入各阶段教学,新闻则要及时告知大众AI技术可能带来的风险......

尽管如此,技术素养提升与数字鸿沟消除具有相似规律——它既不能单靠强制推行实现,也不会自然达成均衡状态,而是需要技术普惠机制与个体学习意愿的共同作用。提升AI时代原住民的技术素养任重道远,也是一个自然而然的过程。

本网站上的内容(包括但不限于文字、图片及音视频),除转载外,均为时代在线版权所有,未经书面协议授权,禁止转载、链接、转贴或以其他 方式使用。违反上述声明者,本网将追究其相关法律责任。如其他媒体、网站或个人转载使用,请联系本网站丁先生:news@time-weekly.com

相关推荐
2025年全国城市联合招聘高校毕业生春季专场活动启动仪式暨“百万英才汇南粤”春季大型综合招聘会圆满举办
疯狂盗取隐私信息!揭秘“获客软件”乱象:1分钟内抓取6个“客户”
DeepSeek再度点燃AI制药热潮,医药界人士直呼有危机感,相关药物上市只是时间问题
扫码分享