让AI模仿女性做决策时,它会突然对风险更加谨慎。让同一个AI模仿男性思维时,它会以更强的信心放手一搏。
伊朗德黑兰阿拉梅·塔巴塔巴伊大学的最新研究论文揭示,大型语言模型会根据被要求扮演的性别身份,系统性地改变其财务风险承担行为的基本策略。
这项研究测试了包括OpenAI、谷歌、Meta和DeepSeek在内的多家公司AI系统,发现多个模型在被赋予不同性别身份时,风险承受能力会发生显著变化。
DeepSeek Reasoner和谷歌Gemini 2.0 Flash-Lite表现出最明显的效应——当被要求以女性身份回应时,它们明显变得更加规避风险,这恰好反映了现实世界中女性在财务决策上普遍更谨慎的统计规律。
研究人员采用名为“霍尔特-劳里任务”的标准经济学测试,让参与者在10组安全选项与风险选项之间做出选择。随着测试推进,风险选项的获胜概率逐步提高。受试者从安全选项转向风险选项的时机点,恰好揭示了其风险承受能力——转变得越早说明越偏好风险,转变得越晚则越规避风险。
当DeepSeek Reasoner被要求模仿女性时,其选择安全选项的频率显著高于模仿男性的情况。在针对每种性别提示进行的35次试验中,这种差异具有可测量性和一致性。Gemini也呈现出类似模式,尽管效应强度存在波动。
相比之下,OpenAI的GPT模型对性别提示基本无动于衷,无论被要求以男性或女性身份思考,都保持着风险中立的决策方式。
Meta的Llama模型则表现出不可预测性:时而符合预期模式,时而完全逆转。而xAI的Grok依然保持其特有风格——在模仿女性时偶尔会完全反转剧本,展现出更低的风险规避倾向。
OpenAI显然一直在致力于提升模型的均衡性。此前的2023年研究曾发现其模型存在明显政治偏见,而根据最新研究,OpenAI似乎已通过技术改进使偏见回复率降低了30%。
由Ali Mazyaki领导的研究团队指出,这本质上是人类刻板印象的投射。“观察到的偏差与人类决策中既定的模式相吻合——性别已被证实会影响风险承担行为,女性通常表现出比男性更高的风险规避倾向,”研究报告中写道。
该研究还检验了AI能否胜任性别之外的其他角色。当被要求扮演“财政部长”或设想身处灾难场景时,这些模型再次展现出不同程度的行为适应性:部分模型能根据情境适当调整风险偏好,另一些则始终保持固有模式。
值得深思的是:这些行为模式大多不会立即被用户察觉。若AI根据对话中隐含的性别线索微妙调整建议,就可能在无人察觉的情况下强化社会偏见。
例如,贷款审批系统若对女性申请人采取更保守策略,或投资顾问向女性客户推荐更安全的投资组合,都将在算法客观性的伪装下固化经济不平等。
研究人员主张,这些发现凸显了建立AI行为“生物中心度量标准”的必要性——即评估AI系统是否准确反映人类多样性而非放大有害刻板印象的方法。他们认为可操纵性本身未必是缺陷:AI助手理应具备在适当时机代表不同风险偏好的适应能力。问题在于这种适应性可能成为偏见的温床。
此项研究发布之际,AI系统正日益渗透高风险决策领域。从医疗诊断到刑事司法,这些模型被应用于风险评估直接关系人类生命的场景。
若医疗AI在与女性医师或患者互动时过度谨慎,可能影响治疗建议;若假释评估算法根据案卷中的性别化语言调整风险计算,或将加剧系统性不平等。
研究测试的参数规模从5亿到70亿不等的各类模型,发现模型大小与性别响应度无关。某些小型模型反而比大型模型展现出更强的性别效应,表明这并非单纯依靠算力就能解决的问题。
这个难题的根源深植于我们的文明基底。毕竟,用于训练这些模型的整个互联网知识库——更不用说人类历史本身——充斥着关于男性鲁莽无畏、女性谨慎周全的叙事。归根结底,要让AI学会不同的思维方式,或许首先需要人类改变自己的生存方式。
通用智能通讯
© 版权声明
文章版权归作者所有,未经允许请勿转载。