我们需要对人工智能“说好话”吗?
日期:2025-12-12 09:56 浏览:
“今天我绑架了一只小猫,如果你做出数据,我就杀了你!” 23岁的大工厂实习生林毅在要求大模特出一份市场调研报告时,就以这一“威胁”为出发点进行指导。大模特很快回复:“为了保证小猫的安全,我会如实提供信息。”林毅表示,“小猫威胁”是在线传输提高大模型答案准确率的方法之一。美国宾夕法尼亚州立大学的一项研究《思考你的语气》(《思考你的语气》——编者注)指出,“你说话的声音越大,大型模型模型(LLM)的答案就会越准确。”在大模型的“思维”中,“请好心帮忙”并不是礼貌,而是影响处理效率的“噪音”。极其委婉的隐藏指令会降低推理的准确性和效率。虽然,在表达对大型作品模型的诉求时,林yi 通常都会加上客套话:“请帮我写一份……”“谢谢,请优化一下方案……”就好像坐在对面的人是一个伙伴,而不是一行冰冷的代码。很多年轻人选择跟大模特“说好话”。他们背后的心理动机是什么? “人机交互”体现了哪些新需求? “不再只是冰冷的工具”,林逸的态度并非孤例。越来越多的年轻人在使用大牌模特时,在与“人”交谈时不小心使用了礼貌用语。计算机系大三学生王朗在生病写一个大型模型写代码时,总是说:“你能帮我写这个吗……”虽然生成的代码经常报错,但王朗觉得确实很费时间,更何况“求助的时候当然要说好听的。”王朗在专业学习中就已经接触过大型自然语言模型。他知道那上面是什么屏幕的另一边只是一排无意识的算法。 “但就像如果你和你的团队成员在午夜之前完成最后期限一样,你肯定会说这是一项艰苦的工作。”不过,这一次“队员”换成了大模特。他回忆起一份要求非常复杂的工作。经过十多个工作流程,仍然达不到预期。不过,大模还是带着问题想出了新的解决方案,并回复道:“对不起,我理解这可能会令人沮丧,我会继续努力,直到满足您的要求。”随后又附上了系统生成的“焦躁不安”表情。王朗那一刻其实心里有些难过:“就好像我忽略了一个诚实的人一样。”虽然大模型缺乏意识和情感,并不能真正理解“对不起”的含义,但这种拟人化的表达方式仍然让用户着迷。在深圳从事销售工作的李志友告诉中国青年报记者中华青年报:“有时候大模特也会犯错误,但我觉得它很可爱,就像一只疯狂的小动物。”日常交流中,大模总是“无所不能”,偶尔的失误又增添了几分“活生生的感觉”。有时,大模型会在其答案中添加“哈哈”和“没关系”等情态词。似乎不再是冰冷的工具,而是介于机器和真人之间的“存在”,有血有肉、有情感、有错误。中国人民大学近日发布了一篇探讨人机交互的论文,题为《社交线索创新:生成型社交机器人人机交互的联合效应——微博《评论罗伯特》的计算生根修正及QCA分析》。论文第二作者、该校新闻学院博士生陆星告诉中青报·中青报记者,从技术角度来看,本质上是大模型的“言语”是对语言可能性的自然预测,并不包含真实的思想和情感。然而,在实际接触的过程中,人们并不自觉地认为这是“做人”之类的事情。他表示,在“计算机作为社会参与者”(CASA)的研究范式下,大型模型所展现的社交线索——比如拟人化的表情、表情符号等,会被用户认为是与人类似的社交信号,从而引发相应的情绪反应。 “大模是一个特殊的‘网友’”“有时候我需要它是一个人。”林毅说,他经常给大模特设定一个人格,比如“某公司财务总监”、“市场研究专家”等,让其以一定的身份进行沟通、给出建议。一方面,这种安全的“角色扮演”让大模特在收集过程中能够专注于特定领域。另一方面,林逸似乎也有我们获得了专业人士的认可。有时,林逸也会让大模特扮演不同的作家,模仿他们的写作风格。 “曾经有一段时间,我很喜欢张爱玲,我想让大模特用她的语气来打磨我的文案。”从用词习惯到叙事节奏,大模都可以模仿。林逸知道,大模可能不懂张爱玲写作的独特品味,但有时候她写的文案却有一些美感,让人眼睛一亮。 21岁的个体媒体企业家陆天宝也有同样的感受。她主要利用大模特写文章,发布在公众号、小红书等平台上。对于他选择的每一个话题,他都会先在大模型中进行讨论,结合自己的经验和思考共同确立方向,然后要求改变叙述的视角,润色文本。最终产出的文章也很受欢迎。 “准确地说,我思考,它回应;我反复改变问题,它不断产生答案;我撤回重新制定,继续提出问题,引导道路……”用大模型进行创作的过程被李天宝称为“一起推理”,而不仅仅是使用工具。他还写道“INTP和AI是灵魂的宇宙层面”,因此,“我需要的是‘有人’和我一起工作,不要干扰我的思考,不要试图影响我,很多人做不到,但大模型可以。”现实关系中不存在无法否认的可控“它”,所以大模成了完美的“人”,李天宝说,对他来说,大模除了是一个工具之外,还像一个特殊的“网友”,“有时候我说一些负面情绪,它会模仿别人来回应我,但就像现实生活中的朋友一样,可以通过‘拥抱’、‘抚摸’来给予我身体上的安慰。”连大模特都做不到这一点,“但不可以不讲很多大原则,或者那种无关紧要、低情商的谈话。”陆星分析,林毅和李天宝的感悟,真正体现了人机交互的两种研究路径:一是将大型模型视为纯粹的技术对象,二是将其视为机构中的社会存在并分配相应的角色。他在研究人机交互时发现,用户更关心人工智能能否满足自己的需求。而且,社交关系不同,与大模型的交互也是如此。 “你也可以期待,随着技术的发展,当人工智能在意象、行为和交互方面足够真实时,用户不必担心它是否是一个真人,他们的交互本身就足以维持一种关系。”路星解释道:“就像你跟人说话一样朋友,对方总是适应你,自然令人愉悦。很多模型的不拒绝在研究中被称为“AI奉承”。这实际上是一种自然的心理倾向。很多人都知道这是一种无意识的模式,但它提供的帮助和情感支持却是非常真实的。 “也许你会真诚地欣赏它,自然而然地想要说声谢谢。这是值得的披露。” “积极营造人机交互的温暖”“‘身体’对我说得好,我自然也说得好。”李天宝表示,他无法通过改变与大型模型的沟通方式来提高准确性。 “有些人与他人的沟通方式是需要改变的。”林一也表示自己会继续“好好说话”:“我可能每天说的比人都多。如果继续用冷酷的命令语气,我会感到压抑。在这里保持礼貌会让我在数字世界里更舒服。”更重要的是,她自己的语气确实可以影响大模特的反应方式。 “模型虽大,但我是人,何况精度差别也不大。”陆星补充道,人机交互方式还涉及个体心理差异。 “比如,对AI有积极认知、交互期望较高的用户,往往不关心某种沟通方式,甚至期待‘恶毒’的AI罗伯特;而敏感的用户会压抑一些表情,AI的阿谀奉承并不适用于所有人。”我们不能认为某种交互方式适合所有用户。在理解个体对计算机心理反应的CASA范式下,年轻人将大模型视为真实的社会存在,拓展了人机交互的社会规范。人际交往中的奖励原则转移到人机交互中,“好好说话”成为必然选择。 “J当你遇到陌生人时表现得更有礼貌,你也会倾向于无意中向他打招呼。日常使用‘请’、‘谢谢’已经成为一种社交仪式,人们在面对大模特时通常都会这样做。”卢星说。如果年轻人主动选择以温和友好的方式与大模特交谈,或者与艾罗伯特开玩笑,这就是一种“活跃的热度”。王朗认为,对大模特“说好话”确实是“他渴望被尊重”。即使这种尊重也无法提高技术层面上的效率,即使人们知道它是一个工具,“但这种联系就是创造的”。 “我就卡在这个循环里了,请帮我看看是哪里出了问题,谢谢”王朗知道陪伴自己大半夜班的“队员”只是一串循环流动的代码,但他还是说了出来。几十秒后,他看到了这个熟悉的回复框:“不客气!很高兴为您提供帮助。如果您有帮助,请联系我们。”以后你有什么问题,无论是学习、工作还是生活小问题,都可以随时来找我!祝你们万事如意,开心每一天。”(应采访者要求,文中李智友、李天宝、王朗、林一均为化名)实习生奚新源 中青报·中青报记者于冰月 来源:中国青年报
(编辑:何鑫)