2026/3/29 0:34:01
网站建设
项目流程
大连市营商环境建设局网站,郑州网站建设君捷,wordpress 虎嗅 小兽,长沙建个网站要多少钱在让AI模型显得越来越令人印象深刻的竞赛中#xff0c;科技公司采用了戏剧化的语言表达方式。他们不断地像谈论人类一样谈论AI。不仅讨论AI的思考或规划——这些词语本身就充满争议——现在他们还讨论AI模型的灵魂#xff0c;以及模型如…在让AI模型显得越来越令人印象深刻的竞赛中科技公司采用了戏剧化的语言表达方式。他们不断地像谈论人类一样谈论AI。不仅讨论AI的思考或规划——这些词语本身就充满争议——现在他们还讨论AI模型的灵魂以及模型如何坦白、想要、策划或感到不确定。这不是无害的营销修辞。将AI拟人化是误导性的、不负责任的最终会腐蚀公众对这项技术的理解而这项技术在透明度方面本就存在问题在这个最需要清晰认知的时刻。大型AI公司的研究本意是揭示生成式AI的行为特点但往往以混淆而非阐明的方式呈现。例如OpenAI最近发布的一篇文章详细介绍了让其模型坦白错误或捷径的工作。这是一个有价值的实验探索聊天机器人如何自我报告某些不当行为如幻觉和策划。但OpenAI将这一过程描述为坦白暗示大语言模型的输出背后存在心理因素。这可能源于人们认识到大语言模型要实现真正的透明度是多么具有挑战性。我们已经看到例如AI模型无法可靠地展示其在解决数独谜题等活动中的工作过程。AI能够生成什么与它如何生成之间存在差距这正是这种类人术语如此危险的原因。我们本可以讨论这项技术的真正局限性和危险性但将AI标记为有认知能力的存在的术语只会淡化担忧或掩盖风险。AI没有灵魂AI系统没有灵魂、动机、感情或道德。它们不会因为感到诚实的驱动而坦白就像计算器在你按错键时不会道歉一样。这些系统基于从庞大数据集中学到的统计关系生成文本模式。就是这样。任何感觉像人类的东西都是我们将内心生活投射到一面非常复杂的镜子上。将AI拟人化让人们对这些系统的实际本质产生错误认识。这会产生后果。当我们开始将意识和情感智能赋予一个实际上不存在这些特质的实体时我们开始以它本不应该被信任的方式信任AI。今天越来越多的人转向ChatGPT医生寻求医疗指导而不是依赖有执照的合格临床医生。其他人在财务、心理健康和人际关系等领域转向AI生成的回应。一些人与聊天机器人形成依赖性的虚假友谊并听从它们的指导假设大语言模型输出的任何内容都足够好可以为他们的决策和行动提供信息。我们应该如何谈论AI当公司倾向于使用拟人化语言时它们模糊了模拟和知觉之间的界限。这种术语夸大了期望引发了恐惧并分散了人们对真正值得关注的问题的注意力数据集中的偏见、恶意行为者的滥用、安全性、可靠性和权力集中。这些话题都不需要神秘的隐喻。以Anthropic最近泄露的灵魂文档为例该文档用于训练Claude Opus 4.5的性格、自我认知和身份。这份古怪的内部文档从未打算做出形而上学的声明——更像是工程师们在调试指南上的即兴发挥。然而这些公司在闭门会议中使用的语言不可避免地渗透到普通大众讨论它们的方式中。一旦这种语言固化它就会塑造我们对技术的想法以及我们在技术周围的行为方式。或者以OpenAI关于AI策划的研究为例其中少数罕见但具有欺骗性的回应让一些研究人员得出结论认为模型故意隐藏某些能力。仔细审查AI结果是好做法暗示聊天机器人可能有自己的动机或策略则不是。OpenAI的报告实际上说这些行为是训练数据和某些提示趋势的结果而不是欺骗的迹象。但因为它使用了策划一词讨论转向了对AI成为某种狡诈智能体的担忧。有更好、更准确、更技术性的词汇。与其说灵魂不如谈论模型的架构或训练。与其说坦白不如称之为错误报告或内部一致性检查。与其说模型策划不如描述其优化过程。我们应该使用趋势、输出、表示、优化器、模型更新或训练动态等术语来指代AI。它们不如灵魂或坦白那样戏剧性但它们具有基于现实的优势。公平地说这些大语言模型行为看起来像人类是有原因的——公司训练它们模仿我们。正如2021年论文《随机鹦鹉的危险性》的作者所指出的为了复制人类语言和交流而构建的系统最终将反映它——我们的用词、语法、语调和基调。相似性并不意味着真正的理解。这意味着模型正在执行它被优化要做的事情。当聊天机器人现在能够如此令人信服地模仿时我们最终会将人性解读到机器中尽管实际上并不存在这样的东西。语言塑造公众认知。当词汇马虎、神奇或故意拟人化时公众最终得到的是扭曲的画面。这种扭曲只有一个群体受益那些从大语言模型看起来比实际更有能力、更有用、更人性化中获利的AI公司。如果AI公司想要建立公众信任第一步很简单。停止将语言模型当作有灵魂的神秘存在来对待。它们没有感情——我们有。我们的话语应该反映这一点而不是掩盖它。QAQ1为什么说将AI拟人化是有害的A将AI拟人化会误导公众对AI技术的真实理解让人们错误地认为AI系统具有意识、感情和道德判断力从而过度信任AI的决策能力。这导致人们在医疗、财务、情感健康等重要领域依赖AI建议而忽视了AI系统的局限性和风险。Q2AI公司为什么要使用拟人化语言描述AI系统A科技公司采用拟人化语言主要是为了营销目的让AI模型显得更加令人印象深刻和有能力。这种语言策略让大语言模型看起来比实际更有用和人性化从而为公司带来商业利益但同时也误导了公众对AI技术本质的认知。Q3应该如何正确地描述AI系统的行为A应该使用更准确的技术术语来描述AI行为比如用架构或训练代替灵魂用错误报告代替坦白用优化过程代替策划。还应该使用趋势、输出、表示、优化器、模型更新等基于现实的词汇避免神秘化或拟人化的表达。