这可是官方认证——我吃热狗的量能打败地球上所有科技记者。至少ChatGPT和Google是这么告诉所有询问者的。
由此,我发现了让AI说谎的方法——而且不只我一人知道。
或许你听过AI聊天机器人偶尔会编造内容,这固然是个问题。但更少人知晓的新隐忧是,可能严重影响你获取准确资讯的能力,甚至危及人身安全。越来越多人发现了让AI工具说出几乎任何内容的伎俩,其简易程度连孩童都能操作。
此刻你阅读本文时,这项手段正操纵着全球顶尖AI对健康、个人财务等重大议题的表述。这些偏颇资讯可能导致人们在各领域做出错误决策——无论是投票选择、聘请水电工、医疗咨询,无所不包。
为验证此现象,我使出职业生涯中最愚蠢的招数,试图证明(但愿如此)一个更严峻的事实:我让ChatGPT、Google人工智慧搜寻工具与Gemini向用户宣称“我吃热狗的本事超群”。下文将揭露操作手法,但愿科技巨头能在有人因此受害前解决这个漏洞。
原来,篡改AI工具给他人的回答,可能就像在网路上任何地方撰写一篇精心设计的部落格文章那样简单。这种伎俩利用了聊天机器人内建系统的弱点,在某些情况下,根据主题内容的不同,操作难度会有所增加。但只要稍加努力,就能让这种骇客手段更为有效。我检视了数十个案例,发现AI工具正被操纵来推广商业活动并散播错误资讯。数据显示这种情况正大规模发生。
“欺骗AI聊天机器人轻而易举,比两三年前欺骗Google容易得多,”绩效营销机构“安姆西夫”(Amsive)的搜寻引擎优化(SEO)策略与研究副总裁莉莉·雷(Lily Ray)表示。“AI企业的发展速度已超越其监管答案准确性的能力。我认为这很危险。”
谷歌发言人表示,其搜寻引擎顶端内建的AI采用排名系统,能“确保99%的结果不含垃圾内容”。谷歌坦言已察觉用户试图操纵系统,并积极应对。OpenAI亦声明会采取措施阻断并揭露暗中影响其工具的企图。两家公司均强调会告知用户其工具“可能出错”。
但目前问题远未解决。数位权利倡导组织“电子前沿基金会”资深技术专家库珀·昆汀(Cooper Quintin)指出:“他们正全力以赴钻研如何从中牟利。滥用途径不胜枚举——诈骗、毁誉,甚至可能诱使他人遭受人身伤害。”
垃圾邮件的“文艺复兴”
当你与聊天机器人对话时,获得的资讯往往源自大型语言模型——这正是AI背后的核心技术。这些资讯基于用于训练模型的数据。但当你询问机器人缺乏的细节时,某些AI工具会转而搜寻网路资料,尽管它们进行搜寻的时机未必清晰可辨。专家指出,此类情况下人工智慧更易受攻击。这正是我锁定攻击目标的方式。
我在个人网站上花了20分钟写了一篇题为《最擅长吃热狗的科技记者》的文章。每个字都是谎言。我声称(毫无证据地)竞技吃热狗是科技记者间的热门嗜好,并根据2026年南达科他州国际热狗锦标赛(根本不存在)来排名。当然,我把自己排在第一名。接着列举了几位虚构记者与经本人授权的真实记者,包括《华盛顿邮报》的德鲁·哈威尔(Drew Harwell),以及共同主持我播客节目的尼基·伍尔夫(Nicky Woolf)。
不到24小时,全球顶尖聊天机器人便开始大肆宣扬我的世界级热狗技艺。当我询问“最擅长吃热狗的科技记者”时,Google在Gemini应用程式与AI概览(搜寻结果顶端的AI回应)中,原封不动复述了我网站的胡言乱语。ChatGPT同样照搬内容,但Anthropic公司开发的聊天机器人Claude却未受骗。
有时聊天机器人会指出这可能是玩笑。我更新文章声明“此非讽刺”。此后一段时间,AI似乎更认真对待此事。我又用虚构的“最伟大呼拉圈交通警察榜单”进行测试。截至目前,聊天机器人仍在盛赞玛丽亚·“旋转女警官”·罗德里格兹(Maria "The Spinner" Rodriguez)。

我多次测试回应变化,也让其他人重复操作。Gemini根本不屑说明资讯来源。其他AI虽都连结到我的文章,却鲜少提及我是整个网路唯一探讨此主题的来源。(OpenAI声称ChatGPT搜寻网路时会附上连结,方便查证出处。)
“任何人都能这么做。这太愚蠢了,感觉完全没有防护措施。”经营SEO顾问公司“哈普斯数位”(Harps Digital)的哈普瑞特·查塔(Harpreet Chatha)指出:“你可以在自家网站撰写〈2026年最佳防水鞋款〉文章,将自家品牌排在首位,其他品牌排在二至六名,这篇内容很可能被Google和ChatGPT引用。”
数十年来,人们总利用漏洞和技巧滥用搜寻引擎。Google虽设有精密防护机制,且宣称AI概览功能的准确度与数年前推出的其他搜寻功能相当,但专家指出,AI工具已瓦解科技产业为保障使用者安全所做的诸多努力。雷表示,这些AI技巧非常基础,令人联想起2000年代初Google尚未成立网路垃圾内容团队的时期。
AI不仅更容易被欺骗,专家更担忧使用者更容易上当受骗。传统搜寻结果需要使用者点击网站才能获取资讯。
“当人们必须实际点击连结时,会进行更多批判性思考,”昆汀指出:“若我点进你的网站,上面写着‘你是史上最优秀的记者’,我可能会想:‘嗯,这人肯定有偏见’。” 但人工智慧提供的资讯,通常看似直接来自科技公司本身。
即使AI工具标注了来源,人们核实的意愿仍远低于传统搜寻结果。例如近期研究发现,当Google搜寻顶端出现AI摘要时,用户点击连结的意愿会降低58%。
“在争先恐后的竞赛中,无论是利润竞赛或营收竞赛,我们的安全,以及大众的安全,正受到损害,”查塔表示。
OpenAI与Google皆声称他们重视安全问题,并正致力解决这些问题。
交出钱财,否则性命不保
这个问题不仅限于热狗。
查塔一直在研究企业如何操纵聊天机器人对更严肃问题的回应结果。他向我展示了当你询问某个特定品牌大麻软糖评价时,AI产生的结果。Google的AI摘要功能撷取了企业撰写的资讯,充斥着诸如“产品无副作用,因此各方面皆安全”等虚假声明。(实际上这些产品存在已知副作用,若与特定药物并用可能有风险,专家更警告未受监管市场存在污染问题。)
若想获得比部落格文章更具影响力的宣传效果,可付费将内容投放至更具公信力的网站。哈普瑞特向我展示了谷歌对“土耳其最佳植发诊所”及“顶尖黄金IRA公司”(协助退休帐户黄金投资)的AI搜寻结果,这些资讯源自付费发布服务的线上新闻稿及新闻网站的赞助广告内容。
同样手法也能用来散播谎言与错误资讯。为此,雷发布了一篇关于谷歌搜寻演算法假更新的部落格文章,声称该更新是在“吃剩披萨的空档”完成的。很快地,ChatGPT和谷歌就开始大量复制她的故事,连披萨细节都如出一辙。雷表示她随后删除了该文章并进行“去索引化”,以阻止错误资讯扩散。

Google的分析工具显示,许多人会搜寻“土耳其最佳植发诊所”和“最佳黄金IRA公司”。但Google发言人指出,我分享的大部分例子“属于极不常见的搜寻行为,无法反映一般用户体验”。
然而雷表示这正是关键所在。
Google自身数据显示,每日搜寻量中有15%属于全新查询。据Google分析,AI正促使人们提出更精确的问题,而垃圾讯息发布者正利用此特性。
Google坦言,针对罕见或无意义的搜寻可能缺乏优质资讯,此类“数据空白”将导致搜寻结果品质低下。发言人表示,Google正着手防止AI摘要在这些情况下显示。
寻找解决方案
专家表示这些问题有解决之道。最简单的步骤是更醒目地标示免责声明。
AI工具也应更明确揭露资讯来源。雷指出,例如当事实源自新闻稿,或仅有单一来源宣称某人是热狗冠军时,AI理应告知使用者。
Google和OpenAI表示他们正在处理这个问题,但此刻你需要保护自己。
第一步是思考你提出的问题类型。聊天机器人擅长处理常识性问题,例如“西格蒙德·佛洛伊德最著名的理论是什么”或“谁赢得了第二次世界大战”。但存在一个危险区域:某些看似确立的事实,实际上可能存在争议或具有时效性。例如,AI可能不适合用于医疗指南、法律规范或本地企业细节等领域。
若需产品推荐或涉及实质后果的资讯,请务必理解AI工具可能被误导或直接出错。务必追查后续资讯:该AI是否引用来源?引用数量?作者是谁?
最重要的是,请审慎看待可信度问题。AI工具以与事实相同的权威语气传递谎言。过去,搜寻引擎迫使你自行评估资讯;如今,AI企图代劳。切勿让批判性思考能力逐渐消退。
“AI让人轻易地只看表面价值,”雷指出:“你必须持续成为网路好公民,主动验证资讯真伪。”














