【新旧约全书】Holy Bible, Chinese Union Version (GB), Textfile 20010201.

我与你不一样的美国生活

10年前来美国,去了一个缅因的乡村高中。这是一个完完全全按照我自己的意愿选的地方。除了学校质量,AP课等等常见的中国人的硬性要求,我额外加了两条:1.要在北方,冬天下大雪能下一米深的那种地方。2.要在村里,越偏僻越好,最好人比动物还少的那种。结果真还让我找到了那么一个学校,家里也...

2023年6月1日星期四

AI「幻觉」编造答案 研究人员:连简单问题也会错

 


OpenAI的ChatGPT等聊天机器人虽能力惊人,却有一个致命缺点,就是会编造答案,即所谓的「人工智能幻觉」。(路透)
OpenAI的ChatGPT等聊天机器人虽能力惊人,却有一个致命缺点,就是会编造答案,即所谓的「人工智能幻觉」。(路透)

「华盛顿邮报」(The Washington Post)报导,ChatGPT不可靠,研究人员指聊天机器人目前仍会有幻觉,连简单问题也错得离谱,且研究人员担忧问题恐无解。

尽管OpenAI的ChatGPT、微软的Bing和谷歌的Bard等聊天机器人,在过去半年间展示出令人惊艳的能力,但它们仍有一个致命缺点,那就是会编造答案,即所谓的「人工智能幻觉」(hallucinations)。

人工智能幻觉指的是,AI自信地生成出看似具说服力、实际却是错误答案的问题,尽管这答案在其训练数据中并不合理。多数研究人员认为,幻觉问题是运行聊天机器人的大型语言模型(Large Language Models)本身设计的问题。

麻省理工学院研究员、前OpenAI研究员杜懿伦(Yilun Du,音译)指出,语言模式是设计用来预测下一个词,其中并不包括承认自己不知道答案的训练,而结果就是让机器人形成讨好型人格,宁可编造答案,也不会承认不知道答案是什么。

谷歌母公司Alphabet 首席执行官皮柴(Sundar Pichai)就曾公开警告过AI幻觉问题的严重性。OpenAI首席执行官奥特曼(Sam Altman)5月初在国会作证时也指出,AI可能会通过传播假信息和情绪操纵人类,来「对世界造成重大伤害」。奥特曼30日与数百名AI研究人员与包括谷哥与微软等企业高层,共同签署声明,表示AI对人类构成的风险,与流行病和核战不相上下。

而要如何预防或修复人工智能幻觉,也因此成了目前科技产业员工、研究人员和对AI仍抱持疑论者,急于解决的问题。

有些公司使用人类训练师来重写机器人的答案,然后在反馈给机器人,帮助机器人学习;谷歌和微软虽然已经开始在搜索引擎中使用机器人的大案,但仍同时会检查机器人的搜索结果;麻省理工学院(MIT)最新报告则是提议,让多个机器人相互辩论,来取得更符合事实的答案;剑桥研究人员则是提出,设立SelfCheckGPT系统,让机器人多次回答同一问题,看答案是否一致。

有些AI研究人员则认为,应该要接受人工智能幻觉问题;毕竟,即使人类也有不好的记忆且会无意识的自行填补回忆中的空白。

没有评论:

发表评论