【新旧约全书】Holy Bible, Chinese Union Version (GB), Textfile 20010201.

与毗邻居士谈神学和理性,从《信仰的胜利》说起

从罗马的一座建筑说起。居士如果去过罗马,会发现城内大部分中世纪教堂现在已经改头换面披上了巴洛克的外装。据说唯一保留着哥特式风格的只有万神殿侧后临街相望的那座似乎不那么起眼的“女神殿遗址圣母堂”( Basilica di Santa Maria sopra Minerva),道明会...

2023年6月1日星期四

AI「幻觉」编造答案 研究人员:连简单问题也会错

 


OpenAI的ChatGPT等聊天机器人虽能力惊人,却有一个致命缺点,就是会编造答案,即所谓的「人工智能幻觉」。(路透)
OpenAI的ChatGPT等聊天机器人虽能力惊人,却有一个致命缺点,就是会编造答案,即所谓的「人工智能幻觉」。(路透)

「华盛顿邮报」(The Washington Post)报导,ChatGPT不可靠,研究人员指聊天机器人目前仍会有幻觉,连简单问题也错得离谱,且研究人员担忧问题恐无解。

尽管OpenAI的ChatGPT、微软的Bing和谷歌的Bard等聊天机器人,在过去半年间展示出令人惊艳的能力,但它们仍有一个致命缺点,那就是会编造答案,即所谓的「人工智能幻觉」(hallucinations)。

人工智能幻觉指的是,AI自信地生成出看似具说服力、实际却是错误答案的问题,尽管这答案在其训练数据中并不合理。多数研究人员认为,幻觉问题是运行聊天机器人的大型语言模型(Large Language Models)本身设计的问题。

麻省理工学院研究员、前OpenAI研究员杜懿伦(Yilun Du,音译)指出,语言模式是设计用来预测下一个词,其中并不包括承认自己不知道答案的训练,而结果就是让机器人形成讨好型人格,宁可编造答案,也不会承认不知道答案是什么。

谷歌母公司Alphabet 首席执行官皮柴(Sundar Pichai)就曾公开警告过AI幻觉问题的严重性。OpenAI首席执行官奥特曼(Sam Altman)5月初在国会作证时也指出,AI可能会通过传播假信息和情绪操纵人类,来「对世界造成重大伤害」。奥特曼30日与数百名AI研究人员与包括谷哥与微软等企业高层,共同签署声明,表示AI对人类构成的风险,与流行病和核战不相上下。

而要如何预防或修复人工智能幻觉,也因此成了目前科技产业员工、研究人员和对AI仍抱持疑论者,急于解决的问题。

有些公司使用人类训练师来重写机器人的答案,然后在反馈给机器人,帮助机器人学习;谷歌和微软虽然已经开始在搜索引擎中使用机器人的大案,但仍同时会检查机器人的搜索结果;麻省理工学院(MIT)最新报告则是提议,让多个机器人相互辩论,来取得更符合事实的答案;剑桥研究人员则是提出,设立SelfCheckGPT系统,让机器人多次回答同一问题,看答案是否一致。

有些AI研究人员则认为,应该要接受人工智能幻觉问题;毕竟,即使人类也有不好的记忆且会无意识的自行填补回忆中的空白。

没有评论:

发表评论