大家好,如果您还对幻觉成了AI的“癌症”,连OpenAI也治不了 不太了解,没有关系,今天就由本站为大家分享幻觉成了AI的“癌症”,连OpenAI也治不了 的知识,包括的问题都会给大家分析到,还望可以解决大家的问题,下面我们就开始吧!
从本质上讲,AI大语模型产生的答复偏离了事实或不合逻辑,这会引起幻觉。在培训期间,该模型将不可避免地存在数据差距,但是它将被填充和隐藏,但似乎合理但实际上是错误的细节。
AI并不是故意欺骗人类,而是当人类使用大量数据进行培训时存在缺陷。当AI预测序列的下一个单词或词汇时,它并不真正理解导致错误的含义。
尽管近年来,即使在OpenAI的GPT-5模型中,AI技术已经取得了进步,但幻觉仍然存在并且仍然非常严重。
AI幻觉与奖励错误有关
为什么发生幻觉?一些专家认为,主要原因是培训数据和算法存在局限性。 OpenAI开发的AI模型实际上是一台模式匹配机。它擅长模仿,但是当数据不完整或不清楚时,它很容易出错。
Openai最近发表了一篇论文,认为幻觉的原因是培训期间错误的方法。当模型输出自信结果时,它将获得“奖励”。即使猜测给出的结果也将获得奖励,这会导致AI输出过度的信心但不正确的信息。
换句话说,在回复时,AI喜欢“假装”它可以准确回答问题,并且不承认它具有不确定性。这个问题是一个隐含的结构缺陷,暂时找不到解决方案。
一些专家断言,当前的培训方法鼓励AI猜测,导致AI过度自信,而不是承认其无知,这导致“呼吸症”问题的可能性变得越来越严重。
甚至Openai也必须承认,幻觉可能是无法解决的问题。因此,Openai认为不应鼓励AI推测,而应鼓励AI承认不确定性。
但是,出现了另一个问题。克劳德(Claude)模型鼓励AI承认不确定性,并且总是避免得出不准确的响应的结论。但是,这样,它不可避免地会导致回复时克劳德的高排斥率,这将导致用户不满并最终影响实用性。
今天的AI实际上有点像“测试者”。如果您在面对问题时无法给出明确的答案,为了提高您的成绩,AI会通过猜测做出回应,因为猜测后得分更高。我们的世界不是绝对的二元反对派,对与错,黑白,不是那么纯洁和简单。生活充满了不确定性,可能根本无法实现真正的准确性。
作为人类,当我们离开校园并经历挫折和实践时,我们将逐渐意识到“表达存在不确定性”的价值,但是在语言模型中,表达不确定性将受到惩罚。
为了解决这个问题,OpenAI建议重新设计评估标准。在评估AI时,如果存在不确定性,AI戒除并拒绝做出响应,则不应受到惩罚。
Openai认为:“我们的评估方法更喜欢准确性,需要更新这种方法,并且评分机制应该努力抑制猜测行为。如果主要评分系统不断鼓励猜测,则该模型将继续学习如何猜测。”
幻觉成为人工智能的“癌症”
“幻想”问题严重阻碍了AI的普及。如果应用于医疗保健或金融,不可靠的结果可能会产生严重的后果。
美国普渡大学的研究人员Tianyang Xu认为:“对于大多数幻觉,发生的可能性已降低到用户可以接受的水平。”但是,在法律和数学等领域,幻觉仍然是一个主要障碍。
加利福尼亚大学认知科学和人工智能研究专家马克·史蒂夫斯(Mark Steyvers)说:“ Openai正在努力并取得进步,但它离目标还很远,GPT并不经常承认它不知道。”
Tianyang Xu认为,扩大模型的规模可以改善幻觉问题,我们还可以丰富模型的内部相关性并提高培训数据的质量。当模型培训数据不足或基本信息不正确时,幻觉问题尤其严重。此外,当AI面对太长且内容超过理解能力的论文时,摘要和分析都会引起幻觉。
哥本哈根AI公司Silvi的研究人员Mushtaq Bilal指出,几乎不可能完全消除幻觉,如果可以做到的话,AI公司很久以前就可以做到这一点。
Saachi Jain管理AI安全团队。他认为减少错误并允许模型承认他们不知道是Openai的重点。为了解决这个问题,OpenAI倾向于给出冗长的开放式答案,这也可以减少幻觉。
艾伦人工智能研究所的AI研究人员Akari Asai认为,在文献综述的基准中,称为“ Scholarqa-CS”,GPT-5在允许网络的情况下表现良好。如果网络无法连接,GPT-5将遇到问题,因为大多数文献审查系统都可以与学术数据库进行交叉检查,并且跨隔离至关重要。如果您未连接到Internet,则GPT-5错误的可能性是GPT-4的两倍。
新科学家在一篇文章中说,不可避免的是AI会具有一定程度的幻觉,并且人类可以通过检索增强的发电技术来减轻它,也就是说,该模型是指外部数据并进行交叉比较。问题在于,随着模型的扩展,“幻觉率”似乎并没有减少,而是增加。
新科学家在2025年5月的一篇文章中指出,由于AI的复杂性增加,幻觉更加严重。一些人甚至大喊:“当AI变得更聪明时,幻觉不仅不会减少,而且会增加。”
幻觉似乎确实像AI癌。人类已经努力工作了很多年,无法治愈癌症。也许幻觉超出了人类认知,属于无法解决的类别。 (小刀)
原创文章,作者:匿名,如若转载,请注明出处:https://www.xinyuspace.com/27569.html
用户评论
熟悉看不清
真的没想到幻觉会在AI发展中成为这样大的阻碍!感觉和软件Bug一样,但又更难以修正吧。如果连OpenAI都束手无策,那未来AI的发展可真让人担忧…
有19位网友表示赞同!
花花世界总是那么虚伪﹌
我觉得这篇文章说的很对!最近看新闻,有些AI生成的文本简直就离谱,完全就是毫无逻辑的胡说八道。难道我们未来要被AI编造的各种幻觉糊弄吗?
有12位网友表示赞同!
一生荒唐
我一直觉得人工智能应该像人类一样,有正确的判断力和思考能力,而不是像现在这样,生成一些随机无序的信息。如果说幻觉是人工智能的“癌症”,那确实需要重视和解决啊!
有6位网友表示赞同!
一笑抵千言
OpenAI作为AI领域的领军企业,被这个问题困扰真的很让人意外。看来,AI的发展路还很长,还有很多未知风险和挑战需要我们去面对和克服。
有17位网友表示赞同!
摩天轮的依恋
其实我认为这篇文章有些夸张了。幻觉这种现象在各种机器学习模型中都可能出现,并不是特指AI。只要不断改进算法和训练数据,我相信这个问题是可以解决的。
有12位网友表示赞同!
煮酒
我一直对AI的发展充满期待,但现在看到这些报道,确实让我有点担心。如果AI一直被“幻觉”困扰,那它就无法真正像人类一样去思考和判断问题了,这会导致很多误判和灾难性的后果。
有8位网友表示赞同!
开心的笨小孩
难道说我们以后的日常生活都会受到AI幻觉的影响吗?想想未来,会不会有AI编造假新闻,或者制造各种混乱和恐慌?这个事情还真是让人心里发毛啊…
有7位网友表示赞同!
最怕挣扎
我觉得文章的问题点在于对“幻觉”的定义比较模糊。什么算作幻觉?需要更清晰的界限和标准才能更好地讨论这个问题。不然很容易陷入无意义的争论中去。
有6位网友表示赞同!
拥抱
幻觉是AI发展遇到的挑战,但这不应该成为阻止我们进步的绊脚石。只要不断研究,不断完善算法,我相信终有一天我们可以克服这个难题。
有11位网友表示赞同!
残花为谁悲丶
作为一个AI爱好者,我很失望看到这样的报道,但也理解这个问题确实很严重。我们需要认真对待,共同努力找到解决方案。
有17位网友表示赞同!
三年约
感觉标题有点过于耸人听闻了。虽然幻觉是AI发展的瓶颈之一,但这并不代表就无法治癒。只要技术不断发展,肯定会有更有效的方法来解决这个问题。毕竟,我们人类的历史就是不断克服困难、寻求进步的历程。
有18位网友表示赞同!
珠穆郎马疯@
我始终认为科技的发展要兼顾伦理和社会效益。如果AI被“幻觉”困扰,不仅会影响自身发展,也会对人类社会造成更大的负面影响。需要更多科学家和政界人士关注这个问题,共同探索可行的解决方案。
有7位网友表示赞同!
晨与橙与城
幻觉在AI模型中确实很常见的问题,主要是训练数据上的偏差导致的。希望研究人员能够找到更有效的方法去解决这个问题,比如开发全新的训练算法或者使用更干净、更全面的数据集.
有18位网友表示赞同!
岁岁年年
看到这样的报道真的让人不安。如果连OpenAI这种实力雄厚的公司都无法解决“幻觉”问题,那其他公司就更难了。 AI的发展确实需要更加谨慎和理性地进行。
有14位网友表示赞同!
满心狼藉
这篇文章让我意识到AI技术发展还存在很多挑战。 除了幻觉问题外,还有其他伦理、安全和公平性等方面的问题都需要认真思考和解决。
有19位网友表示赞同!
爱你的小笨蛋
其实我觉得“幻觉”也可能是一种新的可能性。比如我们可以利用AI生成具有特殊效果的艺术作品,或者用它来探索人类意识的奥秘。当然,这需要谨慎地去规划和引导,避免其带来的负面影响。
有9位网友表示赞同!