AI幻觉

人工智能的奇异世界及其幻觉

长期以来,人类思维一直难以解释,充满神秘感。现在,科学家们似乎已经承认了这一名单上的一个新竞争者——人工智能 (AI)。一开始,理解人工智能的思维听起来有点自相矛盾。然而,随着人工智能逐渐变得更有感知能力,并进化得更接近模仿人类及其情感,我们正在见证人类和动物与生俱来的现象——幻觉。

是的,看起来,当心灵被遗弃在沙漠中、被抛弃在岛上或被独自锁在没有门窗的房间里时,机器也会经历这种旅程。 人工智能幻觉 是真实存在的,科技专家和爱好者已经记录了多次观察和推论。

在今天的文章中,我们将探讨这个神秘而又有趣的方面 大型语言模型 (LLM) 并了解有关人工智能幻觉的奇异事实。 

什么是 AI 幻觉?

在人工智能的世界里,幻觉并不模糊地指大脑能够清晰想象的图案、颜色、形状或人物。相反,幻觉指的是不正确、不恰当甚至误导性的事实和反应 生成式人工智能工具 提出提示。

例如,想象一下向人工智能模型询问哈勃太空望远镜是什么,然后它会开始回答这样的问题:“IMAX 相机是一种专业的高分辨率电影......” 

这个答案无关紧要。但更重要的是,为什么模型产生的反应与所呈现的提示截然不同?专家认为幻觉可能源于多种因素,例如:

  • 人工智能训练数据质量差
  • 过度自信的人工智能模型 
  • 自然语言处理 (NLP) 程序的复杂性
  • 编码和解码错误
  • 对抗性攻击或对人工智能模型的黑客攻击
  • 来源参考分歧
  • 输入偏差或输入模糊等

人工智能幻觉极其危险,而且其强度只会随着应用规范的提高而增加。 

例如,产生幻觉的 GenAI 工具可能会给部署它的企业带来声誉损失。然而,当类似的 AI 模型部署在医疗保健等行业时,它会改变生死之间的等式。想象一下,如果 AI 模型产生幻觉并对患者的医学影像报告的数据分析产生反应,它可能会无意中将良性肿瘤报告为恶性,导致个人的诊断和治疗出现偏差。 

理解人工智能幻觉示例

人工智能幻觉有多种类型。让我们来了解一些最突出的类型。 

信息响应事实上不正确

  • 误报,例如将文本中正确的语法标记为不正确
  • 假阴性反应,例如忽略明显的错误并将其视为真实错误
  • 捏造不存在的事实
  • 引用来源错误或篡改
  • 过于自信地回答错误答案。例如:谁唱了《Here Comes Sun》?Metallica。
  • 混淆概念、姓名、地点或事件
  • 奇怪或可怕的反应,例如 Alexa 流行的恶魔般的自主笑声等

防止人工智能幻觉

人工智能生成的错误信息 任何类型的问题都可以被检测和修复。这就是使用人工智能的专长。我们发明了这一点,我们可以解决这个问题。以下是我们可以做到这一点的一些方法。 

限制回应

人们说,我们说多少种语言并不重要。我们需要知道什么时候停止用所有语言说话。这也适用于人工智能模型及其响应。在这种情况下,我们可以限制模型生成特定数量响应的能力,并降低其产生奇怪结果的可能性。这称为正则化,它还涉及惩罚对提示产生极端和过度结果的人工智能模型。 

引用和提取回应的相关且严密的来源

在训练 AI 模型时,我们还可以限制模型可以参考和提取信息的来源,使其仅限于合法可信的来源。例如,医疗 AI 模型(如我们之前讨论的一个例子)只能参考包含医学图像和成像技术的可信信息来源。这可以防止机器从双极来源中查找和关联模式并生成响应。 

定义 AI 模型的目的

AI 模型学习能力很强,只需要准确地告诉它们应该做什么。通过准确定义模型的目的,我们可以训练模型了解自己的能力和局限性。这将使它们能够通过将生成的响应与用户提示及其目的进行匹配来自主验证其响应,以提供清晰的结果。

人工智能中的人类监督

训练 AI 系统就像教孩子第一次游泳或骑自行车一样重要。它需要成人的监督、调节、干预和指导。大多数 AI 幻觉都是由于人类在 AI 开发的不同阶段的疏忽而发生的。通过部署合适的专家并确保人机协作工作流程来验证和审查 AI 响应,可以实现高质量的结果。此外,可以进一步完善模型以提高准确性和精确度。

Shaip 和我们在预防人工智能幻觉方面的作用

造成幻觉的另一个最大原因就是糟糕的 AI 训练数据。你输入什么,就会得到什么。这就是为什么 Shaip 采取积极措施,确保为你的 AI 提供最高质量的数据。 生成式人工智能训练 需要。 

我们严格的质量保证协议和合乎道德的数据集非常适合您的 AI 愿景,可提供清晰的结果。虽然技术故障可以解决,但至关重要的是,必须从基层解决对训练数据质量的担忧,以防止从头开始重新开发模型。这就是为什么您的 人工智能和法学硕士 训练阶段应该从 Shaip 的数据集开始。 

社交分享