Meta说他们的 Llama 4 偏见少了!但,“虚假对等”才是真偏见

Facebook 元宇宙 meta

媒体领域的“各打五十大板”沿用到了 AI 身上,“虚假的对等”问题愈发严重……

站长之家4月11日 消息:Meta 公司称,相比之前的版本,他们最新的人工智能模型 Llama 4 的政治偏见更少了。该公司称,其中一部分便是通过允许该模型回答更多带有政治争议性的问题来实现这一点的。

元公司还称:“我们的目标是消除人工智能模型中的偏见,并确保 Llama 4 模型能够理解、并清晰地阐述争议性问题的正反两面。为此,我们也会继续提高 Llama 4 模型的“回应性”,以便它能在不做评判的情况下,回应各种不同的观点,且不偏袒某些观点。”

一些人对少数公司开发的 AI 大型模型持怀疑态度,而他们担心的一个问题便是:这些模型可能会在某种程度上,“控制”信息领域!实际上,控制 AI 模型的人基本上就能控制人们接收到的信息,并能随心所欲地进行“调整”。当然,这并非是什么新鲜事儿。长期以来,互联网平台一直通过算法来决定展示哪些内容、不展示哪些内容。这就是为什么 Meta 仍受到保守派的抨击,许多保守派人士认为,虽然从以往情况来看,保守派内容在 Facebook 上一直更受欢迎,但这家公司却压制了右翼观点。且为了避免监管方面的问题,其 CEO 马克・扎克伯格一直在拼命讨好政府。

Meta 在其博客文章中强调,对 Llama 4 所做的修改,是为了让该模型不那么偏向自由派。文章中写道:“众所周知,所有领先的大语言模型都存在偏见问题 —— 具体来说,在有争议的政治和社会话题上,以往它们一直倾向于左派观点。这是由网络上可用于训练的数据类型导致的结果。”

该公司尚未披露用于训练 Llama 4 的数据从何而来,但我们都知道,Meta 以及其他 AI 模型开发公司都喜欢“窃取”未经授权的盗版书籍和网页数据。

造假,刷单,假货,打假

通过“优化”以实现 “平衡” 存在的一个问题是,这可能会造成一种“虚假的对等”,并提高了那些并非基于实证和科学数据的“恶意论点”的可信度。在媒体领域,一些人有一种责任,即使一方是基于数据进行论证,而另一方是在宣扬阴谋论,他们也会觉得有责任对对立观点给予同等重视,这种 “各打五十大板”的现象层出不穷。

即使到了今天,领先的 AI 模型在生成事实准确的信息方面仍然存在一个有害的问题 —— 它们依旧经常编造信息、并进行虚假表述。人工智能确实很有用,但作为一种信息检索系统,过度信赖和依赖它存在很大的风险。AI 模型能够十分自信地输出错误信息,而以往凭借直觉来判断一个网站是否合法的所有方法都不再适用。

实际上,AI 模型确实存在偏见问题。 比如,图像识别模型在识别有色人种方面就存在问题。而且女性常常被以性感化的方式呈现,比如穿着暴露的服装。有些偏见甚至以更无害的形式出现:人们很容易通过频繁出现的破折号来识别由人工智能生成的文本,破折号是记者和其他创作者偏爱的标点符号,而这些人创作的大量内容正是模型训练所依据的。

模型体现了普通大众中流行的、主流的观点。而 Meta 的这次“调整”,让他们的模型不再偏向自由派,大概是因为他们看到了讨好特朗普的机会,正在采取政治上有利的行动吧。所以,下次当你使用 Meta 的 AI 产品时,它可能会为“通过服用马用镇静剂来治疗新冠病毒”这种观点说好话!

打开APP阅读更多精彩内容