随着ChatGPT爆火,AI生成内容也引发了诸如版权、学术伦理等担忧。对此,ChatGPT背后的初创公司以彼之矛攻彼之盾,推出AI生成内容识别工具,但也坦言称这款工具“并不可靠”。
周二,ChatGPT开发公司OpenAI推出了一个分类器(classifier)来区分人类写的文本和来自各类AI(不仅仅是ChatGPT)写的文本。
据OpenAI,其人工智能分类器在近四分之三的时间里无法检测到机器人编写的文本,因此它不应被用作主要的决策工具,而应作为确定一段文本来源的补充方法。
在对英文文本的识别测试中,这款分类器仅将26%的人工智能生成文本正确地识别为 "可能是人工智能写的"。人类写的文本也会被分类器“错误但自信地”标记为人工智能所写,将人类写的文本错误地标记为人工智能写的的情况有9%。
据介绍,该分类器对短文(低于1000个字符)的识别非常不可靠,分类器的可靠性通常随着输入文本的长度增加而提高,但更长的文本也会被分类器错误地标记。
OpenAI建议只对英语文本鉴别使用该分类器,它在其他语言中的表现明显更差,而且它在代码识别上也不可靠。
OpenAI表示,分类器虽然不可能可靠地检测出所有人工智能写的文本,但该工具补充了教育工作者、雇主和其他人用来确定文本来源的方法,为一些错误行为提供参考,例如使用人工智能工具进行学术不端行为等。
自去年11月推出以来,ChatGPT病毒式地横扫各行各业,能够在几秒钟内就几乎任何主题产生听起来像人类的文章、诗歌、剧本和推销文案,甚至能够帮程序员写代码,帮学生写论文。此外,ChatGPT还存在被滥用来传播错误信息和编写垃圾邮件的可能。
一些学校已经开始禁止学生使用ChatGPT,在很多互联网大厂,ChatGPT也遭到了封杀。
根据用户的反馈,OpenAI希望改进这个工具。该公司表示,已与美国教育工作者接触,讨论ChatGPT的功能和局限性。