OpenAI开发了一款人工智能检测工具但尽管人们越来越担心但似乎不愿推出它
自ChatGPT诞生以来,OpenAI彻底改变了人工智能世界,并不断发展,为用户与AI工具的交互以及信息访问方式带来更多进步。不可否认,该公司为不同领域的用户带来了便利和实用性。然而,数据滥用非常普遍,尤其是在工作场所和学术机构。为了解决这个问题,OpenAI在过去一年里一直在开发一种检测工具,但尽管人们的担忧越来越多,但尚未发布。
OpenAI有一个AI文本水印和检测工具,由于采取了“刻意方法”,因此没有推出
ChatGPT改变了AI游戏以及内容生成和使用的方式。与任何AI工具一样,语言模型增强了信息的获取和呈现方式。然而,随着技术的进步,出现了各种威胁,包括学生滥用该工具作弊以及内容创建者将通过提示生成的文本作为原创文本。
为了尽量减少这个问题,OpenAI一直在开发一种工具来检测完全依赖ChatGPT进行内容创作的用户。然而,据《华尔街日报》报道,尽管人们对漏洞的担忧似乎很普遍,但该公司仍未推出该工具,仍在权衡潜在影响和结果。
OpenAI更新了其博客文章,介绍了其用于检测AI生成内容的工具及其水印方法。它表示,该技术对于局部篡改(例如释义)有效,但对于涉及重写的全局篡改则不那么准确。由于该方法可以让坏人找到解决方法,并可能阻止非母语人士使用该工具,OpenAI似乎犹豫不决,并且正在内部讨论是否发布该工具。
尽管OpenAI向TechCrunch证实该方法的准确率接近99.9%,但它仍将采取“慎重的做法”。该公司发言人表示,他们之所以谨慎行事,是因为:
“这其中涉及的复杂性及其对OpenAI之外的更广泛生态系统的可能影响。”
OpenAI不愿发布该工具的另一个可能原因是,水印可能会让其失去潜在的ChatGPT用户。约30%的ChatGPT用户提到,一旦水印系统完好无损,他们可能不会像以前那样频繁地使用该工具。
OpenAI还在其博客文章中提到,他们正在探索文本元数据作为替代方法,因为它是经过加密签名的,可确保不会出现误报。但是,现在还不知道这种方法是否有效以及会产生什么样的影响。我们将密切关注进一步的发展,敬请期待。