设计软件问答为您提供设计软件的相关问题咨询与解答,印刷案例规格及印刷报价,让您实时了解设计软件的各类相关问题及印刷相关问题,并提供设计时的注意事项,为您提供各设计软件的相关问题解决方案
印刷厂 2022-12-15 09:15 138
那句话是人工智能写的吗?OpenAI 的新聊天机器人 ChatGPT 引发了公家对一个关键问题的讨论:我们若何晓得网上的内容是人写的,仍是人工智能写的?
自 2022 年 11 月发布以来,已有超越一百万人利用过 ChatGPT。它让人工智能社区沉迷,并且很显然,人工智能生成的文本正在收集上肆意传布。人们用它来编笑话、写故事和草拟更好的电子邮件。
ChatGPT 是 OpenAI 的大型语言模子 GPT-* 的衍消费品。针对用户提出的问题,该模子能够生成看起来很像是人类做出的答复。
那些大型语言模子的魔力在于,它们的答复看起来十分实在。但因为人们难以分辩,由此引发的准确性错觉也可能带来危险。
人工智能模子写出的句子看起来是准确的,它们以准确的挨次利用了准确的词汇和语法,但人工智能理解不了它们的含义。
那些模子通过预测句子中最有可能呈现的下一个词来工做,所以他们其实不晓得本身说的是对仍是错。即便说的是错的,他们也会用“言之凿凿”的语气表述出来。
在一个已经两极分化、充满政治色彩的收集世界中,那些人工智能东西可能会进一步扭曲我们获取的信息。若是他们被某些产物接纳并风行世界,后果可能是扑灭性的。
人工智能草创公司 Hugging Face 的政策总监艾琳·索莱曼 (Irene Solaiman) 暗示,我们迫切需要可以区分人类和人工智能编写的文本的办法,以应对潜在的手艺滥用。
索莱曼曾是 OpenAI 的人工智能研究员,为 GPT-* 的前身 GPT-2 的发布研究了人工智能模子的输出检测。
找到识他人工智能生成代码的办法也至关重要,例如法式员常用的 Stack Overflow 比来颁布发表暂时制止发布由 ChatGPT 生成的答复。
ChatGPT 能够自信地生成编程问题的谜底,但它并不是完全准确。错误的代码会招致软件 bug,在许多范畴,一个 bug 可能带来昂扬的代价并形成紊乱。
Stack Overflow 发言人暗示,该公司的审核员正在“利用包罗启发式和检测模子在内的多种东西,查抄数千份由社区成员提交的陈述”,但不会透露更多细节。
现实上,实现那一目的十分困难,完全制止人工智能的答复几乎是不成能的。
研究人员测验考试了多种办法来检测人工智能生成的文本。一种常见的办法是利用软件来阐发文本的差别特征——例如阅读的流利水平、某些单词呈现的频次,或者标点符号、句子长度能否有规律。
“若是你有足够多的文本,一个十分简单的线索就是‘the’那个词过于频繁的呈现,”谷歌大脑的高级研究科学家达芙妮·伊波利托(Daphne Ippolito)解释说。
因为大型语言模子通过预测句子中的下一个词来工做,因而它们更有可能利用“the”“it”或“is”等常见词,而不是不成靠的稀有词。
伊波利托和谷歌研究人员在 201* 年颁发的论文中发现,那恰是主动检测系统擅长识此外文本类型。
但伊波利托的研究也显示了一些有趣的工具:人类参与者倾向于认为,那种“清洁”的文本看起来更好,错误更少,因而它更像是人类写的。
现实上,人类撰写的文本凡是会有拼写错误,而且变化无穷,包罗差别的气概和俚语,而“语言模子很少呈现拼写错误,他们更擅长生成完美的文本,” 伊波利托说。
“文本中的错别字现实上是一个很好的目标,表白它是人写的,”她弥补道。
大型语言模子自己也可用于检测人工智能生成的文本。不列颠哥伦比亚大学的天然语言处置和机器进修研究主席穆罕默德·阿卜杜勒-马吉德(Muhammad Abdul-Mageed)说,最胜利的办法之一是在一些由人类编写的文本和一些由机器创建的文本上从头训练模子,使它学会区分两者。
与此同时,德克萨斯大学的计算机科学家斯科特·阿伦森( Scott Aaronson)不断在为 GPT-* 等模子生成的较长文本开发“水印”机造。他在博客中写道,通过在词汇选择上参加“不惹人留意的奥秘信号”,人们就能够证明那段文字是 GPT 模子生成的。
OpenAI 发言人证明,该公司正在研究水印,而且暗示其政策规定用户应该“以一种任何人都不会合理地漏看或曲解的体例”清晰地指出哪些是人工智能生成的文本。
但那些手艺修复勤奋也存在一些问题。他们大多尚未有时机匹敌最新一代的人工智能语言模子,因为它们是成立在 GPT-2 或其他早期模子之上的。
当有大量文本可供检测时,许多检测东西的效果不错;但它们在某些详细场景的表示较差,例如聊天机器人或电子邮件助理,因为那些场景只要较短的对话,无法供给更多的数据用来阐发。
Abdul-Mageed 还指出,利用大型语言模子停止检测还需要强大的计算机,以及拜候 AI 模子自己,科技公司凡是不会允许如许做。
索莱曼暗示,模子越大、性能越强大,就越难构建对应的人工智能模子来检测哪些文本是人写的,哪些不是。
“如今最令人担忧的是 ,ChatGPT 的输出量量十分令人印象深入。检测模子难以企及,只能在后面不断追逐,”她说。
索莱曼说,检测人工智能编写的文本没有一个 100% 准确的办法。 “检测模子不会成为合成文本的过关测试,就像平安过滤器不是减轻成见的独一手段,”她说。
为了有时机处理那个问题,我们需要改良手艺修复手段并进步人类与人工智能交互时的通明度,人们还要学会若何识别藏在人工智能缔造的文本中的陈迹。
伊波利托说:“若是有一个 Chrome 或其他收集阅读器的插件,或答应以通过它让你晓得网页上的任何文本能否是机器生成的。那将是一件十分好的工作。”
一些人已经在勤奋。哈佛大学和 IBM 的研究人员开发了一种名为“大语言模子测试屋 Giant Language Model Test Room (GLTR)” 的东西,它通过高亮显示可能由人工智能生成的文字段落来帮忙人们留意哪里有问题。
但是人工智能已经在能够将通俗人玩弄于股掌之间了。康奈尔大学的研究人员发现,在 66% 的情况下,人们认为 GPT-2 生成的假新闻文章是可信的。
另一项研究发现,未经训练的人识别 GPT-* 生成文本的准确率低得就像随机选择的差不多。
伊波利托说,好动静是人们能够承受训练,以更好地识别 AI 生成的文本。她开发了一个游戏来测试在用户意识到之前人工智能模子能够生成几句子。她发现跟着时间的推移,人们会逐步做得更好。
“若是你查看大量生成文本,并试图找出此中没有意义的处所,你就能够更好地完成那项使命,”她说。一种办法是发现那些难以置信的表述,好比人工智能会说煮一杯咖啡需要 60 分钟。
ChatGPT 的前身 GPT-* 在 2020 年才问世。OpenAI 暗示 ChatGPT 只是一个演示,但开发类似功用强大的模子,并将其应用到用于客服聊天机器人等产物中,只是时间问题。
那就是问题的症结所在:该范畴的飞速开展意味着,识他人工智能生成文本的许多办法城市很快过时。若是那是一场人类和人工智能之间的军备竞赛,那么如今人类正在失败。
撑持:Ren
原文:
021yin.com/2022/12/1*/106***6/how-to-spot-ai-generated-text/
你有多久没有听过笔尖与纸摩擦的沙沙声,你有多久没有带上本子把心情随笔写下,或许,你需要的是一本精致的本子哟!试着挣开手机的束缚吧,回归本真,每次下笔,只为心之所向,像读书时那样,一纸一笔,带着初衷,缓慢而真诚。上海年升包装吉印通是王氏兄弟...
2022-07-10 109
工作证的规格应该是卡片的规格85mmx55mm工作证。一寸照片规格是宽2.5mm×3.5mm,300DPI。在ps设定裁剪工具的宽丶长丶分辨率就可以裁出这样的尺寸相片。
2021-09-04 1206
PS集贤居—用分享的眼光看世界pdf怎么改大小!感谢邀请pdf怎么改大小。问题:PDF文件怎样压缩比较便捷pdf怎么改大小。换一种说法即:如何压缩PDF文档pdf怎么改大小。小编推荐以下几种压缩PDF文档的方法pdf怎...
2021-05-30 719
我们在做PDF格式文件的时候,做好后,给PDF格式的文档添加文字页码,这是必不可少的indesign页码设置。想给PDF格式的文档添加文字页码,但是却不知道怎么去添加文字页码。今天小编来给大家讲解,如何给PDF格式...
2021-02-04 881