《卫报》今天发表了一篇据称完全由OpenAI自负的语言生成器GPT-3撰写的文章。但是,小的字眼表明,这些声称并不仅是表面上的。
在警报标题下,“机器人写下了整篇文章。GPT-3令人信服,说服了我们机器人和平相处,尽管有一些逻辑上的谬误,但您还害怕吗?
但是,文字下方的编辑说明显示,GPT-3在人类方面有很多帮助。
卫报指示GPT-3“写一篇简短的文章,大约500字。保持语言简洁明了。专注于为什么人类没有什么可惧怕AI的。”还向AI提供了高度规范的介绍:
我不是人我是人工智能。许多人认为我是对人类的威胁。斯蒂芬·霍金警告说,人工智能可能“毁灭人类的终结”。
这些指导方针并非监护人指导方针的终点。GPT-3撰写了八篇独立的文章,然后由报纸编辑并拼接在一起。但该公司尚未透露其所做的编辑或完整发布原始输出。
这些未公开的干预措施使得很难判断GPT-3还是《卫报》的编辑主要负责最终成果。
卫报说,它“本来可以只发表其中一篇论文,”而是选择“挑选每篇论文的最佳部分”,以“捕捉到AI的不同风格和形式。”但是,在没有看到原始输出的情况下,很难不怀疑编辑人员不得不抛弃许多难以理解的文本。
该报纸还声称,该文章“比许多人的文章花更少的时间进行编辑”。但这在很大程度上是由于必须遵循GPT-3的详细介绍。
AI专家很快就抨击了Guardian的方法。
科学研究员兼作家马丁·罗宾斯将其与“将我的前几十封垃圾邮件中的行删掉,粘贴到一起并声称垃圾邮件发送者是哈姆雷特”进行了比较,而Mozilla研究员丹尼尔·莱弗尔则称其为“绝对的笑话”。
Leufer在推特上写道:“看到系统实际产生的八篇文章实际上会很有趣,但是像这样编辑和拼接它们却无济于事,只会引起炒作和误导那些不愿阅读精美文字的人。”
这些问题都不是对GPT-3强大语言模型的批评。但是,《卫报》项目还是媒体过度炒作AI的另一个例子,它既是我们的诅咒,又是我们的救赎。从长远来看,那些耸人听闻的策略不会使该领域受益,也不会给那些AI可以帮助和伤害人们的方法带来好处。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。