研究人员通过构建基于-2开源小模型的交互工具来测试他们的想法。当为工具提供一段文字时,会让每个单词高亮显示不同的颜色,从绿色到黄色到红色,表示预测概率在逐渐降低;如果语言模型根本不预测一个词,它会用紫色突出这个词。所以理论上红色和紫色的字越多,文字被人类书写的概率就越大。绿色和黄色单词的份额越大,语言模型生成文本的概率就越大。
图3 -2小模型生成的文本。(来源:)
事实上,研究人员发现,GPT-2的小模型和完整版本中写的段落几乎完全是绿色和黄色的,而人类写的科学摘要中的文本和美国标准化入学考试中的阅读理解段落中有许多红色和紫色。
美国标准化入学考试的阅读理解短文是人类写的。(来源:)
但是事情并没有想象的那么简单。她是经营博客的研究员。她没有参与上述研究。她使用该工具进行了更严格的测试,不仅提供了GPT 2号生成的文本,还提供了其他语言模型生成的文本,包括亚马逊评论(Amazon Review)训练的模型和《龙与地下城》语料库训练的模型。
她发现这个工具无法预测每一段的大部分文字,所以工具认为这些文字是人类写的。这说明了一个重要的观点:
语言模型可能擅长检测自己的输出,但不一定擅长检测其他语言模型的输出。
看来任中打击网络假新闻的路还很长。
-结束-
编辑:李根
原始链接:
-ai-for - fake-news -也-help-detect-it/
深度科技招聘:科技编辑/记者,实习生
坐标:
北京国际贸易
联系信息:
hr@mittrchina.com
请在简历中附上之前的3篇作品(实习生除外)
相关阅读
标签: #新闻事件检测模型