判断AI生成内容的7个方法

我经常想:为什么要关心内容是不是AI创作的?

网上有很多理由,但我觉得最重要是:要确保得到的信息是可靠的,这样就不会被骗、也不会不小心把假消息或者AI生成的消息传给别人。

想象一下,如果你因为一条假消息、或者AI生成的消息而感到害怕,那种感觉太糟糕了。

还记得几年前的COVID-19疫情吗?我在社群里看到有人说住的街道要封锁了,邻居们立刻慌了,纷纷跑去超市买东西。我也买了很多食物,但后来发现只是谣言,最后,那些食物都放坏了,也没吃完。

我们生活的世界里,假消息和AI生成的消息一直都有,但社交媒体让它们传播得更快了,因为社交媒体让我们很容易就能看到、分享新闻。

有时候,新闻的客观性和平衡性被忽视了,甚至,有人故意不这么做;这就导致了很多人在没检查内容是否真实的情况下,就分享出去。

还有一点,我觉得,AI生成的内容会让人误以为它们是经过验证的真理。

比如,你在网上搜索一个法律问题,然后你遇到了一个看起来很专业的网站,上面有一篇关于这个法律问题的文章。

这篇文章逻辑严密,用词专业,看起来像是法律专家写的,但是,这篇文章是AI生成的,它虚构一些不存在的法律条款来回答你的问题。

如果你没有足够的法律知识,你可能会相信这篇文章里的内容,认为它是真实的。

还有一个例子,是几年前我面试的一位同学。他之前没有私域运营的经验,但在网上看了一些“私域运营”的方法就来面试了。

他跟我聊得头头是道,谈什么客户细分策略、个性化沟通技巧等;但当我问他之前管理过多大用户规模时,他答不上来。

所以,很多内容是被制造出来的,不仅是AI,甚至人也会编造听起来很专业的建议;如果在一个行业没有经验,你可能会相信某个内容,认为是经过验证的真实经验。

总是看到AI生成的内容,我们会开始怀疑所有的消息,哪怕它们是真的,这样,真假就分不清了;这种情况持续下去,大家可能不再相信新闻、真经验了。

因此,我们需要想办法对抗AI生成的部分内容。那么,怎么看一个内容,是不是AI生成的呢?

第一点,对于长文章,可以用一些工具来检查。比如,ChatGPT、Copyscape和grammarly,国内也有不少类似的,网上一搜有很多。

但是,现在信息这么多,我们平时看东西时,哪儿有那么个功夫一个个去查?所以,可能会不小心接触到一些博主或投机者制造的AI生成内容。

那怎么办?

第二点,我会看作者的写作习惯。不管一个人写作技巧多高,他们写东西时总会带点个人特色。

就像小时候,语文老师教我们写作文要有条理,但长大后,写东西时其实不会完全照老师教的做,而是会用自己慢慢摸索出来的方法。

这些方法像心里的一套技巧,每个人都有一套。而且,我们工作久了,对那些严格的语法规则早就不太记得了,写东西时不可能总那么规范。

所以,当你看一篇文章,如果它看起来特别完美,一点个人风格都没有,那可能得仔细审视了;因为人写的东西,总会有些小瑕疵,而AI写的东西太完美了,少了点人的那种小缺陷。

第三点,我会留意内容是不是太规整了。

我说的是“规整”,是文章看起来是不是太正式,如果一篇文章读起来特别顺,一点毛病都挑不出来,那么,它可能是AI写的。

人写东西,不太可能每句话都那么严密,就算用AI帮忙改改句子,整篇文章的感觉,依然能被觉察到不自然的部分。

这是第四点,我会用句子分析法。

我们在看文章或者写东西时,不可能一口气从头读到尾或者写到底,中间总会停下来喘口气。

我读过一个研究,名字叫《连续语音的神经编码》[1],发表在《生理学报》上。

这个研究,讲人脑怎么处理连续说话的声音,还发现说话结构有好多层;研究里有个发现很有意思,说大脑在阅读或者写作时,会有一种段落感。

简单讲,读或者写到一定程度,就要停下来,不然脑子会感到累,这种停顿和段落感,是大脑处理信息的一种自然方式。

人写的东西不可能一气呵成,一句话连着写20个字写不停,那不可能;AI不一样,AI生成内容不会有停顿,因为AI不需要像人类一样思考,它没有思考的间隙,所以,内容会显得特别流畅。

第五点,我会判断语法的正确性。

语法像语言的“交通规则”,它告诉我们怎么把单词拼在一起,组成别人能听懂的句子。

比如:按照一定词序,先放主语,然后是动词,最后是宾语。这样的结构让句子流畅,就像一条清晰指引方向的路标。

要么按照时态,我们会说“我现在正在开车”(现在进行时),或者“我昨天开车去了超市”(过去时)。这种时态的变化,让语言有了时间的维度,能够描绘出动作发生的先后顺序。

最常用还有主谓的表达,就像一辆车不能同时向前和向后开,句子里的主语和谓语在数量上要一致,类似于“我跑得很快,他们跟在后面”等。

这种一致性确保句子的逻辑性、清晰度。生成式AI语法经过训练,规规矩矩,不会出错,会按照课本中一套标准进行;人不一样,句子里有个人见解、经验,总带点真实感的瑕疵。

除了检查语法,我还会注意文章结构,AI写东西结构公式化特别明显,感觉像硬套上去的。

我记得之前看过一篇文章,教人怎么去掉AI味儿,就是让AI写的东西看起来更像人写的;里面提到用一些提示词,教人怎么给AI的内容加点儿情绪,让它看起来不那么机械。

但我觉得,就算你给AI写的东西加再多情绪,还是能感觉出来它结构太规整了;人写东西,讲究意思表达清楚,不用太多花哨的修饰。AI呢?它就喜欢模仿人的语气,写出来的东西,太书面化。

这就像外国人学说中文,他可能学的是河南话,但说起来总会带点外国口音。所以,你看多了就能分辨出来,AI表达的情绪和真人不一样。这是第六点。

第七点,我会看内容到底逻辑正确,还是事实正确?

刘润在2023年的演讲中,因为“折扣妈妈”事件翻车了,这件事大家都知道,但如果仔细分析他的演讲,会发现他的逻辑相当严密。

什么是逻辑正确呢?就是说,有观点,有论据,还有例子,组合在一起听起来很合理;但如果单独看某个例子,可能会发现它并不能支持整个逻辑。

再举一个例子:有人说“早起的鸟儿有虫吃”,听起来很有道理,逻辑上也没错。但如果深究,会发现有些鸟其实是在晚上觅食。

所以,例子并不总能证明所有早起的鸟都有虫吃,有时候,逻辑上看似无懈可击,但实际上可能并不成立。

看到这新问题出现了:逻辑和事实有什么区别?

我认为,逻辑关注论证是否严密。就像我们在辩论时,先提出观点,然后,一二三四五,一条条理由列出来,最后得出结论,这就叫逻辑论证。

事实不一样了,它包括事情发生的背景,比如:什么时候、在哪里、谁做的,就像新闻报道中的5W原则(Who、What、When、Where、Why、How)

要证明“早起的鸟儿有虫吃”,我们得说清楚是哪种鸟,什么时候,它有什么习惯。还要明确“有虫吃”是指吃什么,在哪里,为什么会选择早上。甚至怎么吃的?是先用眼睛找到虫子,然后扑过去,还是用鼻子闻出来的?这些都得进一步研究。

因此,逻辑是讲道理,一环扣一环的;事实是研究,研究要讲情况,说具体发生了什么。

其实,一篇文章或者一段话能回答其中的两三个,或者三四个大问题,基本上就能看出内容是AI生成的,还是人写的,AI可以特别严谨,但人不可能那么完美。

这七个方法,你可以试试看。

对了,如果你想知道自己写的东西有没有被别人抄袭,可以用AI抄袭发现工具。比如:Turnitin和Quetext,它能将一段内容与其他内容的庞大数据库进行比较,并让你知道是否有匹配项。

写到这,我在想,什么样的内容才算是好内容?

我读了很多专家的看法,发现好内容不光要真实可靠,还得是深入研究出来的,得有专业的知识、独到的见解和深刻的观点。

这种内容不是那种表面的东西,不是看了就忘的快餐信息,它得有长久的价值,能一直给读者带来好处和启发。

但我也在问自己,好内容是不是就是能解决社会问题的?这里有个问题,好内容不一定是人们想看的,人们喜欢的和内容真正有价值的,有时候并不匹配。

内容价值有很多种,比如娱乐的、情感的、文化的和信息的,大多数人喜欢看的是娱乐内容,这些内容给人娱乐和情感上的满足。

但也有一种价值,是关于价值观的,比如勤奋和努力这种正面的价值观,这种内容也能做,但是难度大,成本高,所以,人们更喜欢那些成本低的娱乐和情感内容。

情感价值只是暂时的,如果价值观不对,情感问题还是解决不了;就像有人说的,“短暂的快乐会带来长久的孤独”。

如果人们不再追求价值观上的价值,社会就会变得没有活力。现在很多年轻人没精神,和新媒体提供的大量情感价值有很大关系。

因此,我觉得做有价值的内容,就是要,做有正面价值观的内容,在这个过程中,追求真实是建立内容价值的重要一步。

希望你能用AI工具,来提高自己的工作效率,但是,不要用AI随便生成内容去敷衍别人,这样做看起来是骗了别人,其实最后骗的是自己,因为投入了宝贵的时间。

对待每一份内容的输出,都要认真;毕竟内容有复利属性,而想要得到复利,就得把真经验、真知识沉淀下来,不是吗?

文中研究参考:

[1].潘珣祎, 邹家杰, 金培清, 丁鼐. 连续语音的神经编码——脑电图、脑磁图研究进展[J]. 生理学报, 2019, 71(6): 935-945. DOI: 10.13294/j.aps.2019.0060

本文来自作者:王智远,不代表爱氧气立场,平台仅提供信息存储空间服务。

本网站属于非赢利性网站,如对本稿件有异议或投诉,请联系(iyangqi@qq.com)爱氧气处理。

(1)
上一篇 2024年11月14日 上午9:27
下一篇 2024年11月14日 上午10:22

相关推荐

联系我们

联系我们

在线咨询: QQ交谈

邮件:iyangqi#qq.com

工作时间:周一至周五,9:30-17:30,节假日休息

分享本页
返回顶部