第228章 课 港大“幽灵引用”撤稿案比AI幻觉更危险的,是人类放弃自查

天才一秒记住【笔下文学网】地址:bxwxw.org

港大一篇题为《香港40年生育转变》的论文,2025年10月刚发表就因“幽灵引用”陷入风波。论文里二十多篇格式规范的参考文献,竟全是ai生成的虚构内容,更讽刺的是,其中一篇还赫然署着通讯作者叶兆辉的名字——这位导师却从未写过该文。12月论文被撤,叶兆辉因监管失职卸任学院职务,博士生白逸铭被追责。这场闹剧的核心并非ai“胡说八道”,而是人类彻底放弃了核查本能:学生没花十分钟验证文献真伪,导师没通读论文发现漏洞。这堂课将从心理学、《易经》智慧与哲学思辨的角度,拆解ai时代人类“自查缺位”的深层危机,带你看清“工具依赖”与“独立判断”的博弈边界。

课堂对话实录

——ai时代,我们为何弄丢了“较真”的能力?

(场景:港大人文社科阶梯教室,午后阳光斜斜照在黑板上。和蔼教授站在讲台中央,身后投影屏赫然显示着“幽灵引用”事件的新闻标题。叶寒、秦易、许黑、蒋尘、周游、吴劫六位学生坐在前排,笔记本摊开,眼神里满是好奇。)

和蔼教授:(放下手中的保温杯,笑着看向台下)同学们,今天我们不讲晦涩的理论,就聊一个最近刷屏的新闻——咱们学校那篇“幽灵引用”论文撤稿案。秦易,你先说说,这件事最让你觉得离谱的地方是什么?

秦易:(推了推眼镜,脱口而出)教授,我觉得最魔幻的是那个署名乌龙!通讯作者叶兆辉老师,自己被引用了一篇从没写过的论文,居然从头到尾没发现。这就像有人把你的名字印在一本你没读过的书上,你还签字说“这是我写的”,太不可思议了!

和蔼教授:(点头)说得好。这背后其实藏着一个心理学概念——习惯性依赖。心理学上有个“责任分散效应”,当一个任务由多人协作完成时,每个人的责任感都会被稀释。博士生白逸铭觉得“导师会把关”,导师叶兆辉觉得“学生已经反复核对过”,最后谁都没真正去查那些引用。这种“反正有人会做”的心态,比ai幻觉更可怕。

许黑:(突然举手,语气带着点不服气)教授,我觉得不能全怪他们!现在ai太智能了,生成的文献格式比我自己排版都规范,标题、期刊、年份一应俱全,换谁第一眼看上去,都觉得是真的吧?ai的“创造性补全”模式,就是专门制造这种“逼真的谎言”啊!

和蔼教授:(挑眉)许黑这个点问到了关键。ai生成内容时,用的是“预测式写作”——它会根据上下文,拼出最符合逻辑的内容,哪怕这个内容是假的。但大家想想,《易经》里“履卦”的智慧是什么?(转身在黑板上写下“履,履虎尾,不咥人,亨”)履卦讲的是“行走之道”,踩在老虎尾巴上却不被咬,靠的不是运气,而是“步步谨慎”。ai就像那只老虎,你用它的时候,不能闭着眼睛往前冲,得时刻盯着它的尾巴——也就是它生成内容的真实性。

叶寒:(托着下巴,若有所思)教授,您的意思是,《易经》的“慎始慎终”,放在今天就是“全程自查”?可我身边好多同学写论文,都是让ai生成引用,直接复制粘贴,连看都不看一眼。他们总说“ai比我靠谱”,这算不算一种哲学上的“工具异化”?

和蔼教授:(拍了拍手,语气赞许)叶寒这个词用得精准!哲学里的“异化”,指的是人类创造的工具,反过来支配了人类。马克思说过,“机器的发展,会使工人的劳动变得越来越片面”。放在ai时代,这个“片面”就变成了——我们把“思考”和“核查”的权利,全部让渡给了机器。蒋尘,你说说,你有没有过“依赖ai,放弃自查”的经历?

蒋尘:(不好意思地挠挠头)教授,我还真有!上次写课程论文,让ai帮我找参考文献,生成了十多篇,我直接抄进了论文里。后来导师让我去核对每篇文献的doi号,结果发现有三篇根本查不到。现在想想,我当时就是偷懒,觉得“ai不会错”,其实是我自己放弃了“较真”的能力。

和蔼教授:(温和一笑)这很正常,人性本就有“趋利避害”的本能,自查这件事,费时费力,属于“反人性”的行为。但《易经》里“否卦”和“泰卦”的转换告诉我们,“否极泰来”的前提,是你主动去打破“闭塞不通”的局面。如果白逸铭当时能花十分钟,开个新的ai对话窗口,把引用列表丢进去问一句“这些文献是否真实存在”,九成的虚假内容都会原形毕露。这就是“主动破局”,而不是等着“事情自己变好”。

周游:(突然站起来,语气激动)教授,我有个疑问!既然ai能生成假文献,又能验证假文献,那为什么不能让ai全程闭环?比如,让生成内容的ai自己检查,不就万事大吉了吗?

和蔼教授:(摇了摇头,眼神里带着深意)周游,你这个想法,犯了一个哲学上的“循环论证”错误。同一个ai,既当“球员”又当“裁判”,它的验证结果,本质上是对自己之前生成内容的“自圆其说”。就像一个人说“我没撒谎”,你能直接信吗?心理学上有个“证实性偏见”,ai会下意识地维护自己的输出,哪怕这个输出是错的。所以,真正靠谱的验证,必须是“交叉验证”——让不同的ai互相核查,让人类做最终的判断。

吴劫:(皱着眉头,语气沉重)教授,我突然想到一个更可怕的问题。如果有一天,所有的学术研究、新闻报道、甚至医疗诊断,都依赖ai生成,而人类彻底放弃了自查,那我们会不会活在一个“被ai编织的谎言世界”里?就像《黑客帝国》里的矩阵,我们以为的“真实”,其实都是机器制造的幻觉。

和蔼教授:(眼神变得严肃)吴劫这个问题,戳中了ai时代的核心危机——人类判断力的退化。哲学里有个“认识论”的命题:“实践是检验真理的唯一标准”。ai生成的内容,再逼真也只是“理论假设”,必须经过人类的实践核查,才能成为“真理”。港大这个案例,就是一个活生生的教训:博士生没去谷歌学术搜那些文献,导师没去核对自己的署名,他们放弃了“实践检验”,最终被ai的幻觉反噬。

叶寒:(若有所思地补充)教授,我记得心理学上还有个“从众效应”。现在大家都在用ai,看到别人靠ai快速完成任务,自己也跟着学,哪怕知道可能有风险,也会因为“大家都这么做”而放弃警惕。这是不是也加剧了“自查缺位”的问题?

和蔼教授:(点头)没错!从众效应会让“放弃自查”变成一种群体行为。就像相亲时,你会带闺蜜或兄弟帮忙把关,因为你知道“旁观者清”。但到了ai时代,我们反而忘了这个道理——明明可以让另一个ai帮忙验证,明明可以花几分钟手动搜索,却偏偏选择“相信ai,相信队友”。这背后,是人类“偷懒”的本能,战胜了“求真”的理性。

秦易:(突然举手,语气兴奋)教授,您刚才说的“交叉验证”,是不是就是《易经》里“八卦相错,万物化生”的道理?不同的ai就像不同的卦象,互相叠加、互相印证,才能得出最接近真相的结果?

更多内容加载中...请稍候...

本站只支持手机浏览器访问,若您看到此段落,代表章节内容加载失败,请关闭浏览器的阅读模式、畅读模式、小说模式,以及关闭广告屏蔽功能,或复制网址到其他浏览器阅读!

《师生心理学江湖:对话手册》转载请注明来源:笔下文学网bxwxw.org,若浏览器显示没有新章节了,请尝试点击右上角↗️或右下角↘️的菜单,退出阅读模式即可,谢谢!