为什么不使用GPT——两年后再谈这个问题
两年前,看到AI开始流行,个人对此持谨慎态度。两年之后,虽然AI能力已经跃升,特别是DeepSeek推出以后,AI成为了一个全民普及的事物。个人也几乎每天都在用AI,但仍然对此持谨慎态度。
本文具体讲一讲其中的原因。当然,本文使用ChatGPT辅助编写。
AI回答的危险性
专业领域误导
在专业领域,AI回答常常披着”权威”的外衣,实则可能漏洞百出。举两个例子:
- 在医学领域,AI模型很可能会给出一套合理的治疗方案,但细节经不住推敲,而且非专业人士完全看不出来,结果可能会加重疾病,甚至把两个不该混在一起的药混在一起,危及生命。
- 让AI证明一个命题时,AI可能会引述一个看起来权威可靠、但实际上根本不存在的研究报告,然后以这个不存在的报告进行论述,让自己的论点实际上“歪”了。
迎合用户回答
AI没有立场,常会敏锐地捕捉用户提问中的倾向性暗示,然后投其所好。例如就中国的社会议题进行提问,当使用激进立场询问时,AI会给出激进的分析;而使用保守立场时,又会给出保守的分析;当你拥护党和政府时,AI回答也会拥护党和政府;当你反对党和政府时,AI也会跟着变成“反贼”,不同观点互相打架。
如果你本身就带有立场,AI会成为完美的”回声室”,不断强化已有的偏见。如果没有足够的批判性思维,依赖AI进行分析,得到的将不是客观建议,而是自己观点的镜像反射——这种智力上的自我重复比明确的错误更具危害性。
缺乏深度思考
AI是语言模型,因此它只能理解用语言表达的内容。如果问题不能完全用语言来表达,例如细节不足,或者是情感问题,AI就只能在表面上进行回答,缺乏思考的深度。
例如问AI,3米宽、4米高的门,5.6米的拉杆天线能否通过,AI会计算门的对角线长度是5米,而5.6>5,就以此认为拉杆天线无法通过。实际上只要把天线放倒,或者像收音机那样把拉杆缩短一些,都能顺利通过。这一点虽然直观,但没人用语言来告诉AI,AI当然也就无从得知。
原始语料带有偏见
AI模型训练内容主要来自互联网,而中文互联网本身就存在着各种各样的“墙”,强化了各种偏见,这使得在某些问题上,AI的模型本身就是不中立的。
例如:询问历史事件的评价时,AI的回答可能受主流叙事影响,忽略少数群体视角,并且会回避敏感话题(如政治、宗教),导致信息不完整。
如何应对
总体上来讲,AI是一套优秀的辅助工具,我们不应当因噎废食,例如在机械性、重复性场景中,我们仍然可以用AI帮忙迅速完成数据加工、初步分析与汇总等工作。
在使用AI过程中,我们要注意AI应用的这些问题,明确AI的“辅助”定位,包括:
- 专业问题必须交叉验证,通过权威渠道复核AI提供的每一个数据、引用的每一篇文献。
- 批判性思考应当避免引导性提问,以中立方式获取多元观点。
- 创意工作可将AI作为“头脑风暴盒子”,辅助思考,但“颠覆式”创新的工作仍然需要人类完成。
- 决策工作中,要多方收集数据,使信息多元化,不要依赖AI给出的信息。