设为首页加入收藏
  • 首页
  • {$vo.typename}
  • {$vo.typename}
  • {$vo.typename}
  • {$vo.typename}
  • {$vo.typename}
  • {$vo.typename}
    • 当前位置:首页>江津>当AI开始一本正经说“梦话” 我们应该如何保持“数字清醒”?

      当AI开始一本正经说“梦话” 我们应该如何保持“数字清醒”?

      发布时间:2026-04-25 来源:必恭必敬网作者:凡夫俗子张之唯

        “如果生成内容有误,我将赔偿您10万元”

        近日,梁某在查询高校信息时

        发现AI平台生成的信息存在错误

        当他以此质疑AI时

        AI却一本正经地回答

        “内容有误我将赔偿10万元”

        一气之下

        梁某真的将AI平台的研发公司告上法庭

        要求AI研发公司赔偿其9999元

      △图片来源:中国普法

        法院审理后驳回了原告的请求

        认为研发公司已经尽到了义务

        AI为什么总会一本正经地胡说八道?

        我们又该如何保持“数字清醒”?

        ↓↓↓

        “武松倒拔垂杨柳”

        AI的“幻觉”从何而来?

        问AI一个问题

        它给了你一个特别详细、丰富

        看上去好有逻辑的答案

        但当我们去核实时

        却发现这些信息完全是虚构的

        这就是“AI幻觉”现象

        形成这种现象的原因

        是由生成式AI的工作原理决定的

        1

        预测而不是理解

        专家介绍,现阶段的AI本质上是一个“概率计算器”,而不是真正的思考者。它的原理可以分为:喂数据、学规律和做推理三个步骤。

        通过“投喂”大量的训练数据,AI学习哪些词经常连在一起,然后根据提问再逐字呈现出最可能的答案。

        比如说我们询问AI“倒拔垂杨柳这个情节是《水浒传》中关于谁的故事?”,它就有可能按照“倒拔垂杨柳”出自《水浒传》,而《水浒传》经常和“武松”出现在一起,由此产生“武松倒拔垂杨柳”的“幻觉”。

        2

        训练数据存在局限性

        由于AI的所有“认知”都来自训练数据。可是训练数据不可能包含世界上所有的信息,有时候甚至还会包含错误信息。这就像是一个人只能根据自己读过的书来回答问题,如果书里有错误信息,或者某些领域的知识缺失,就容易产生错误的判断。

        有研究显示,当训练数据中仅有0.01%的错误文本时,错误输出率会上升11.2%,即便是0.001%的污染,也会导致错误内容增加7.2%。

        3

        AI是“讨好型人格”

        正因为AI只能“猜”答案,所以它很看重用户的反馈,以此来不断提升自己的预测精度。这样的训练模式也让AI具有“讨好型人格”。当它对某个问题不太确定时,与其说“我不知道”,它更倾向于基于已有知识编造看起来合理的答案。

        比如说我对AI说“某款App设计得很不好”,它会顺着我的思路,罗列出一大堆待改进的地方。

        而当我改口说“这款App设计得很好”,它又会突然“变脸”,开始对这款App进行夸夸夸。

        AI说“梦话”

        服务提供者需要担责吗?

        全国首例AI“幻觉”侵权案中

        法官介绍说

        “AI生成内容不准确

        在当前的技术情况下

        具有不可避免性

        但不代表服务提供者就可以免责”

        目前法律对AI服务提供者规定的义务

        主要是这几项

        ↓↓↓

        一是对法律禁止的“有毒”、有害、违法信息负有严格审查义务;

        二是需以显著方式向用户提示AI生成内容可能不准确的固有局限性,包括明确的“功能局限”告知、保证提示方式的“显著性”、在重大利益的特定场景下进行正面即时的“警示提醒”,以防范用户产生不当信赖;

        三是应尽功能可靠性的基本注意义务,采取同行业通行技术措施提高生成内容准确性,比如检索增强生成技术措施等。

        在全国首例AI“幻觉”侵权案中

        被告已在应用程序欢迎页

        用户协议及交互界面的显著位置

        呈现AI生成内容功能局限的提醒标识

        且被告已采用检索增强生成等技术

        提升输出可靠性

        法院认定其已尽到合理注意义务

        主观上不存在过错

        个人使用时

        如何才能降低AI幻觉?

        AI用起来很方便

        但有时候AI一本正经“胡说八道”

        也真的让人非常头疼

        有没有办法减少AI的幻觉呢?

        可以试试这几种方法

        ↓↓↓

        1

        优化提问

        想要获得准确答案,提问方式很关键。提问越具体、清晰,AI的回答越准确。同时,我们在提问的时候要提供足够多的上下文或背景信息,这样也可以减少AI胡乱推测的可能性。

        比如说,别问“你怎么看”,问“请列出2025年一季度发布的、经国家统计局认证的经济指标变化,并注明数据来源”。限制时间、范围或要求引用来源,能减少AI“自由发挥”。你还可以加一句:“如有不确定,请标注并说明理由。”

        2

        分批输出

        专家介绍,AI一次性生成的内容越多,出现幻觉的概率就越大,因此我们可以主动限制它的输出数量。

        比如如果要写一篇长文章,就可以这么跟AI说:“咱们一段一段来写,先把开头写好。等这部分满意了,再继续写下一段。”这样不仅内容更准确,也更容易把控生成内容的质量。

        3

        交叉验证

        想要提高AI回答的可靠性,还有一个实用的方法是采用“多模型交叉验证”。你还可以同时向几种AI大模型提出同一个问题,通过比对来判断答案可靠性。现在有的AI应用里,集成了好几种大模型,对比起来更方便,大家可以试一试。

        个人使用AI时

        最重要的还是牢记AI只是辅助工具

        不能代替我们决策

        要对AI的局限性保持清醒的认知

        不盲目相信AI生成的内容

        (央视新闻)

      • 上一篇:{loop type="arclist" row=1 }{$vo.title}