想象一下,你在求职,但你的简历在人类 HR 查看前就被 AI 拒绝了,你无从辩解。这不是科幻,而是很多人面临的现实生活。AI 正悄然影响我们的生活。随着 AI 日益强大,一个紧迫的问题是:我们是否有权摆脱 AI 的影响?选择退出 AI 不是一件简单的事情。AI 驱动着医保、交通和金融等重要系统,影响着招聘决策、租房申请、贷款、信用评分、社媒信息流、政府服务,甚至搜索时看到的新闻或信息。质疑 AI 的决策可能极其困难——可能只能在法庭上进行。选择完全退出 AI 的生活则更加困难,因为这将需要远离现代生活。很多人仅因为不符合 AI 定义的模型而面临排斥。此种情况下选择退出 AI 不再是个人选择,而是关乎在快速变化的世界中生存的问题。问题不只是关于安全,还关于自由。随着 AI 日益深入生活,问题不仅仅在于它是否有效,而在于我们是否有权决定它在我们生活中的比重。选择和退出的自由,对于在数字时代维护人的自主权至关重要。
法国 AI 测试公司 Giskard 发现,要求 AI 聊天机器人给出简洁答案会显著增加幻觉的可能性。研究显示,包括 OpenAI 的 GPT-4o(ChatGPT 默认模型)、Mistral Large 和 Anthropic 的 Claude 3.7 Sonnet 在内的先进模型,在被要求给出简短答案时,其事实准确性都会下降。研究人员猜测,在要求简洁答案时,AI 模型会优先选择简洁而不是准确性。简洁之类看似无害的提示词会削弱模型发现错误信息的能力。