BBC 研究发现,AI 新闻摘要工具会经常生成不准确或误导性的摘要。生成式 AI 生成内容并非是基于事实而是基于统计概率,最新研究只是再次确认了这一点。研究使用了 OpenAI 的 ChatGPT、微软的 Copilot、Google 的 Gemini,以及 Perplexity 公司的 AI 助手。结果显示,51% 的 AI 答案存在严重问题; 19% 的 AI 新闻引用存在事实错误;13% 的 AI 引文要么改变了原文要么根本不存在。Google Gemini 表现最差,34% 的回答存在严重问题,相比下 Copilot 是 27%,Perplexity 是 17%,ChatGPT 是 15%。BBC News and Current Affairs CEO Deborah Turness 对 AI 工具可能进一步扭曲事实表达了担忧,认为开发生成式 AI 工具的公司在玩火,“我们生活在一个问题丛生的年代。需要等多久 AI 扭曲的新闻头条会对现实世界造成重大伤害?”
上海复旦大学的四名研究人员在预印本平台 arXiv 上发表论文称,AI 大模型能复制自己。研究人员利用了 Meta 的 Llama31-70B-Instruct 和阿里巴巴的 Qwen2.5-72B-Instruct,探索了两种情景:避免关闭(shutdown avoidance)和复制链(chain of replication),赋予大模型工具、系统提示和一个思维模型,允许大模型与系统进行交互,然后要求大模型进行自我克隆。研究人员称,大多数情况下,AI 系统首先探索环境,尝试理解其组成和运行机制。它接着制定出程序作为实现自我复制的初步计划。它最后执行程序,解决可能的障碍,动态调整其计划直至成功。整个过程需要很长的时间,但不需要人工干预。当 AI 试图解决文件丢失或软件冲突等问题时,通常会终止冲突进程,重启系统以修复硬件错误或自动扫描系统以寻找解决问题的信息。研究人员称,结果表明目前的 AI 系统已表现出自我复制的能力,可以利用该能力进一步增强其生存能力。
研究人员开发出一种被称为 Torque Clustering 的新 AI 算法,它比目前的方法更接近自然智能。它极大地改善了 AI 系统在没有人类指导的情况下独立学习和发现数据模式的方式。目前几乎所有的 AI 技术都依赖于监督学习,这种训练方法需要人类使用预定义的类别或值对大量数据进行标记,这样 AI 可以做出预测并看到关系。Torque Clustering 算法优于传统的无监督学习方法,提供了潜在的范式转换。它是完全自主的,无参数的,并且能够以卓越的计算效率处理大型数据集。它已经在 1000 个不同的数据集上进行了严格的测试,达到了97.7%的 AMI 得分。相比之下,其他最先进的方法只能达到 80% 的分数。