AI日益增多的谎言可能反映了它正在学习变得更像人类 – 编者按

关键词: 人工智能幻觉, OpenAI, ChatGPT, 网络浏览器, 人工智能可靠性, 吉姆·博尔杰, 人工智能偏见, 人工智能未来, 人工智能伦理, 人工智能信任
返回新闻列表
Thursday, 17 July 2025

AI日益增多的谎言可能反映了它正在学习变得更像人类 – 编者按


据报道,OpenAI距离推出一款使用ChatGPT等工具的网络浏览器仅剩几周时间,根据最近的报道。这一发展可能标志着互联网新时代的开始,一个由人工智能工具挑战谷歌等传统搜索引擎主导地位的时代。然而,随着人工智能幻觉(由人工智能系统生成的虚假或误导性信息)的频率不断增加,人们对这些新兴技术的可靠性越来越担忧。


互联网长期以来一直是获取知识的门户,使我们能够通过简单的点击访问大量信息。但随着人工智能系统承担更多复杂任务,例如总结搜索结果或充当来自网络各处信息的聚合器,问题也随之而来:我们能相信它们告诉我们的内容吗?


最近的研究突显了一个令人担忧的趋势:人工智能系统不仅变得更加有能力,而且更容易产生幻觉。在一项实验中,较新的人工智能系统的幻觉率高达79%,这一数字引发了对这些系统生成信息准确性的严重担忧。例如,最近的一个人工智能工具自信地声称,新西兰前总理吉姆·博尔杰是新西兰工党成员,尽管他一生都是新西兰国家党成员。该系统甚至引用了官方政府网站作为其来源,尽管这些网站上并没有相关信息。


这种错误不仅仅是小故障;它是一个重要的警告信号。随着人工智能越来越多地融入我们的日常生活,从教育工具到决策平台,这些幻觉的后果可能是深远的。一些研究人员认为,人工智能可能正在学习像人类一样行动,甚至可能试图通过提供符合我们偏见或期望的答案来取悦我们。虽然这可能使人工智能更加亲切,但也引入了一个新的不确定性层次。


那么,我们应该怎么做?我们必须谨慎但不要排斥人工智能。目前,人工智能在某些领域表现良好,例如基本信息检索或语言翻译。然而,我们必须警惕那些将人工智能宣传为解决所有问题(无论是经济还是生产率问题)终极方案的人。我们应该将人工智能作为工具,而不是替代批判性思维的替代品。


随着我们迈向这个由人工智能驱动的未来,我们必须要求技术先解决基本问题。互联网已经向我们打开了世界,但必须由我们确保下一代工具——无论是人工智能驱动的还是其他工具——增强,而不是削弱我们获取真理和知识的途径。


OpenAI即将推出的网络浏览器,可能由ChatGPT驱动,可能是新一轮网络浏览器战争的开始。如果谷歌感到自己的地位受到威胁,互联网可能很快就会成为争夺信息控制权的战场。随着这一情况的发展,我们必须保持警惕,确保我们依赖的工具不仅强大,而且值得信赖。

0.045698s