人工智能,聊天机器人概念。笔记本电脑上的聊天机器人卡通。

研究表明,聊天机器人越像人类,人们就越信任它。信贷:盖蒂

聊天机器人ChatGPT问世几个月后震惊世界用它不可思议的能力写论文并像人一样回答问题,人工智能(AI)即将进入互联网搜索领域。

全球三大搜索引擎谷歌、必应和百度上周表示,他们将把ChatGPT或类似技术集成到他们的搜索产品中,让人们可以直接得到答案或参与对话,而不仅仅是在输入一个单词或问题后收到一串链接。这将如何改变人们与搜索引擎的关系?这种形式的人机交互有风险吗?

微软的必应使用了与ChatGPT相同的技术,后者是由加州旧金山的OpenAI公司开发的。但这三家公司都在使用大型语言模型(LLMs)。llm通过响应文本的统计模式来创建令人信服的句子他们在一个大数据库中相遇。谷歌的人工智能搜索引擎Bard于2月6日宣布,目前有一小群测试人员正在使用。微软的版本现在已经广泛使用,不过要想无限制地使用还需要排队等候。百度的ERNIE Bot将于3月上市。

在这些声明发布之前,一些小公司已经发布了人工智能搜索引擎。旧金山的计算机科学家Aravind Srinivas说:“搜索引擎正在演变成一种新的状态,在这种状态下,你实际上可以开始与它们交谈,并像与朋友交谈一样与它们交谈。”他在去年8月联合创立了Perplexity——一个基于llm的搜索引擎,以会话式英语提供答案。

改变信任

与经典的网络搜索相比,对话中强烈的个人性质可能有助于改变人们对搜索结果的看法。瑞士苏黎世大学(University of Zurich)的计算社会科学家亚历山德拉·乌尔曼(Aleksandra Urman)表示,人们可能天生就更相信参与对话的聊天机器人的答案,而不是来自独立搜索引擎的答案。

一个2022年的研究1位于盖恩斯维尔的佛罗里达大学的一个团队发现,对于与亚马逊和百思买等公司使用的聊天机器人互动的参与者来说,他们越觉得对话与人类的对话相似,他们就越信任该组织。

这可能是有益的,可以使搜索更快、更流畅。但考虑到人工智能聊天机器人会犯错,信任感的增强可能会有问题。谷歌的吟游诗人答错了一个问题关于詹姆斯·韦伯太空望远镜在自己的技术演示中,自信地回答错误。ChatGPT倾向于为它不知道答案的问题创造虚构的答案——被该领域的人称为幻觉。

谷歌的一位发言人表示,巴德的错误“凸显了严格测试过程的重要性,我们本周将启动可信测试程序”。但一些人推测,如果这些错误被发现,可能会导致用户对基于聊天的搜索失去信心,而不是增加信任。加州山景城(Mountain View)的计算机科学家斯里达尔•拉马斯瓦米(Sridhar Ramaswamy)表示:“早期的感知可能会产生非常大的影响。”他同时也是今年1月推出的Neeva搜索引擎的首席执行官。这个错误谷歌的市值蒸发了1000亿美元由于投资者担心未来而抛售股票。

缺乏透明度

使不准确问题更加复杂的是透明度的相对缺乏。通常,搜索引擎会向用户提供他们的来源——一列链接——并让他们自己决定信任什么。相比之下,很少有人知道LLM训练的数据是什么——是大英百科全书还是八卦博客?

乌尔曼说:“(人工智能搜索)将如何工作是完全不透明的,如果语言模型失灵、产生幻觉或传播错误信息,这可能会产生重大影响。”

乌尔曼说,如果搜索机器人犯了足够多的错误,那么,它们的对话能力不仅不会增加用户的信任,而且有可能颠覆用户对搜索引擎作为公正的真相仲裁者的认知。

她进行了一项尚未发表的研究,表明目前的信任度很高。她研究了人们如何看待谷歌用来增强搜索体验的现有功能“精选片段”,在这种情况下,被认为与搜索特别相关的页面摘录出现在链接上方“知识板”-谷歌在搜索时自动生成的摘要,例如,一个人或组织。在Urman的调查中,近80%的人认为这些特征是准确的,约70%的人认为它们是客观的。

巴黎数据科学平台hug Face的首席伦理学家吉亚达•皮斯蒂利(Giada Pistilli)表示,聊天机器人驱动的搜索模糊了机器和人类之间的区别。该平台旨在促进负责任地使用人工智能。她担心企业采用人工智能技术的速度有多快:“我们总是在没有任何控制或教育框架的情况下,把这些新技术扔给我们。”