推广 热搜: 免费网赚论坛  中国网赚  在家上网赚钱  如何网赚  网赚qq群  福缘网赚  网赚博客  酷我网赚  外国网赚  网赚任务平台 

微软基于openai的必应搜索非常棒,但也很混乱

   日期:2024-04-24 18:28:21     来源:http://www.900614.com/    作者:小编    浏览:119    

本文摘自Fast company最新的plug In Newsletter,这是一份由全球科技编辑Harry McCracken撰写的每周科技洞察、新闻和趋势综述,每周三上午发送到您的收件箱。在这里注册我们所有的时事通讯。

本周二,微软(Microsoft)在华盛顿州雷德蒙德(Redmond)的总部举行了一场盛大的发布会,发布了一款我们大多数人最近都没怎么想过的产品的升级版:必应(Bing),一款仅次于谷歌的永恒搜索引擎。

正如预期的那样,新的必应包含了OpenAI的ChatGPT技术的改进版本,融合了微软自己的搜索人工智能(被称为“普罗米修斯模型”),并集成了其Edge网络浏览器。在主题演讲结束后,我提前试用了新版本,并开始探索该公司展示的功能。该版本目前处于预览模式,等待试用的人很多。

ChatGPT诞生不到10周,并不是过时的技术。但正如微软高管在活动舞台上所宣称的那样,必应的新人工智能功能在这个由生成式人工智能驱动的新兴聊天机器人类别中迈出了巨大的一步:

必应更新得多。ChatGPT基于2020年创建的数据集,因此需要回答许多问题。另一方面,必应的人工智能聊天功能回答了我关于乔·拜登(Joe Biden)总统国情咨文演讲的问题,在我提问之前,演讲刚刚结束。

它知道的东西多得多。Bing很容易识别出让ChatGPT感到困惑的无名人物、地点和事物。它清楚地从大量网页中提取事实,而ChatGPT没有这样做,然后熟练地将它们编织在一起。与ChatGPT不同的是,它经常引用自己的作品,并链接到原始页面。

它能给出更好的建议。当我问ChatGPT应该考虑哪些电动自行车品牌以及在哪里购买二手相机设备时,它理解了这个问题,但建议含糊不清,令人不满意。然而,新的Bing提供了一些有用的想法,实际上是进一步研究的一个很好的起点。

它甚至更平滑。Bing用和ChatGPT一样清晰的语言表达自己,但感觉更精致。当我要求它生成像《我爱露西》这样的故事脚本时,它生成的脚本比ChatGPT的脚本更丰富、更有想象力、更有趣。它甚至用一种狡黠的幽默感来回答有问题的问题,拒绝了我关于小熊维尼随机殴打陌生人的故事的要求,而是给了我一个小熊维尼随机拥抱陌生人的故事。

它增加了新的技巧。现在,微软正在强迫我们这些能够访问这个版本的必应的人在Edge的测试版本中使用它,并添加一个必应按钮。点击它会打开一个聊天窗口,可以与你正在浏览的任何网页内容进行交互,例如,你可以对任何看起来太过TLDR而无法完整处理的内容说“总结此页面”。这些摘要并不完美,尤其是对于较长的文章,但它们往往出奇地好。(Bing甚至嘲笑我在一篇文章的开头开的一个奇怪的玩笑。)

一旦更多的人可以访问新的Bing,我无法想象为什么大多数人会花很多时间在ChatGPT上——尤其是Bing,至少在它目前的半公开形式下,更加健壮和可靠。

到目前为止一切顺利。但是微软并没有修复支持ChatGPT和更新版必应的GPT技术的最大缺陷。GPT不是真正理解它在说什么,而是基于从它所处理的所有现有文本中获得的概率数据将单词串在一起。通常,这会产生新的文本,不仅是可以理解的,而且是正确的和可用的。但它也可以生成材料,虽然听起来似乎合理,但有点不精确或只是幻想——人工智能科学家称之为幻觉的现象。

我在第一次测试新必应时就发现了这个。其中一个样本问题包括假日旅行建议,包括从伦敦希思罗机场(Heathrow Airport)出发的3小时航班;我把旧金山欺诈局也加进来了。Bing的回答说,纽约到旧金山只有3小时15分钟——也许有超级高铁!而且去巴哈马的旅行时间被严重低估了。它包括塞舌尔,尽管它说飞行时间为7小时45分钟,距离也很远。

Bing似乎不像ChatGPT那样沉迷于完全的幻觉,但结果也远非无懈可击。它告诉我,旧金山目前的Cliff House建筑于1989年开放,比正确的日期晚了80年,可能是因为它混淆了1906年和1986年的地震。我向儿童作家罗杰·布拉德菲尔德要了一份书单,他列出了至少50本虚构的书(我都数腻了)。与ChatGPT一样,反复向必应发出相同的请求可能会导致截然不同的记录:当我要求它提供个人资料时,咳咳,我,它会说我不是同名的著名高尔夫球手。然后我又问了一遍,它开始谈论我对游戏的热爱。

为了让整个事情变得更加模糊,当涉及到不完全是家庭知识的事情时,人工智能往往会变得富有创造性,这使得事实核查具有挑战性。当我向必应索要《金发女郎》的创作者、艺术家奇克·杨(Chic Young)的传记时,他编造了他的离婚、第二次婚姻和几个从未有过的孩子。我比一般的熊更了解漫画的历史,但直到我参考了诸如杨1973年《纽约时报》的讣告等资料,我才一半相信它们是真的。

微软并没有声称必应已经克服了幻觉问题。在周二的发布会上,负责任AI团队的莎拉·伯德(Sarah Bird)告诉我,谷歌搜索引擎会出现一些错误,该公司希望用户将这些答案视为自己进行更深入研究的起点。不过,我想知道,发布这些人工智能机器人的公司是否有点无畏,因为它们有可能大规模误导世界。周三,当谷歌演示其即将推出的生成式人工智能助手Bard时,该公司没有注意到其预先计划的一个样本研究请求提供了关于詹姆斯·韦伯太空望远镜的不准确信息。

1995年,一个名为AltaVista的新搜索网站根据任何文本查询立即从网络上获取页面,这在当时看来是不可思议的壮举。人们非常震惊,他们倾向于掩盖它,经常把糟糕的网站放在顶部。三年后,谷歌开创性的PageRank算法从根本上提供了更相关的结果,这就是为什么谷歌仍然与我们在一起,而AltaVista没有。

生成式AI搜索的准确性让我想起了AltaVista的相关性问题。在这些问题得到控制之前,像新必应这样令人印象深刻的搜索工具将存在根本性的缺陷。

微软基于openai的必应搜索令人惊叹,但混乱首先出现在《快公司》上。

文章链接:http://900614.com/news/show-87833.html
 
 
更多>同类资讯

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  RSS订阅  |  违规举报