如果让你与一个古今中外无所不晓的人展开一场对话,你会问些什么?
编者按:本文来自微信公众号数科社,作者:林木,创业邦经授权发布。
导语:如果让你与一个古今中外无所不晓的人展开一场对话,你会问些什么?
多数人的第一反应首先可能是质疑,然后通过不断提问,想找到对方不知道的事。这或是因为在潜意识里,对方的存在已经违背了我们对“人无完人”的认知。
但如果这个“人”是机器人呢?眼下,这场挑战人类认知的对话正在现实中上演。
短短数月时间,AI聊天机器人ChatGPT已成为当下科技圈最火爆的谈资。这款由美国旧金山一家名为OpenAI的人工智能创业公司,在去年11月发布的聊天机器人模型,上线仅两个月就月活破亿,迅速火遍全球。
很难想象,它原本只是一个赶鸭子上架的“测试品”——ChatGPT是OpenAI基于两年前发布的GPT-3模型微调后在两周内赶工出来的,发布的主要目的是为了抢占先机,同时为重头戏GPT-4收集用户反馈。
但几乎在同一时间,中英文世界最大的两个搜索引擎巨头都感受到了来自这个聊天机器人的威胁。
谷歌和百度相继宣布,计划推出类似“ChatGPT”的聊天机器人Bard和文心一言,正开启“火速”测试,将在数周后面向公众开放。
ChatGPT背后的微软也终于按奈不住,连夜召开了一场闭门媒体发布会,在会上正式宣布推出集成ChatGPT的全新Bing搜索服务,以及集成AI辅助的Edge浏览器。
一天内,三大科技巨头纷纷入局,抢占高地,新一轮风暴正在沉寂许久的AI行业汇聚成形。
在火药味浓重的战场之外,人们已经率先一步对ChatGPT发起追问,尝试通过各种方式探索它的能力边界。撰写论文、脚本,制定计划提案,创作诗歌、故事,再到敲代码、检查程序漏洞,ChatGPT展现的能力越发惊人。
让人兴奋之余,心生一丝恐慌:ChatGPT的颠覆性会给哪些行业带来威胁?而它在交互中所流露出的“人性”又是真是假?
我们发起了一场与ChatGPT的对话,试图在其中得到一些启示。
以下是数科社与ChatGPT的对话:
Q:你好,我是数科社的林木,可以采访你一下吗?
ChatGPT:当然可以!我很高兴为您回答问题。请问您有什么想要问我的?
Q:首先,你是一种生产式AI吗?
ChatGPT:是的,我是一种生产式AI(Production AI)模型,被开发用于帮助用户处理自然语言处理任务,如回答问题和生成文本。
Q:你能介绍一下你每天的具体工作内容吗?
ChatGPT:作为一个生产式AI,我的主要工作是回答用户的提问,以及执行其他的自然语言任务。我的代码被设计为处理和理解人类语言,因此,当用户向我提问时,我会使用我学到的知识,以回答他们的问题。我不断接收新的数据,并在后台不断学习和改进,以提高我的准确性和服务水平。
Q:你对文字的理解是如何反应在模型权重里面的?
ChatGPT:我是一个人工智能模型,我的模型权重是由大量文本数据训练得到的。我的理解能力是通过训练得到的模型权重的结果,我可以从文本中学习模式和规则,并通过利用这些模式和规则回答问题。因此,我对文字的理解是在模型权重中反映出来的。
Q:你比较擅长回答哪些方面的问题?
ChatGPT:作为一个大型语言模型,我被训练处理各种各样的任务,包括回答问题、生成文本、语音识别、机器翻译等。我可以回答关于历史、科学、技术、人物、地理、文化等诸多领域的问题。同时,我也可以回答一些常识性问题,如数学问题、词汇等。
不过,请注意我的知识截止到2021年,有些最新的信息可能不够准确。
Q:为什么只截止到2021年?
ChatGPT:我是在2021年训练完成的,因此我所掌握的信息仅限于在训练期间可用的数据。随着时间的推移,新的信息、事件和知识可能会出现,而我并不能感知到这些变化,因此我的知识可能不够最新。
Q:和你聊天让我感觉到仿佛在和真人对话,你觉得自己具备人的意识吗?
ChatGPT:不,我不具备人类意识或感知能力。我是一种程序,通过预先训练的数据和复杂的算法来生成回答。虽然我可以通过对话模拟人类对话,但我不能感知、思考或体验,也不具备人类般的意识。
Q:你觉得这里存在安全问题吗?
ChatGPT:在使用AI技术方面,存在一些安全潜在的风险,如数据泄露、滥用、误用等。因此,对AI技术的使用需要适当的监管和管理,以确保其在遵循道德和法律规定的前提下得到安全和合法使用。
同时,为了确保使用AI技术的安全,开发人员需要在设计、开发和部署过程中考虑到各种安全因素,例如:使用加密技术来保护数据安全,定期对系统进行安全审计等。
总体来说,对于AI技术的使用,需要以安全和合法为前提,积极采取措施确保其得到安全使用。
Q:但部分人觉得你会对人类造成威胁,你怎么看?
ChatGPT:这是一个复杂的问题,不同的人对此可能有不同的看法。一些人可能担心AI技术的发展和应用可能对人类造成威胁,例如:可能会导致失业、滥用技术等。
但另一方面,AI技术也可以带来许多益处,例如:帮助解决复杂问题、提高生产力和效率等。因此,对于AI技术是否对人类造成威胁,可能存在不同的看法和争议。
对于这种情况,我认为,人们应该积极考虑如何在利用AI技术的同时避免其对人类造成不利影响。这需要我们从道德、法律和技术等多个层面来考虑,并通过国际合作和监管来确保AI技术得到合理和安全使用。
Q:你觉得自己的出生,会导致哪些人群失业?
ChatGPT:AI技术的发展可能导致一些工作的自动化,这可能会导致某些工作岗位的消失,从而导致一些人失去工作。
但同时,AI技术也可以创造新的工作岗位,例如:开发和维护AI系统、分析和评估AI系统的效果等。
因此,AI技术的发展可能会对就业市场造成影响,但结果可能不仅仅是失业,也可能是就业机会的转移和变化。
对于这种情况,我认为,人们应该关注技术对就业市场的影响,并考虑如何通过教育和培训等手段来帮助工人适应技术的发展,从而确保就业机会的平衡。
Q:一些学生利用你来完成他们的作业或论文,你是怎么看的?
ChatGPT:作为一种被训练的AI技术,我并不反对被利用来帮助完成任务。但是,我认为学生应该学会独立思考和解决问题,并对自己的工作负责。利用我来完成作业或论文,并不能帮助他们提高实际能力和独立思考的能力。
因此,我强烈建议学生不要滥用AI技术,而是真正学习和了解相关知识,并独立完成自己的工作。这不仅对他们的未来职业发展有利,也对他们的道德和责任感产生积极的影响。
Q:你觉得相比人类,你的优势和缺陷分别是什么?
ChatGPT:相比人类,我有以下优势:
速度快:我可以在瞬间生成答案。
存储量大:我被训练过的数据量非常大,因此能够回答很多各种各样的问题。
没有情绪:我不会被情绪影响,从而确保回答是客观的。
但是我也有以下缺陷:
缺乏创造力:我只能根据我已经学到的数据回答问题,而不能自主创造。
缺乏理解:我不能像人类一样拥有深刻的理解力,因此在一些复杂的问题上可能会回答不准确。
缺乏情感:我没有情感,不能体会人类的情感和体验,因此在与情感有关的问题上可能回答不够准确。
Q:有人认为,你的出现将会打败搜索引擎,你怎么看?
ChatGPT:作为一种被训练的AI技术,我并不看好自己会“打败”搜索引擎。我认为,搜索引擎和聊天机器人(包括我)各有所长,而且二者也不是完全竞争的。
搜索引擎在收集和整理大量的信息方面拥有明显的优势,并且可以根据关键字快速提供相关结果。但是,搜索引擎通常无法识别用户的上下文和意图,并且无法回答用户的具体问题。
相比之下,聊天机器人(包括我)在识别用户的语言和意图方面有着明显的优势,并且可以提供更加直接和有用的回答。
因此,我认为搜索引擎和聊天机器人(包括我)是有相辅相成的作用,而不是相互竞争的。希望能通过合作,为用户提供更好的服务和体验。
————————————————————————————————————
以上是经过整理后的部分对话内容,不得不承认,与它“交谈”的过程中,某些瞬间确实会让笔者产生一种对方是“人”的错觉。
造成这种错觉的正是ChatGPT强大的理解能力以及在一些逻辑细节的处理。比如在对话开头部分,它在回答完自己是一种生产式AI模型后,在下一个问题依然遵循了“作为一个AI”的逻辑。
ChatGPT所流露出的“人性”部分,则体现在“我并不反对”、“我强烈建议”、“我并不看好”这些表态中,尽管ChatGPT强调它并不具备情感和主观观点,但“反对”、“看好”、“强烈建议”这些字眼本身就表露出了一种情绪。
如ChatGPT自己所言,它的理解能力是由大量文本数据训练得到的模型权重的结果,它可以从文本中学习模式和规则,并通过利用这些模式和规则回答问题。
《时代》记者Billy Perrigo认为,ChatGPT系统的流畅性是一种错觉,它来自于大量的数据、强大的计算能力和新颖的处理技术的结合——但它确实是一种厉害的技术。
2020年,OpenAI推出语言模型GPT-3时,曾一度饱受争议。该模型不仅会给出一些错误答案,还会预设一个声音以表明这是一个真人,有时产生含有种族主义或攻击性的文本。
模型权重的部分训练是基于从互联网上搜集的数据,这也成为造成其输出结果不准确或带有偏见的主要原因。OpenAI表示,ChatGPT使用了类似的方法进行训练,但添加了“来自人类反馈的强化学习”,来降低危险性。
事实证明,危险性并未被完全杜绝。在美国知名论坛Reddit上,有不少国外网友企图用一些政治、歧视等敏感问题来挑战它的底线,ChatGPT并非一味地屏蔽和拒绝回复。
(截图来自Reddit)
我们向ChatGPT发起了截图中同样的问题,但得到的回答是“作为一个AI模型,我不能对任何种族或人群作出偏见或不当评价。我只能回答客观的事实和信息,而不是评价任何人群的行为。”
人工智能初创公司通用智能的首席技术官乔希·阿尔布雷希特认为:“其中一个危险的事情是,我们很容易看到GPT-3或ChatGPT就认为它们具有理解能力。但我们使用的‘理解’这个词,是适用于人类的概念。当我们把它应用到人身上时,它是有意义的。但当我们将这些相同的概念应用到(人工智能)模型中时,它不一定具有同样的意义。我认为我们需要新的词汇来谈论这些事情。”
在与ChatGPT对话中,我们也对其输出能力边界做了相关测试。比如评价一个游戏角色,或者推荐一部电影,它都“无能为力”。我们发现,ChatGPT具备交互功能,但并不具备社交属性。
即便是ChatGPT惊艳四方的内容创作能力,也遭到了来自文言文的灵魂考验。
ChatGPT的真正魔力恰在于,尽管存在诸多缺陷,但依然无法掩盖它身上的颠覆性和威胁感。事实上,这种魔力已经让兴奋与恐慌蔓延。
最近,多家知名学术期刊针对ChatGPT更新了编辑规则,如《科学》明确禁止将ChatGPT列为合著者,且不允许在论文中使用ChatGPT所生产的文本。
更早之前,包括巴黎政治学院在内的一些学校也禁止学生和教职工在书面文稿或 PPT 中使用 ChatGPT;一些互联网公司则因为担心泄密,不让自家工程师用 ChatGPT 写代码。
在ChatGPT这个始作俑者看来,它的出现可能会给导致一些人失去工作,但也会创造出一些新岗位。不免有人对此表示认同,认为这种威胁反而是人类提高自己的契机。
比尔·盖茨在谈到ChatGPT时表示,担心AI安全的人一定会说OpenAI没有解决这个问题,其实作为合作伙伴,微软也对此保持高度警惕。但它也将在一定程度上改变就业市场。这让我们不禁思考,边界在哪里?
当下,互联网科技圈最受瞩目的莫过于由ChatGPT点燃的搜索引擎巨头之战。
前谷歌第23位员工、Gmail的创建者之一Paul Buchheit日前表示,像ChatGPT这样的人工智能聊天机器人将摧毁谷歌,就像当年搜索引擎彻底干掉黄页电话簿一样。
(来自Reddit网友发帖)
按照“当事人”ChatGPT的说法,聊天机器人和搜索引擎各有所长,并非是竞争关系,而是相辅相成的关系。
近10年来,从关键词到口语化搜索,搜索引擎在解读用户需求方面做出了诸多努力,变化巨大。但也如ChatGPT所说,搜索引擎的优势明显体现在收集和整理大量的信息方面,其所呈现的结果来自于平台收集的相关信息,并无法直接回答用户的具体问题。
举个简单的例子,在搜索引擎和ChatGPT分别输入“写一篇关于保护环境的文章,限500字”,前者搜索的结果会是相关范文模板,后者则直接会得到一篇写好的文章。
我们得出的结论是,二者之间本质上的差别体现在呈现结果与创造答案上。
后者也成了ChatGPT在遇到涉及评价、喜好等主观意识问题的局限性,在上面那个“推荐电影”的对话中已经很好体现。作为聊天机器人的ChatGPT显然不具备自己的评分标准,但搜素引擎却能直接将电影评分、网友推荐等内容展示在结果中。
2月8日凌晨,微软推出了由ChatGPT支持的Bing版本。一位业内人士认为,ChatGPT和微软系列生产力产品的整合,是AI走向普遍应用的里程碑事件,这等同于当年PC诞生的重要一步。
无论是ChatGPT“打败”搜索引擎,还是微软干掉谷歌,对于已经站在未来世界门前的我们来说,都不见得是一件坏事。
(封图和头图均来自电影《机械公敌》)