一觉醒来,万众期待的GPT-4,它来了!
编者按:本文来自微信公众号:量子位(QbitAI),作者:金磊 梦晨,创业邦经授权发布。
一觉醒来,万众期待的GPT-4,它来了!
OpenAI老板Sam Altman直接开门见山地介绍说:
这是我们迄今为止功能最强大的模型!
有多强?
根据OpenAI官方的介绍,GPT-4是一个超大的多模态模型,也就是说,它的输入可以是文字(上限2.5万字),还可以是图像。
(看图)手套掉下去会怎样?
它会掉到木板上,并且球会被弹飞。
甚至只需要简单在纸上画一个网站的草稿图:
拍一张照片上传给GPT-4,它就可以立马生成网站的HTML代码!
在性能表现上,OpenAI直接甩出一句话:
在各种专业和学术基准上和人类相当!
而且不只是发布GPT-4这么简单,OpenAI这次“啪的一下”把相关“大动作”一步到位了:
ChatGPT Plus:集成GPT-4的ChatGPT升级版
发布GPT-4的API
公布技术论文 * 公开System Card
不仅如此,传闻的“必应早就用上了GPT-4”在今天也得到了微软方面的证实:
没错,确实是这样的!
不得不说,自打ChatGPT问世以来,微软和谷歌之间打响的数轮科技战役,微软这次又双叒叕赢麻了。
甚至这一次,不少网友都发出了“见证历史”的感慨:
史上最强大模型正如之前传言,GPT-4确实拥有多模态能力,可以接受图像输入并理解图像内容。
并且可接受的文字输入长度也增加到3.2万个token(约2.4万单词)。
升级之后,GPT-4在各种职业和学术考试上表现和人类水平相当。
比如模拟律师考试,GPT-4取得了前10%的好成绩,相比之下GPT-3.5是倒数10%。
做美国高考SAT试题,GPT-4也在阅读写作中拿下710分高分、数学700分(满分800)。
那么GPT-4这些新能力实际用起来是什么样的?技术报告中也给出不少展示。
首先,看图能力可以用来解释表情包、梗图。
提问这张图哪里好笑?GPT-4可以按顺序描述出每一格的内容,并总结出笑点:
用巨大的过时VGA接口给小巧的现代智能手机充电。
更进一步,GPT-4可以理解图表中数据的含义,并做进一步计算。
甚至可以直接把论文截图发给它,GPT-4可以按像素处理其中的文字和图片,并给出对整篇论文的总结摘要。
文字输入长度限制的增加,也大大扩展了GPT-4的实用性。
发布会直播上,OpenAI总裁Gregman现场表演了一波GPT-4给代码修Bug。
出现问题啥也不用想,直接把1万字的程序文档一股脑扔给GPT-4就行。格式也不用管,你只需要Ctrl+A、Ctrl+C、Ctrl+V。
再最后附上出现的问题,在几秒钟内瞬间得到解决办法。
在API方面,GPT-4还开放了一个使用功能,允许修改“系统提示”。
之前ChatGPT的回答总是冗长而平淡,这是因为系统提示中规定了“你只是一个语言模型……你的知识截止于2021年9月”。
现在通过修改这句话,GPT-4就可以展现出更多样的性格,比如扮演苏格拉底。
也可以指定之后所有回答的形式,比如全用json格式。
虽然GPT-4这波能力大升级,但之前ChatGPT会出现幻觉、胡说八道的毛病还是没能完全改掉。
从前面的官方示例也可以看出,要想最大程度发挥GPT-4的能力,最好还是用上思维链路提示(Chain-of-thought prompt)。
操作起来也非常简单,只需在提问的时候额外提醒AI给出步骤,就能大大提高推理和计算的准确率。
谷歌依旧在跟就在GPT-4发布前,谷歌方面为了迎战微软,宣布将一系列即将推出的AIGC功能,应用到自家产品中。
包括谷歌 Docs(文档)、Gmail、Sheets(表格)和 Slides(幻灯片)。
但不同于微软和OpenAI的“发布即可用”,谷歌只会先将Docs和Gmail中的AI工具,在月底提供给一些“值得信赖的开发人员”。
而其它功能则将是在今年晚些时候向公众开放。
至于具体时间,谷歌方面并没有具体说明。
而外界对此评价是谷歌希望抢先微软原定于本周四的发布。
但从今天的结果上来看,微软依旧提前“抢滩登陆”。
One More Thing在GPT-4发布之前,便有网友做出了GPT-3和GPT-4参数量的对比图,并猜测GPT-4的参数量将达到100万亿。
这一次亦是如此。
有网友预言,未来GPT-5的参数量,会是这样的:
但无论如何,这一次,我们离真·人工智能,更近了一步。
参考链接:
[1] https://openai.com/research/gpt-4
[2] https://blogs.bing.com/search/march_2023//confirm/ied-the-new-Bing-runs-on-OpenAI%E2%80%99s-GPT-4
[3] https://www.youtube.com/watch?v=outcGtbnMuQ