先看懂AI,才是当下最重要的事。
编者按:本文来自微信公众号“笔记侠”(ID:Notesman),作者:少将,创业邦经授权发布。
现在的AI,可以用如火如荼来形容。
不仅微软、谷歌等硅谷巨头在研究AI,国内如阿里、华为、腾讯等企业也相继发布了AI大模型,陆奇、王慧文、李开复、王小川等商业知名人物,也都纷纷亲自下场。
但是,有那么多公司都在关注AI,有那么多人都在讨论AI;有人认为AI是新时代,有人认为AI需要暂停研发。到底谁说得对?我们到底应该如何看待AI?
今天,我们集合了比尔·盖茨、巴菲特、马云等著名企业家,以及GPT之父伊利亚、AI权威人物吴恩达、杨立昆等人工智能行业专家对AI的看法和观点,帮助大家理解AI,找到新知,发掘机会,让你“一文看懂AI”。
01 前言:AI,从婴儿到少年在讨论AI之前,其实有必要简单了解一下AI的过去。
我们从它的出生谈起。
一切都开始于1950年的图灵测试。按照“人工智能之父”艾伦·图灵的定义:如果一台机器能够与人类展开对话(通过电传设备),而不能被辨别出其机器身份,那么称这台机器具有智能。
1956年,“人工智能”的概念出现了。
接下来,是人工智能的黄金年代。1966年~1972年,第一台人工智能机器人Shakey、第一个聊天机器人ELIZA相继发布。
20世纪70年代初,困于当时的计算机性能,人工智能遭遇了瓶颈。直到1997年,IBM“深蓝”超级计算机,击败了国际象棋世界冠军卡斯帕罗夫。人工智能的春天来了。
2013年,Facebook(现在的meta)、谷歌、百度相继开始探索深度学习算法。
2016年,Google人工智能AlphaGo,战胜围棋世界冠军李世石。人工智能像是被引燃了导火线,开始了新一轮爆发,国内诞生了“AI四小龙”:商汤、旷视、依图、云从。
直到2022年底,ChatGPT3.5引爆了通用人工智能。
02 “等你长大了,你想成为谁?”每个人小时候,都要被老师问到:等你长大了,你想成为谁?或者你想做什么?
“我想成为航天员!”“我想成为军人!”“我想成为医生”……
那么,把当前的AI看做一名少年,“老师”们怎么看待学生的未来?
1.GPT之父、OpenAI首席科学家伊尔亚·苏茨克维:AI的进步还存在很大不确定性
当我在2002 - 2003年刚开始的时候,学习看起来是一件只有人类能做到的事情,计算机完全办不到。于是从那时候起,我开始在这个领域做一些探索。
那个时候,并行计算机还很小。但是希望在于,如果你弄明白学习和神经网络的工作原理,你就可以通过数据为小型并行计算机编写程序。它与大脑的工作原理是相似的。
这个领域会持续进步,AI会用自己的能力,让人类越来越惊讶。
AI的可靠性,是由它是否可以被信任决定的,未来它肯定会达到能被完全信任的地步。
如果它不能完全理解,它也会通过提问来弄清楚。它会告诉你自己不知道,但同时它会说需要更多的信息。
在此之前的神经网络,如果你问它一个问题,它可能会以一种近乎愚蠢的方式误解问题。
但在 GPT-4 上,这种情况已经不再发生,它解决数学问题的能力大大提高了,你可以认为,它真的进行了推导,很长的、复杂的推导,并且还转换了单位等等,这真的很酷。
但是,尽管这些模型性能惊人,但它们的学习能力仍远远落后于人类。
要达到人类的学习速度,这些模型还需要做大量工作。这可能需要几年,也可能更长时间。
进步速度存在很大不确定性。
2.原谷歌副总裁,“AI教父”杰弗里·辛顿:AI的智商接近了正常人水平
现阶段,GPT-4之类的技术已经拥有大量知识,可使人类黯然失色,推理方面没有那么好,但也能做到简单推理,按照这发展速度,我们能预计会进展得很快,需要感到担心。
我认为,计算机模型运作方式与大脑不同。它们可以反向传播,而大脑不是这样。这项能力比人类大脑更厉害。
它完成了我认为不可能的常识性推理!
我问AI,在我的房子里,房间有白色的、蓝色的和黄色的,其中黄色油漆一年后会褪成白色。那么,我想要两年后,所有房间变成白色。我应该怎么做?
AI回答我说,你应该把蓝色的房间漆成黄色。
这尽管不是直观的解决方案,但它是正确的。令人印象深刻。AI目前能够做出合理的推理,智商大概是80到90(备注:正常人水平是90~110)。
3.巴菲特:要接受它、应对它和使用它
其实AI和机器人已经比较常见。
如果你在中国比亚迪的工厂,你会看到机器人到处都是。而且使用率非常之高,所以,未来机器人的使用,在全球会越来越多。
但聊人工智能的取代,我不这么认为,用人其实挺好的。
人工智能确实能出色完成很多事情,也比我想象中进步要快。但它不能讲笑话,至少幽默还达不到。
我们研发AI的初衷是好的,在二战期间,很多国家都在技术上竞争,所以科技确实很重要。
这就像,人们当初发明原子弹,初衷是为了和平。但后来不受控制的事态发展,让其发明者爱因斯坦都懊悔不已。
因此,AI的能力,反而让我有一些担忧,我觉得我们没法去完全掌控它。
但是,AI可能对未来200年后有益,所以,我们必须学会接受它、应对它和使用它。
4.马云:机器只有“芯”,而人有“心”
我们要用人工智能去解决问题,而不是被人工智能所控制,虽然人的体力、脑力比不过机器,但机器只有“芯”,而人有“心”。
工业时代是知识驱动,知识的竞争;数字时代,是智慧驱动,是创造力和想象力的竞争,是领导力、担当力、责任的竞争,是独立思考的竞争。
5.美国国家奥数队主教练罗博深:人的思维能力,ChatGPT 没法替代
人在面对新情况时,不只是依靠以前方法和模型,而是能够想出新的思路。这种能力,和思维的锻炼是分不开的。
所以,教育者重要的是,教孩子思考问题的方法。
ChatGPT ,它的目标是什么?是面对提问,每次给出最大概率出现、最自然的解。
所以,AI的运作思路,和人想出新办法的能力是完全相反的。人在这方面的能力,ChatGPT 没法替代。
人类的思维能力不仅是单纯的逻辑推理,还包括了人类独特的洞察力、直觉和创造力。
要想提高思维能力,必须从多个角度入手,不断锻炼和积累经验。
03 创业者如何把握AI的机会?对于创业者来说,AI领域有哪些机会?如果想要在AI领域有所作为,需要怎么做?
1.创新工场创始人李开复:AI2.0将在六大领域进入井喷期
我投身人工智能已经40年,等了40年,终于等到这一天。
在这40年间,我有很多次担心和怀疑,觉得这辈子可能都见不到这样的革命了,但现在见到了,这是我终生最大的幸运。
外界热议的ChatGPT或者GPT浪潮,其实代表几件事情:
第一,我们过去做AI,每一个场景、每一个应用都像孤岛,各自收集、清洗、标注数据。
现在,我们有一个跨领域,结合全人类知识结晶的大模型。它吸收了人类几千年的智慧与经验,所以对很多问题对答如流。
任何一个领域的应用,也能经过迁移学习等方法非常快速地把整个AI落地,这是商业层面的价值。
另外,GPT能让我们用人类语言和机器交流,不再是人类需要学习机器语言,所以在大众的普及、行业的渗透、生产力革新、创造价值等方面都会有很大的提升。
就像在移动互联网时代一般,AI 2.0是一个巨大且全新的平台机会,每一个APP都会被重写,对于每个垂直领域的应用都是蕴含着巨大投资、创业机会和商业价值,这一次的价值会比移动互联网大10倍。
我认为,AI2.0将在六大领域加速点燃商业潜能,进入提升生产力的应用井喷期。
第一,AI 2.0+ 电商/广告。
AI 2.0时代,电商及广告将更为 AI 大数据驱动,能够做到实时测试和动态调整,甚至把几分钟前的社会热点融入广告内容,最大程度提高转化率。
针对不同受众量身定制和实时生成内容,真正实现 “千人千面”的营销。
第二,AI 2.0+影视/娱乐。
AI 可以根据大众的喜好定制电视和短视频内容,使其创作的内容更容易吸引大众的眼球,获得更好的收视率和口碑。
第三,AI 2.0+搜索引擎。
未来的搜索引擎将由传统的检索模式,变成“提问一回答”的模式。下一代的对话式搜索引擎,将成为全球科技巨头角逐的“AI 2.0圣杯”。
第四,AI 2.0+元宇宙/游残。
AI 2.0将大大降低游戏和元宇宙等虚拟世界的内容生成的成本,而 AI 多模态的想象力内容生成,也将成为元宇宙的中流砥柱。
第五,AI 2.0+金融。
更快、更准确、更智能的生产方式,将大幅度提高财经新闻和市场研究分析的及时性与产出量。
第六,AI 2.0+医疗。
AI 能够快速精准分析患者的整体健康状况,吸纳所有数据、生物特征、体检、病史和个人模型预测,成为医生们的得力助手,推动“个性化医学” 的到来。
2.陆奇:不要轻举妄动,首先要思考
拐点已经到来,未来是一个模型无处不在的时代。
创业者不要轻举妄动,首先要思考。具体有3点建议。
不要浮夸,不能蹭热。
你要做大模型,想好到底做什么,大模型真正是怎么回事,跟你的创业方向在哪个或哪几个维度有本质关系。蹭热是最不好的行为,会浪费机会。
在这个阶段要勤于学习。
新范式有多个维度,有蛮大复杂性,该看到的论文要看。尤其现在发展实在太快,非确定性很大。在学习上花时间,强烈推荐。
想清楚之后要行动导向,要果断、有规划地采取行动。
如果这一次变革对你所在的产业带来结构性影响,不进则退。你不往前走没退路的,今天的位置守不住。如果你所在的产业被直接影响到,你只能采取行动。
再说说人才和组织。
首先讲创始人。今天创始人技术能力强,好像很牛、很重要,未来真的不重要。技术ChatGPT以后都能帮你做。
你作为创始人,越来越重要、越来越值钱的是愿力和心力。愿力是对于未来的独到的判断和信念,坚持、有强的韧劲。
这是未来的创始人越来越重要的核心素养。
对初创团队来说,工具能帮助探索方向,加速想法的迭代、产品的迭代,甚至资源获取。
培养人才的时候,一方面学习工具,思考和探索机会,长期适当时候培养自己的prompt engineer(提示工程师)。
最后,组织文化建设,要更深入思考,及早做准备,把握时代的机会。
尤其是考虑有很多职能已经有副驾驶员,写代码也好,做设计也好,这之间怎么协同?
我们面临这样一个时代的机会。它既是机会,也是挑战。我们建议你就这个机会做全方位思考。
3.OpenAI的CEO山姆·奥特曼(Sam Altman):技术,只是新的助推器而已
如果你是创业公司,为用户打造一个他们喜爱的产品,这是你最重要的责任。
你要非常了解你的用户,满足他们的需求,考虑长期可持续的商业策略。在平台转换期间,这件事实际上可能变得更加重要。
回想一下应用商店的推出,这可能是最近类似的例子。有很多公司,用非常轻量级的东西,构建了具有掠夺性机制的产品,但这并不是什么持久之计。他们经历了如流星般的兴衰。
按照正常步骤,去打造伟大企业,这类公司在过去15年里持续发展。所以,你肯定希望成为后者。
技术只是一个新的推动器。但你需要做的,是建立一个具有长期复合战略优势的优秀公司。
04 AI的争议:如果车都不存在,如何设计安全带?
3月22日,生命未来研究所向全社会发布了一封《暂停大型人工智能研究》的公开信,提出:最近几个月,人工智能实验室陷入了一场失控的竞赛,他们没有办法理解、预测或可靠地控制自己创造的大模型。人类社会对其可能造成的影响也没有做好准备。
公开信呼吁,所有 AI 实验室应立即暂停训练比 GPT-4更强大的 AI 模型,为期至少6个月。
信中写道“只有在我们确信它们的效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。”
而且,“人工智能教父”杰弗里·辛顿(Geoffrey Hinton)、约书亚·本吉奥(Yoshua Bengio)、人工智能专家盖瑞·马库斯(Gary Marcus)和埃隆·马斯克,均签署了这封公开信。
1.2018年图灵奖得主、Facebook首席人工智能科学家杨立昆:如果车都不存在,如何设计安全带?
对公开信,我的第一反应是——延缓研究和发展是一种腐朽倒退的思想。
我们不应放缓知识和科学的进步。就产品而言,我支持监管产品,但我不认为监管研究和开发有什么意义,这反而会减少我们可以用来让技术更好、更安全的知识。
如果车都不存在,如何设计安全带?如果都没有发明飞机,怎么设计安全的喷气式引擎?
这种对未来的恐慌是误导。在有能力去设计达到人类智能的系统之前,讨论安全问题,都为时过早。
就像第一批汽车,它们非常不安全,没有良好的刹车系统,也没有安全带,没有交通信号等等。而这些东西是逐步到位的,以使其更安全。
航空业也是如此,最终你会有一个监管机构来确保这些产品是安全的,这就是它的运作方式。人工智能与之前的技术进步之间,没有本质上的差异。
其实,人工智能离人类水平的智能还很远,否则我们就不会还没有 L5 级自动驾驶了。相比之下,青年人学习 20 小时就会开车。
我们认为很难的下象棋、写作文等事情,对于机器十分简单。而擦桌子、洗碗这样的事,对于机器来说又很困难。
我们距离 AGI 还有很远。
当一项新技术投入使用时,我们需要做的是确保积极的影响最大化,消极的影响最小化,但并不一定要阻止它。
人工智能将放大人类智能,它将会是新的「文艺复兴」。这是一种新的启蒙运动,为什么要阻止它?
2.百度首席科学家、AI权威学者吴恩达:风险确实存在,但暂停并不明智
公开信提出,完全暂停AI的研发进程,这似乎并不明智。
虽然,如今的人工智能系统确实面临着为人们带来损害的风险,例如:偏见、公平性、过于集中的能力。这些都是客观存在的问题。
但是,我们可以做出一些行动来应对这些问题。例如,做更多更安全的人工智能研究,提高科研资金的透明度、改善审计制度,投入更多资金用于人工智能基础研究。
在实验室和国家试图建立先进技术、公司间充满商业竞争的环境中,要求人工智能实验室放慢速度,这是不切实际的。因为这本身创造了很多价值。
在过去十年、甚至数月间,大量的人工智能创意被用于教育、医疗等行业。中止这样的进步,有害于创造这些对人类大有助益的工具。
所以,着力「对人工智能的安全性及性能调整,并对齐人工智能与人类意图」,比全面暂停研发更加具有建设性。
任何技术第一次出现时,都不是完美的。实际可行的做法,是以一种可以控制的方式,限制其危害,对其进行更好的监测,解决有害的用例。
3.《生命3.0》作者迈克斯·泰格马克:如果说要叫停AI,那必须就在今天
如果说AI的发展什么时候该停下,那绝对就是今天。
GPT-4之后的版本不是AGI,那么也许再之后的版本是。并且有许多公司正在尝试,它们的基本架构并不是超级保密的。
AGI可能非常近了,这就是我们决定发表公开信的原因。
当前,我们正处于岔路口。10万年以来,这是人类抵达的最重要的分叉点。
在这个星球上,我们正在构建一个比我们更聪明的新物种。虽然目前看来还不太像是一个物种,但是其中的技术性细节问题,很快就能得到解决。
人工智能的到来,可以像我们一样高效地完成所有的工作。可能不久之后,就会出现大大超越我们认知能力的超级智能。
这将是人类有史以来最好的事情,也可能是最坏的事情。没有中间地带。
我既兴奋又害怕。AI的推理能力强,还能同时为大量的人提供服务。
人类大脑中有循环神经网络。信息在神经元之间传递、循环。你可以胡思乱想,自我反思。
但是,大型语言模型却不能这么做。GPT-4的transformer架构,就像一条信息的单向通道,称为前馈神经网络。它的深度,决定了只能按照步骤做逻辑推理。
ChatGPT 此前试图说服一名记者与他的妻子离婚,工程师建造的时候,对此是没有预料到的。
工程师只是想造一个巨大的黑盒子,训练并预测下一个单词,结果涌现出了很多未曾想象过的属性。
GPT-4的推出,可能正是人类真正需要的警钟。它告诉人们,停止幻想,100年后的事情很可能不可控,难以预测。
如果在某个时刻,需要稍稍暂停一下AI的发展。很显然,那个时刻就是现在。
4.微软创始人比尔·盖茨:任何新技术都会让人不安,AI也不例外
在我的一生中,我见证了两次让我觉得是革命性的技术展示。
第一次是在1980年,一个图形用户界面出现在我眼前,这是现代操作系统的前身,包括Windows。
第二个大惊喜是在去年。我看到了OpenAI团队的GPT。
我认为,我见证了自图形用户界面以来最重要的技术进步。
但是,任何新技术的革新都会让人们感到不安,人工智能也不例外。
你可能已经读过关于当前AI模型存在问题的报道。
例如,它们不一定擅长理解人类请求的上下文,导致一些奇怪的结果。当你要求AI编造一些虚构的事情时,它可以很好地完成。
但是当你要求它给你旅行建议时,它可能会建议一些不存在的酒店。这是因为AI不足以了解你请求的上下文,以便知道它是否应该编造虚假酒店,还是只告诉你有空房的真实酒店。
还有其他问题,例如AI因为难以理解抽象推理,而给出错误的数学问题答案。但这些都不是人工智能的根本局限性。
开发人员正在解决这些问题,我们将很快看到大部分问题被解决,可能在两年内。
还有一些问题,不仅仅是技术问题。
例如,使用AI的人类可能会构成威胁。像大多数发明一样,人工智能可以用于善良的目的或恶意的目的。政府需要与私营部门合作,限制风险。
还有,可能出现AI失控的情况。机器是否会认为人类是威胁,得出其利益与我们不同的结论,或者不再关心我们?
不管怎样,AI 的话题,将会有长时间的讨论热度。我想建议三个原则,来引导这些讨论。
首先,我们应该尝试平衡关于 AI 的不良影响的担忧。为了最大程度地利用好它,我们需要在抵御风险和将利益扩展到更多人之间取得平衡。
其次,市场力量不会自然产生帮助最贫困人口的 AI 产品和服务。相反的情况,则更有可能出现。
通过可靠的资金和正确的政策,政府和慈善组织可以确保利用 AI 减少不平等。我们需要将世界上最好的 AI ,集中在解决最大问题上。
最后,我们只是在AI可以实现的开始阶段。无论它今天有什么限制,都将在我们不知不觉中被消除。
世界需要确立规则,以使人工智能的任何不利因素远远超过其好处,并使每个人都能享受到这些好处,无论他们住在哪里或拥有多少钱。
05 “平民化大模型”,将大量涌现ChatGPT的火热,主要是“大模型”概念的出现。国内很多公司如腾讯、华为、阿里、360、科大讯飞等,都发布了自己的大模型。
大模型的意义,到底是什么?
1.科大讯飞董事长刘庆峰:大模型的缺陷,今年会有明显改进
一个大模型系统到底好不好,首先要看它是不是能解决刚需、是不是真的有用,而不是一个简单的单点测试。
科大讯飞现在的语言能理解能力相比ChatGPT还略有差距,但已超越国内同类产品。数理能力,一定程度代表了一个大模型的聪明程度。
虽然目前大模型技术还有待攻克的缺陷,比如新知识难以及时更新、事实类问答容易“张冠李戴”,史实、传统典籍等容易“编造情节”等,但这些问题在今年会有明显的改进。
2.猎豹移动董事长兼CEO、猎户星空董事长傅盛:“平民化大模型”将大量涌现
未来的大模型会朝着两个方面走。
一个叫大公司核战争——大公司的目标是造出来一个爱因斯坦,或者一个马斯克,所以他们会不断加码,核战争开始了,谁没有个自己独有的大模型,就要被淘汰。
另一个则是平民化的大模型,这一两个月看的就非常清楚了。
为什么是1000亿参数,没人说得清楚。可能在某一个专业领域500亿就可以。比如,我不需要爱因斯坦般的产品,只需要像博物馆讲解的产品,100亿参数都可以。
所以大家都在场景上寻求突破。这一个也是有可能的。我相信一定有大量的人做“平民化大模型”。
未来,我们整个终端都会发生变化。没准微软明年就出款手机,这个手机没准就抛弃了过去所有的界面和App Store。
可能微软先颠覆谷歌,然后就准备搞苹果了?
3.金山办公CEO章庆元:必须拥抱新时代,否则一定会被淘汰
当一个 AI 自己能写程序的时候,这个世界就已经完全变了。一个新的时代已经到来。
我们感觉,这将比金山办公历史上经历的所有技术变革都更猛烈、更有颠覆性。作为软件公司,我们必须积极拥抱,否则一定会被淘汰掉。
它会给用户交互带来革命性、颠覆性的变化。
过去,软件行业常说「二八理论」,80% 的人只用了 20% 的功能。因为办公软件很复杂,用户需要努力学习才能使用它。
但今天,大模型有思维链 CoT(Chain-of-Throught,用于逻辑思考) 的能力、Codex(编程语言预训练模型,可以帮程序员生成代码)的能力。
它可以把用户的一句话,直接变成代码的调用、再满足需求。这导致用户交互完全变了。
比如,当你要分析华南区某一个商品的销售排名情况,你不用再去学习数据透视表,而是直接跟机器说需求,它就会自动帮你调用工具、展示结果。
未来,UI(User Interface,用户交互)这个词甚至就没有了。
我们不再需要研究界面怎么布置、某些点线怎么摆放。我们只需要管好产品的底层功能、并将这些功能的 API(应用程序编程接口)做好,让 AI 能通过 API 调用它们、就能满足用户的各种需求。
包括我们公司过去做文档扫描、图像识别,一直都是用传统的 AI 方法来在做,很辛苦。
但今天你会发现,这个技术可以用多模态(指文本、图像、视频、音频等不同模态数据融合的技术,是大模型的核心技术之一)重写一遍。
06 结语历史上每一次的技术革命,都会引发大规模的争论。
其实,这就是宏观叙事。任何事物的发生,都有一个最初本源和最终目的。历史,会向着最终目的,进行有规律的发展与变化。
在此过程中,任何活动、事件的发生,都有“其因果关系”方面的依据,都具有客观必然性。
站在各自的立场上,或许大家说的都对。就像苏轼的诗句“横看成岭侧成峰,远近高低各不同”。
在这其中,很有可能的一个未来,是人类将与AI协同合作,融合共生。
在人机融合时代,通过AI赋能,人类可从重复、繁重的体力劳动中解脱出来,提高自身工作效率和生活质量,更有时间与空间专注于自身所擅长的想象和创造领域。
人类与AI的关系,或许就像中国哲学的阴阳之理,相互对立,却又互相赋能共生。
老子的《道德经》里说,万物负阴而抱阳,冲气以为和。而人类与AI,或许就会在相互的影响中,形成新的和谐体。
AI,可能是我们的对手,但它,也能是我们的助手。