跟上这样一个快速发展的行业是一项艰巨的任务。所以,在人工智能可以为你做这件事之前,这里有一个关于机器学习世界的最新故事的简单总结,以及我们没有单独报道的著名研究和实验。
本周在人工智能领域,我们看到OpenAI、Anthropic、谷歌、Inflection、微软、meta和亚马逊在拜登政府计划发布行政命令之前自愿追求共同的人工智能安全和透明度目标。
正如我的同事德文•科尔杜威(Devin Coldewey)所写的那样,这里并没有提出任何规则或强制措施——所同意的做法完全是自愿的。但总的来说,这些承诺表明,每家供应商可能会发现,在美国和国外,人工智能监管方法和政策是可以修改的。
在其他承诺中,这些公司自愿在发布前对人工智能系统进行安全测试,分享有关人工智能缓解技术的信息,并开发使人工智能生成的内容更容易识别的水印技术。他们还表示,他们将投资于网络安全,以保护私人人工智能数据,促进漏洞报告,并优先考虑系统性偏见和隐私问题等社会风险的研究。
可以肯定的是,这些承诺是重要的一步——即使它们不能强制执行。但有人怀疑,签署人是否别有用心。
据报道,OpenAI起草了一份内部政策备忘录,表明该公司支持要求任何想要开发人工智能系统的人获得政府许可的想法。该公司首席执行官萨姆·奥特曼(Sam Altman)在今年5月的美国参议院听证会上首次提出了这一想法,他在听证会上支持成立一个机构,该机构可以为人工智能产品颁发许可证——如果有人违反规定,可以撤销许可证。
在最近接受媒体采访时,OpenAI全球事务副总裁Anna Makanju坚称,OpenAI并没有“推动”获得许可,该公司只支持比OpenAI目前的GPT-4更强大的AI模型的许可制度。但政府颁发的许可证,如果按照OpenAI提议的方式实施,可能会引发与初创公司和开源开发者的潜在冲突,他们可能会认为这是一种让其他人更难进入这个领域的尝试。
我认为德文说得最好,他对我的描述是“在比赛中把钉子扔在他们身后的路上”。至少,它说明了人工智能公司的两面派本质,一方面寻求安抚监管机构,另一方面在幕后塑造有利于自己的政策(在这种情况下,让小挑战者处于不利地位)。
这是一种令人担忧的事态。但是,如果政策制定者采取行动,就有希望在不受私营部门不当干预的情况下获得足够的保障。
以下是过去几天其他值得注意的人工智能故事:
- 业内资深人士、OpenAI信任与安全主管戴夫·威尔纳(Dave Willner)在一份声明中宣布,他将离职并进行过渡Ned担任顾问的角色。OpenAI在一份声明中表示,它正在寻找替代品首席技术官米拉·穆拉蒂将临时管理团队。
- 在OpenAI的更多新闻中,该公司推出了自定义指令,这样他们就不必编写相同的指令prom每次与聊天机器人交互时,都会向聊天机器人发送PTS。
- 据《纽约时报》报道,谷歌正在测试一种使用人工智能编写新闻报道的工具,并已开始向出版物演示。这家科技巨头已经向《纽约时报》、《华盛顿邮报》和《华尔街日报》的母公司新闻集团(News Corp.)推介了这一人工智能系统。
- 据彭博社的马克·古尔曼报道,苹果正在开发人工智能,以挑战OpenAI、谷歌和其他公司。具体来说,这家科技巨头开发了一款聊天机器人,一些工程师在公司内部称之为“Apple GPT”。
- 我该公司推出了一系列新的人工智能模型,旨在推动OpenAI和其他现代聊天机器人的应用程序。我接受过各种公开数据的训练该公司声称,羊驼2的性能比上一代羊驼车型有了显著提高。
- 像ChatGPT这样的生成式人工智能系统是在公开可用的数据上进行训练的,包括书籍——但不是所有的书籍内容创作者对这一安排感到满意。在小说、非小说和诗歌中,像Bard、LLaMa等大型语言模型背后的科技公司因未经许可或补偿而使用他们的作品而受到指责。
- 在一年一度的Inspire大会上,微软发布了Bing Chat Enterprise,这是Bing Chat人工智能聊天机器人的一个版本,具有专注于商业的数据隐私和治理控制。在Bing Chat Enterprise中,聊天数据不会被保存,微软无法查看客户的员工或业务数据,客户数据也不会用于训练底层人工智能模型。
更多的机器学习
从技术上讲,这也是一个新闻项目,但它需要在这里的研究部分提到。此前曾为VR和其他媒体制作CG和3D短片的Fable工作室(它声称)可以编写、导演、表演和编辑一整部电视节目——在他们的演示中,它是《南方公园》。
我对这件事犹豫不决。一方面,我认为追求这一点,更不用说在涉及赔偿和人工智能问题的好莱坞大规模罢工期间,是相当低级的。尽管首席执行官爱德华·萨奇(Edward Saatchi)表示,他相信该工具将权力交给了创作者,但反过来说也有争议。无论如何,它并没有受到业内人士的特别欢迎。
另一方面,如果某个具有创造性的人(Saatchi就是这样)不去探索和展示这些能力,那么其他人就会去探索和展示这些能力,而不会对使用它们感到内疚。即使Fable所做的声明对于他们实际展示的内容(这有严重的局限性)来说有点夸张,但它就像最初的DALL-E一样,它引发了讨论,确实令人担忧,即使它不能替代真正的艺术家。人工智能将以这样或那样的方式在媒体生产中占有一席之地——但出于种种原因,我们应该谨慎对待它。
在政策方面,不久前我们(像往常一样)进行了一些非常荒谬的政策修订,与国防无关。但其中一个附加条件是,政府必须举办一场活动,让研究人员和公司尽最大努力检测人工智能生成的内容。这种事情绝对接近“国家危机”的水平,所以这可能是好事。
在美国,他们总是试图找到一种方法来连接数字和现实——大概是为了公园的目的。在这种情况下,他们已经开发出一种方法,可以将角色的虚拟动作或动作捕捉(比如电影中的CG狗)映射到实际的机器人上,即使机器人的形状或大小不同。它依赖于两个优化系统,每个系统都告诉对方什么是理想的,什么是可能的,有点像小自我和超自我。这将使机器狗更容易像普通狗一样行动,但当然它也可以推广到其他东西上。
希望人工智能能帮助我们引导世界远离海底采矿,因为这绝对是个坏主意。一项研究将人工智能从噪音中筛选信号的能力用于预测全球有价值矿物的位置。他们在摘要中写道:
在这项工作中,我们通过使用机器学习来表征嵌入在矿物发生和关联的多维度中的模式,拥抱了我们星球上错综复杂的地质、化学和生物系统的复杂性和固有的“混乱”。
这项研究实际上预测并验证了铀、锂和其他有价值矿物的位置。结束语是这样的:该系统“将增强我们对地球上、整个太阳系以及深时间的矿化和矿化环境的理解。”太棒了。