据美国媒体本周一报道,一位被称为“人工智能教父”的计算机科学家辞去了b谷歌公司的工作,公开谴责人工智能技术的危害。
为人工智能系统创造基础技术的杰弗里·辛顿在接受《纽约时报》采访时表示,该领域的进步“对社会和人类构成了深刻的风险”。
周一发表的这篇文章援引他的话说:“看看五年前是什么样子,现在又是什么样子。”
“接受差异并将其向前传播。这是可怕的。”
辛顿表示,科技巨头之间的竞争正在推动公司以危险的速度发布新的人工智能技术,这将危及就业机会,并传播错误信息。
他对《纽约时报》表示:“很难想象你能如何阻止坏人利用它做坏事。”
2022年,谷歌和OpenAI(广受欢迎的人工智能聊天机器人ChatGPT背后的初创公司)开始构建使用比以前多得多数据的系统。
辛顿告诉《纽约时报》,他认为这些系统在某些方面超过了人类智能,因为它们分析的数据量很大。
“也许在这些系统中发生的事情实际上比在大脑中发生的事情要好得多,”他告诉报纸。
虽然人工智能已经被用来支持人类工人,但ChatGPT等聊天机器人的迅速扩张可能会危及工作岗位。
他在接受《泰晤士报》采访时表示,人工智能“带走了繁重的工作”,但“带走的可能不止这些”。
这位科学家还警告说,人工智能制造的错误信息可能会传播,他告诉《泰晤士报》,普通人将“再也无法知道什么是真的”。
据《纽约时报》报道,辛顿上个月通知b谷歌辞职。
b谷歌AI首席科学家杰夫·迪恩在向美国媒体发表的一份声明中感谢了辛顿。
声明补充说:“作为首批发布人工智能原则的公司之一,我们将继续致力于对人工智能采取负责任的态度。”
“我们在不断学习理解新出现的风险的同时,也在大胆创新。”
今年3月,科技亿万富翁埃隆·马斯克(Elon Musk)和一些专家呼吁暂停人工智能系统的开发,以便有时间确保它们的安全。
包括马斯克和苹果联合创始人史蒂夫·沃兹尼亚克在内的1000多人签署的一封公开信是由GPT-4发布的,GPT-4是ChatGPT使用的技术的一个更强大的版本。
辛顿当时没有在那封信上签名,但他告诉《纽约时报》,科学家们不应该“进一步扩大规模,直到他们了解自己是否能控制它。”