科技工作者专业机构敦促,科学家应该获得开发人工智能产品的许可证。
在竞争和市场管理局(CMA)对人工智能市场进行审查后,英国计算机协会(BCS)首席执行官拉希克·帕尔玛发表了上述言论。BCS是IT人员的特许协会。
监管机构进行审查之际,人们担心微软(Microsoft)等大型科技公司在这个快速发展的领域正变得过于占据主导地位。
帕尔玛说:“我不想让一个没有正确道德规范的外科医生给我做手术,他有能力,有道德……然而,我们允许IT专业人员在没有相同专业水平的情况下构建和部署复杂的技术。
“我认为,我们需要某种程度的专业水平,并以正确的方式获得认证。”
他呼吁对从事“关键基础设施”或“可能对人类生命有害”的人工智能技术研究的计算机科学家进行登记。
经济合作与发展组织(OECD)在2020年发布的一项研究发现,“职业准入规定”平均使公司的生产率降低了1.5%左右。
该论文的作者呼吁“放宽”许可和认证要求,并转向“确保商品和服务的某些质量标准”,而不是“为提供这些产品和服务的专业人士设定标准”。
CMA的消息人士表示,其人工智能市场研究是一项“绘图”工作,而不是加强监管的起点。
随着ChatGPT及其衍生产品等技术融入日常生活,对人工智能服务代表人类做出决策的信任正成为公众关注的一个问题。
流程模拟公司silicon的创始人约翰•希尔(John Hill)表示,人工智能在为不同的商业场景及其结果建模方面可能很有用,但前提是使用者对人工智能软件的输出有信心。
希尔表示:“这不仅是向信任技术的转变。“这是一种转变,在决策过程的不同方面使用它,并获得对未来决策实际情况的看法,”他说,人类“无法实现”自己的决定。