仅仅几周前,我写了一篇关于人工智能(AI)存在的许多实际问题的文章,这些问题主要源于AI模型基于不充分和固有偏见的数据。问题包括错误的事实、传播错误信息、虚构细节,甚至为了诱导人类行为而直接撒谎。
本周,这些问题(以及更多问题)得到了约2,000名行业领袖和研究人员的共鸣,他们签署了一封公开信,建议暂停许多AI工具的创建。
“我们呼吁所有AI实验室立即暂停至少六个月的训练,对比GPT-4更强大的AI系统,”这封信由“生命未来研究所”发表,该组织的使命是“将变革性技术引向有益于生命的方向,远离极大规模的风险”。这封信得到了一些大名鼎鼎的人物的签署,包括苹果联合创始人史蒂夫·沃兹尼亚克、特斯拉CEO埃隆·马斯克、AI专家和图灵奖得主Yoshua Bengio,以及代表伯克利、哈佛、MIT和普林斯顿的教授们。
这封信概述了签署者对AI发展速度的不安:“具有人类竞争力的AI系统可能对社会和人类造成深刻的风险,这已经通过广泛的研究得到证实,并得到了顶级AI实验室的认可。...先进的AI技术可能代表着地球生命史上的深刻变革,应该用相应的关怀和资源进行规划和管理。不幸的是,即使最近几个月AI实验室陷入了一场无法控制的竞争,力图开发和部署越来越强大的数字思维,甚至他们的创造者也无法理解、预测或可靠地控制。”
信件继续敦促只有在确定其效果将是积极的且风险可以管理时,才开发强大的AI系统。为了实现这个目标,信件建议建立一套共享的安全协议,并由独立的外部专家进行严格的审计和监督。
AI安全指南早已被推荐:英国的Alan Turing研究所在2018年发布了一份伦理和安全指南;总部位于蒙特利尔的Mila是一个由科学家和跨学科团队组成的社区,致力于社会责任和有益的人工智能;亚洲协会则发布了报告,旨在提高东南亚的AI安全标准。
尽管他们有所担忧,但我相信所有签署者都会认为AI是值得的,并且所有人都对该技术有自己的兴趣。例如,特斯拉多年来一直在尝试使用AI来驱动其自动驾驶汽车功能;苹果最近收购了一家使用AI来压缩视频的初创公司。
至于我们供应链领域的人,我们正在采用人工智能进行各种工作,包括数字孪生、超级自动化和采购谈判,详情请参见ASCM Insights博客中的这些故事。查看这些内容,以及由技术先驱和供应链领域顶尖思想领袖提供的更多迷人内容。您将发现有关保持对供应链一切事物的完全了解的一些最重要的行业主题的多元化观点。