对于高度智能的人工智能系统存在的潜在危险,专业人士一直在关注此话题。
最近,被喻为“人工智能教父”的杰弗里·辛顿(Geoffrey Hinton)对超级智能人工智能超越人类能力并对人类造成灾难性后果的可能性表示担忧。
同样,开放人工智能(OpenAI)的首席执行官Sam Altman也承认对高级人工智能对社会的潜在影响感到担忧。
作为对这些担忧的回应,OpenAI宣布成立了一个名为Superalignment的新单位。
这一倡议的主要目标是确保超级智能人工智能不会导致混乱,甚至是人类的灭亡。OpenAI认识到超智能可以具有的巨大能力以及它对人类的潜在危险。
尽管超级智能人工智能的发展可能还需要几年时间,但OpenAI认为到2030年可能会实现。目前,还没有建立一个控制和指导潜在超级智能人工智能的系统,因此需要积极采取措施。
Superalignment旨在组建一个由顶级机器学习研究人员和工程师组成的团队,他们将致力于开发一个“大致达到人类水平的自动对齐研究员”。该研究员将负责对超级智能人工智能系统进行安全检查。
OpenAI承认这是一个雄心勃勃的目标,并不保证成功。然而,该公司仍然乐观地认为,通过有针对性和协同的努力,超级智能对齐问题可以得以解决。
像OpenAI的ChatGPT和Google的Bard这样的AI工具的崛起已经为工作场所和社会带来了重大变革。专家预测,即使在超级智能人工智能出现之前,这些变化也将在不久的将来不断加剧。
世界范围的政府都在争相制定监管措施,以确保AI的安全和负责任的部署。然而,缺乏统一的国际方法面临挑战。不同国家的法规差异可能导致不同的结果,并使实现Superalignment的目标更加困难。
通过积极努力将AI系统与人类价值观对齐并制定必要的治理结构,OpenAI旨在减轻超智能巨大能力可能带来的危险。
虽然任务无疑是复杂的,但OpenAI致力于解决这些挑战并吸引该领域的顶级研究人员,这标志着他们在负责任和有益的AI发展方面做出的重大努力。