OpenAI成立专门小组,致力于阻止狂野人工智能

对于高度智能的人工智能系统存在的潜在危险,专业人士一直在关注此话题。

最近,被喻为“人工智能教父”的杰弗里·辛顿(Geoffrey Hinton)对超级智能人工智能超越人类能力并对人类造成灾难性后果的可能性表示担忧。

同样,开放人工智能(OpenAI)的首席执行官Sam Altman也承认对高级人工智能对社会的潜在影响感到担忧。

作为对这些担忧的回应,OpenAI宣布成立了一个名为Superalignment的新单位。

OpenAI成立专门小组,致力于阻止狂野人工智能

这一倡议的主要目标是确保超级智能人工智能不会导致混乱,甚至是人类的灭亡。OpenAI认识到超智能可以具有的巨大能力以及它对人类的潜在危险。

尽管超级智能人工智能的发展可能还需要几年时间,但OpenAI认为到2030年可能会实现。目前,还没有建立一个控制和指导潜在超级智能人工智能的系统,因此需要积极采取措施。

Superalignment旨在组建一个由顶级机器学习研究人员和工程师组成的团队,他们将致力于开发一个“大致达到人类水平的自动对齐研究员”。该研究员将负责对超级智能人工智能系统进行安全检查。

OpenAI承认这是一个雄心勃勃的目标,并不保证成功。然而,该公司仍然乐观地认为,通过有针对性和协同的努力,超级智能对齐问题可以得以解决。

像OpenAI的ChatGPT和Google的Bard这样的AI工具的崛起已经为工作场所和社会带来了重大变革。专家预测,即使在超级智能人工智能出现之前,这些变化也将在不久的将来不断加剧。

世界范围的政府都在争相制定监管措施,以确保AI的安全和负责任的部署。然而,缺乏统一的国际方法面临挑战。不同国家的法规差异可能导致不同的结果,并使实现Superalignment的目标更加困难。

通过积极努力将AI系统与人类价值观对齐并制定必要的治理结构,OpenAI旨在减轻超智能巨大能力可能带来的危险。

虽然任务无疑是复杂的,但OpenAI致力于解决这些挑战并吸引该领域的顶级研究人员,这标志着他们在负责任和有益的AI发展方面做出的重大努力。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行二次审核删除:fireflyrqh@163.com。
(0)
上一篇 2023年7月6日 上午9:54
下一篇 2023年7月6日 下午6:30

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注