导读:导语:智能不需要达到类平的智,就能加剧这些险。有些看起来不会导致类灭绝的险真的常重要,但却没有得到好莱坞级别的关注。 据路透,四位智能专家反驳了由斯克联合签名的公开信中,那封信中引了他们的些研究,并作为论据要求紧急暂停AI的进步研究。 这封信…

导语:“智能不需要达到类平的智,就能加剧这些险。有些看起来不会导致类灭绝的险真的常重要,但却没有得到好莱坞级别的关注。”

据路透,四位智能专家反驳了由斯克联合签名的公开信中,那封信中引了他们的些研究,并作为论据要求紧急暂停AI的进步研究。

这封信的期是322,截周五已有1800多签名,信中呼吁在开发GPT-4 “更强 ”的系统前暂停六个。

这封公开信称,具有“类竞争智能 ”的智能系统对类构成了严重的险,并引了包括学学者以及OpenAI、歌及其公司DeepMind的现任和前任员在内的专家的12项研究。

批评者质疑这封信背后的组织“命的未来研究所”(FLI),这个组织主要由斯克基会资助,认为这个组织优先考虑的是想象中的世界末场景,不是对智能更直接和真正的担忧,例如将种族主义或性别歧视的偏引了机器。

公开信中引的研究,包括“论随机鹦鹉的危险”,这是篇著名的论,由玛格丽特切尔共同撰写,她曾在歌监督智能的伦理研究。

切尔现在是智能公司Hugging Face的席伦理科学家,她批评了这封信,告诉路透社,不清楚什么算作 “GPT4更强”。

她说:“通过将许多有问题的想法视为既定事实,这封信宣称了套优先事项和关于智能的叙述,对FLI的持者有利。现在忽视正在造成的伤害,是我们中的些没有的特权。”

她的合著者提姆尼格布鲁和艾丽M本德尔在Twitter上批评了这封信,后者将其中的些主张称为“不正常”。

FLI总裁克斯泰格克则告诉路透社,他们发起的活动,并试图阻碍OpenAI的企业优势。

“这挺搞笑的。我看到有说,’埃隆-斯克正试图减缓竞争’,”他说,并补充说斯克在起草这封信时没有任何作。“这不是关于家公司的事情。”

康涅狄格学的助理教授舍丽多瑞哈科恩,也对公开信引她的作当论据表异议。她去年与合著了篇研究论,认为智能的泛使已经带来了严重的险。

她的研究认为,当今智能系统的使可能影响与候变化、核战争和其他存威胁有关的决策。

她告诉路透社:“智能不需要达到类平的智,就能加剧这些险。有些看起来不会导致类灭绝的险真的常重要,但却没有得到好莱坞级别的关注。”

当被问及对批评的看法时,FLI的泰格克说,智能的短期和期险都应该被认真对待。

“如果我们引某的话,这只是意味着我们声称他们在认可这个说法。这并不意味着他们认可这封信,或者我们认可他们的切想法,”他告诉路透社。

信中提到的加州智能安全中主任丹亨德利克斯持信中的内容,他告诉路透社,考虑天鹅事件是明智的,即那些看起来不太可能发,但会产破坏性后果的事件。

公开信还警告说,成性智能具可能被来在互联上充斥 “宣传和不真实”。

多瑞哈科恩说,斯克签署这封信是相当讽刺的,他引了间团体 “共同事业 ”和其他组织的记录,指出在他收购推特平台后,推特上错误信息增加的报道。推特很快将推出访问其研究数据的新收费结构,可能会阻碍相关的研究。

多瑞哈科恩说:“这直接影响了我实验室的作,以及其他研究错误和虚假信息的所做的作。我们是在只被绑在背后的情况下运作的。”

Loading

作者 yinhua