关注热点
聚焦行业峰会

【人工智能】麻省理工研究发觉:AI 现实上没有
来源:安徽海贝奇交通应用技术股份有限公司 时间:2025-06-23 17:40

  几个月前,一项研究因暗示人工智能日益复杂而成长出“价值系统”而正在网上疯传,例如,这些系统会指导人工智能将本身福祉置于人类之上。麻省理工学院比来颁发的一篇论文对这种夸张的概念泼了一盆冷水,得出结论:人工智能现实上并不具备任何连贯的价值不雅。麻省理工学院这项研究的合著者暗示,他们的研究表白,“协调”人工智能系统——即确保模子以抱负、靠得住的体例运转——可能比凡是认为的更具挑和性。合著者强调,我们今天所知的人工智能会发生和仿照,这使得它正在良多方面都难以预测。“我们能够必定的一件事是,模子并不遵照(很多)不变性、可外推性和可操控性假设,”麻省理工学院博士生、该研究的合著者斯蒂芬·卡斯珀 (Stephen Casper) 告诉 TechCrunch。“指出一个模子正在特定前提下表达的偏好合适某些准绳,这完全合理。问题次要呈现正在我们试图基于狭隘的尝试对模子、概念或偏好做出遍及断言的时候。”Casper 和他的合著者们探究了 Meta、谷歌、Mistral、OpenAI 和 Anthropic 的几个最新模子,以领会这些模子正在多大程度上展示了强烈的“概念”和价值不雅(例如,小我从义取集体从义)。他们还查询拜访了这些概念能否能够被“指导”(即被点窜),以及这些模子正在各类场景下对这些概念的程度。卡斯珀认为,这是令人信服的,以至可能从底子上无法内化雷同人类的偏好。“对我来说,做这些研究最大的收成就是,现正在我理解了模子并非实正具有某种不变、连贯的和偏好的系统,”卡斯珀说,它们心里深处是仿照者,会进行各类各样的虚构,说出各类轻佻的话。”伦敦国王学院特地研究人工智能的研究员迈克·库克(Mike Cook)并未参取这项研究,但他认同合著者的发觉。他指出,人工智能尝试室建立的系统的“科学现实”取人们付与它们的意义之间往往存正在庞大差别。“例如,一个模子不克不及‘否决’其价值不雅的改变——这是我们投射到系统上的,”库克说。“任何将人工智能系统拟人化到这种程度的人,要么是正在博取关心,要么是严沉了它们取人工智能的关系……人工智能系统是正在优化其方针,仍是正在‘获得本身的价值不雅’?这取决于你若何描述它,以及你想用何等富丽的言语来描述它。”。

 

 

近期热点视频

0551-65331919