分手不要体面!OpenAI前首席科学家Ilya成立新公司,正面硬刚OpenAI

   日期:2024-12-21    作者:1goi2 移动:http://qyn41e.riyuangf.com/mobile/quote/8259.html

  AI领域传奇人物苏茨克弗离开OpenAI后,神秘新项目浮出水面,Safe Superintelligence Inc.誓言打造超越时代的安全超级智能。

分手不要体面!OpenAI前首席科学家Ilya成立新公司,正面硬刚OpenAI

  伊利亚·苏茨克弗,这位在人工智能界享有盛誉的OpenAI联合创始人,在过去几个月里成为了一个谜。他参与了山姆·阿尔特曼被董事会免职的事件,之后又协助阿尔特曼重返CEO职位。自那以后,苏茨克弗便淡出了公众视野,他的未来在OpenAI变得扑朔迷离。然而,5月中旬,他宣布离开,并神秘地表示将在“适当时机”公布自己的下一个项目。

  现在,苏茨克弗揭开了这个项目的神秘面纱——Safe Superintelligence Inc.,一个旨在创建一个安全、强大的人工智能系统的企业,它是一个纯粹的研究组织,目前没有出售AI产品或服务的计划。

  换句话说,苏茨克弗试图在一个没有像OpenAI、谷歌和Anthropic等竞争对手所面临的诸多干扰的环境中继续他的研究。“这家公司与众不同之处在于,它的首个产品将是安全的超级智能,在那之前它不会做其他任何事情,”苏茨克弗在一次独家访谈中透露了他的计划。“它将完全不受外界压力的影响,不必去应对一个庞大而复杂的产品,也不必陷入激烈的竞争之中。”

  Peter作为联合创始人宣布加入Ilya的Superintelligence Inc.(SSI)团队,并担任CustomGPT商店的负责人,这标志着他将在SSI的新项目中扮演关键角色。CustomGPT商店是SSI即将推出的一个创新平台,它将提供定制化的GPT模型或服务,与OpenAI的GPT-Store形成竞争。

  根据Peter的推特内容,CustomGPT商店不仅是SSI的产品线中的亮点,更是其在人工智能领域战略布局的一部分。SSI致力于构建安全的超级智能技术,而CustomGPT商店的推出可能是这一愿景的具体体现,旨在满足市场对于个性化AI解决方案的需求。

  这一举措预示着SSI正积极拓展其在AI领域的业务范围,与行业巨头OpenAI展开竞争。随着CustomGPT商店的推出,SSI有望在定制化AI服务市场占据一席之地,对现有市场格局产生深远的影响。

  苏茨克弗没有透露Safe Superintelligence的资金支持者,也没有公开他筹集了多少资金。

  Safe Superintelligence的名称强调了苏茨克弗将AI安全作为公司的首要任务。当然,关键在于确定什么使一个AI系统更安全,或者是否真的安全。苏茨克弗目前对此并不明确,但他确实暗示,新公司将尝试通过在AI系统中内置工程突破来实现安全,而不是依赖于技术即时应用的护栏。“我们所说的安全,是指像核安全那样的安全,而不是像‘信任和安全’那样的安全,”他解释道。

  苏茨克弗有两位联合创始人。一位是投资者和前苹果公司AI负责人丹尼尔·格罗斯(Daniel Gross)。他是是一位以色列出生的企业家和投资者,以其在人工智能领域的贡献而闻名。

  他是搜索引擎Greplin的创始人之一,后来该搜索引擎被Apple收购,并在Apple担任AI和搜索项目的负责人。Gross也是Pioneer创业加速器的创始人,并通过AI Grant组织支持早期人工智能项目。

  Daniel Gross 被《时代》周刊评为首届全球百大 AI 人物之一,被认为是全球 AI 领袖。

  另一位联合创始人是丹尼尔·莱维,他在OpenAI与苏茨克弗一起训练大型AI模型,建立了良好的声誉。“我认为现在是启动这样一个项目的时候,”莱维说。“我的愿景与伊利亚完全一致:一个精干的团队,每个人都专注于单一目标——安全的超级智能。”Safe Superintelligence将在加州帕洛阿尔托和特拉维夫设立办公室。苏茨克弗和格罗斯都在以色列长大。

  苏茨克弗在AI行业中的地位几乎被神话化,他的地位不确定性一直是硅谷数月来的焦点。作为一名大学研究员和后来的谷歌科学家,他在开发许多关键AI技术中发挥了重要作用。

  他在OpenAI早期的参与帮助它吸引了对其成功至关重要的顶尖人才。苏茨克弗以主张构建越来越大的模型而闻名——这一战略帮助这家初创公司超越了谷歌,并被证明对ChatGPT的崛起至关重要。

  去年晚些时候OpenAI的戏剧性事件之后,人们对苏茨克弗计划的兴趣只会增加。他仍然不愿多说。当被问及他与阿尔特曼的关系时,苏茨克弗只说“很好”,他说阿尔特曼对新企业“大体上”有所了解。关于他过去几个月的经历,他补充说,“这非常奇怪。非常奇怪。我不知道我是否能给出一个更好的答案。”

  Safe Superintelligence在某些方面是对原始OpenAI概念的回归:一个研究组织试图构建一个通用人工智能,这种智能在许多任务上可能等于甚至超越人类。但随着计算能力需要大量资金的需求变得明显,OpenAI的结构发生了演变。这导致了公司与微软的紧密合作,并促成了其推动创造收入的产品。所有主要的AI参与者都面临着同样的难题,需要支付不断增长的计算需求,因为AI模型继续以指数速率增长。

  这些经济现实使Safe Superintelligence成为投资者的一场赌博,他们将押注苏茨克弗和他的团队将取得突破,使其超越拥有更大团队和显著领先优势的竞争对手。那些投资者将投入资金,没有希望沿途创造有利可图的热门产品。

  而且,Safe Superintelligence希望制造的东西是否可能还不清楚。公司使用“AI行业术语”“超级智能”来指代一个将比大多数最大技术参与者所追求的人类水平AI更高级的系统。该行业没有共识,是否能够实现这样的智能,或者一家公司将如何着手构建一个。

  尽管如此,鉴于其创始团队的背景和该领域的浓厚兴趣,Safe Superintelligence可能不会在筹集资金方面遇到太多困难。“在我们面临的问题中,筹集资本不会是其中之一,”格罗斯说。

  研究人员和知识分子已经考虑了几十年如何使AI系统更安全,但围绕这些问题的深入工程一直很少。目前的艺术状态是使用人类和AI引导软件朝着符合人类最佳利益的方向发展。确切地说,如何阻止AI系统失控在很大程度上仍然是一个哲学练习。

  苏茨克弗说,他已经花了多年时间考虑安全问题,并且已经想到了一些方法。但Safe Superintelligence尚未讨论具体内容。“在最基本的层面上,安全的超级智能应该具有不会大规模伤害人类的属性,”苏茨克弗说。

  “在此之后,我们可以说我们希望它成为一股善的力量。我们希望它在一些关键价值观之上运作。我们考虑的一些价值观可能是在过去几百年中非常成功,支撑自由民主的价值观,如自由、民主、自由。”


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号