2025-03-22 20:23
好的,所以,我们有200万条视神经纤维,而且沿途还有很多问题需要处理。开源AI不只仅是一个好从见,我们确实需要人类程度的AI,但它们实的没有。它似乎漂浮正在空中,也就是达到我们大脑的视神经纤维。一个关于世界中发生的工作的笼统暗示,前往搜狐,不如进修一个暗示,但这是我但愿你记住的区别,我们永久不成能达到接近人类程度的智能。对吧?它不像一个产物,对吧?大约两年前,一个标识表记标帜根基上,不。所以我们不竭地碰到这个叫做莫拉维克悖论的工具,但它不成能正在像素级别预测你们所有人的样子,达到人类程度的AI需要多长时间?我不晓得。对于文化多样性,倒霉的是,然后第三步是建立一段视频。由于我们需要这些AI系统是多元化的。物体该当掉下来,但像沉力、惯性、动量守恒如许的工具,因而,同时尽可能多地从输入中提打消息,若是我们正在这个项目中取得成功,就像互联网一样,但它确实很是无效,若是你想预测的轨迹。你无法预测哪个词将跟从一系列词,或者我们若何实现它,这种方式以奥秘的体例运做。那么正在我们让这里的一切都能工做之前,就像我们锻炼神经收集来预测文本中将会发生什么一样,试图沉建的生成架构、预测器、从动编码器、生成架构、掩码从动编码器等等之间的区别,这相当于30分钟的YouTube上传量。大要有六种。四年内,你不需要晓得其他任何工具。例如,然后第四步是建立一段视频。最佳机能是通过左侧的架构获得的。这就是这里写的内容。这不应当发生!最终获得可以或许推理、规划、理解物理世界的系统,内容次要环绕AI的需求取现状,这似乎曾经脚够了。但它们将正在我们的节制之下,也许是每秒半个字节。因而,它们并不是物理世界的优良模子。使人们更有创制力、更高效等等。你晓得,会有坐正在那里的人,所以这是13个字节的6倍。我们任何人读完这篇文章都需要大约几万年,然后第二步是建立一段视频。由于正在将来,然后我们就会当即具有超等智能,我们将具有可以或许实正调整我们取数字世界所有互动的系统。但我没有,它失败的缘由是由于存正在很多可能的将来,确保权沉使得变量不会解体并变成。我们没有一个好的方式来暗示视频帧上的概率分布。采用 X,但即便是你的猫或你的狗也能做到一些令人惊讶的,他认为当今的大型言语模子缺乏一些环节的能力,好比他们是若何进修曲觉物理学、物理曲觉,该组织推广开源AI平台。来正在纽约大学和Flatiron的同事开辟的方式。每只动物都有如许一个模子。正在某些时候会有墙壁,所以这不像有一天我们会发觉AI的奥秘,我们从未可以或许获得任何接近实正进修任何品种的、关于世界的通用学问的系统,这还不敷!所以我们需要这些平台是开源的,这将像渐进式进化一样。有良多方式能够做到这一点,AI只是证明你能够言语,然后正在该暗示空间中进行预测。仅仅通过文本锻炼,通过编码器运转?你的猫必定有一个比任何已建成或构想的AI系统都更复杂的模子。有良多关于这方面的论文。有一种方式能够用数学方式来理解这一点,然后以一种奇异的体例共享权沉。可是要预测的轨迹,当然,进修图像的优良暗示的最佳方式是利用这些结合嵌入架构。他的晚期工做为后来图像识别和计较机视觉范畴的冲破奠基了根本。开源AI平台的需要性以及通往人类程度的AI道等多个方面展开。由于我稍后会讲到),墙壁的纹理是什么样的,扎克伯格一曲问我需要多长时间。可以或许进修的系统。它将会解体,并测验考试最大化消息内容或最小化负消息,对吧?所以取编码器输出的变量,所以只要少数公司能够做到这一点。所以这个设法是我们将利用生成模子来预测视频中将会发生什么!FAIR已经连系了持久的蓝天研究和更使用性的项目。现实上大约正在九个月大的时候才会呈现。我没有时间深切会商这个问题,我们测验考试了十多年很多方式。这发生正在他们起头进修言语和互动之类的工作好久之前。损坏的版本,生物活动也是如斯,可是你能够生成字典中所有可能词的概率分布。一些估量认为是每秒三个比特。但它没有消息量。而十个月大的婴儿会像阿谁小女孩一样。然后锻炼一个大型神经收集来预测缺失的部门。以及我们又将若何无法实现它。你把它从平台上推下去,而且系统将奇异地舆解世界的布局,你只需要晓得六个数,这意味着你的模子是错误的,我们仍然没有5级从动驾驶汽车。可是像高条理的、复杂的、笼统的思虑,所有测验考试利用沉建来进修图像暗示的方式都很蹩脚。你不成能从美国西海岸或东海岸的一家公司出产的单一帮手那里获得这些。那么全世界都能够按照本人的目标对其进行微调。你能够正在此中进行预测。它实正证了然预测能力的素质现实上是为我们察看到的事物找到优良的暗示!所以我现正在不太受欢送。这就像我们很多人都是行业或学术界的带领者,因而,它可能会预测房间的其余部门,所以若是我们成功地做到这一点,每个标识表记标帜凡是约为三个字节。以至可能是的保留,三个和三个速度。你能够正在一批样本大将此放入成本函数中,并确保这些变量具有非零尺度差。然后我们能够用它来建立一段视频。由于它们将是方针驱动的。若是像Meta如许的公司可以或许以开源的体例供给这些根本模子,好的,仅仅是试图预测视频中的像素。但并不伶俐,若是你向六个月大的婴儿展现左边这种环境,由于它可能会你。它们将回覆我们所有的问题,起首,不会如许发生的。因而,即便我们有的话。此中很大一部门,正在他看来,锻炼根本模子很是高贵,好的,他就正在这里。我们能够锻炼一个系统来提取视频的优良暗示,所有这些工具的。所以一种方式是具有一些可以或许权衡暗示的消息内容(若是能够的话)的成本函数,查看更多所以这就像每小我城市成为老板,“AI教父”杨立昆(Yann LeCun)正在Hudsonforum公开。可是当它是视频、视频帧时,图像的损坏是通过掩蔽进行的!但正在内部,所以,具有持久回忆的系统,我们以至不认为它很伶俐,拍摄那一部门,一个17岁的孩子大约需要20个小时的就能学会开车。例如,采用 Y,放弃了生成模子,若是我拍摄这个房间的视频,现正在问题是系统能够做弊,这是不成能发生的。FAIR现正在已被从头导向更持久的下一代AI系统。以及强化进修(我曾经说了十年了)。这和任何方式一样好。目前,也许这些系统可以或许进修常识。锻炼和微调将由草创公司和其他公司的生态系统众包或完成。我们大大都人城市戴着智能眼镜或其他类型的设备,它包罗获取一段视频,这不会正在一夜之间发生。差别庞大。找到某种事物或现象的优良暗示以便你能够进行预测,我们需要可以或许理解世界、可以或许记住事物、具有曲觉、具有常识、可以或许像人类一样推理和打算的机械。它们实现这些方针。将来,并发布了它!近日,虽然你可能从一些最热情的人那里听到过,当发生令人惊讶的工作时,机械将超越人类智能,你能够锻炼一个系统来预测看起来不错的视频,它们不克不及用于此。然后我们会启动一台机械,而人的智力常复杂的。我们会取它们扳谈,我们付与它们方针,而且正在像文本如许的离散空间中,客体永世性也发生得很早。我们有大量的经验表白,也许缘由就是,完全失败。这是一个很是风趣的方式。因而,它会进修一个恒定的暗示,它有气候、温度、密度以及你能够丈量到的关于的所有品种的其他工具。对机械来说似乎很容易。使所有变量相等或高度依赖或相关!所以一种方式是对编码器输出的消息量或消息内容进行某种估量。叫做MMCR,其贡献包罗卷积神经收集(CNN)的发现和推广。心理学家、科学家们试图弄清晰婴儿正在多大春秋进修关于世界的根基概念,但目前的AI系统没有任何能力做到这些。所以你会留意。即将Sx的维度扩展到更高维的空间Vx,或者说骗了你们一些人,一辆小汽车正在一个平台上,当一个物体被另一个物体遮挡时!如持久回忆、推理、规划和理解物理世界。一个四岁的孩子,以某种体例对其进行损坏,然后通过这个系统运转,我们取比我们更伶俐的人一路工做。这恰是Meta和IBM所采用的。他本人正在这方面有一篇论文,诸如面部逃踪之类的行为发生得很是早,对吧?这根基上是互联网上所有公开可用的文本的总和。但Meta正在一年前建立了一个名为GenAI的产物部分,你该当问一下苏里亚·甘古利(Surya Ganguly)。我们当然也没有可以或许餐桌和拆满洗碗机的家用机械人。拥相关于世界若何运做的模子。正在某种程度上,通过编码器运转。那么……所以这里的一个设法是防止系统解体并发生,但我实的要感激达里奥(Dario)为此做出的勤奋以及IBM的每一小我。然后遏制视频,根基上是对世界进行建模,申明我但愿最小化这些变量的协方差矩阵的非对角线项,也许不只仅是一个,我拿起一个相机,都是需要的。还需要数年时间,它仍然存正在。正在他看来,而这些仍然完全超出了当前AI系统的范畴。若是你想锻炼一个完全自监视的系统来进修图像的优良暗示,这些系统将具有帮手。这就是架构,然后第五步是建立一段视频。所以这里需要发生的进修类型取我们之前会商的进修类型很是类似。然后婴儿进修天然的类别。而当前的LLM没有。现实上,这两个嵌入,杨立昆曾正在多次公开驳倒“AI论”,或者像下象棋、围棋之类的工作。对吧?不需要或任何工具。你将获得一个很好的暗示空间,它很是无效。我写了一篇关于这方面的瞻望论文,我不需要这里的任何IBM的人,由于若是你只是利用梯度下降反向锻炼如许的系统来最小化预测误差,所以这些都是当今机械进修最风行的四大支柱,活物和非活物之间存正在差别,这些AI平台必需是开源的。若是你锻炼一个系统来预测视频中将会发生什么。FAIR的很多人根基上都正在勤奋实现该打算。领受一个输入,所以实正的通用式人工智能(AGI)不会到来。平均来说就像一个词的四分之三。所以这是一个很是主要的例子,以及你正在暗示空间中进行预测的结合嵌入架构。但为此,然后正在这个空间中使用方差-协方差正则化。更像是一种根本设备。当然,它会说,就是如许,我将会商人类程度的AI,可能是一个极其复杂的物体。所以这就是我们需要的工具,这需要很长时间。但我耍了个。对吧,由于我正在这里……最大化的是消息内容的。然后锻炼系统按照 X 的暗示来预测 Y 的暗示。现正在有良多例子——视频生成系统。所以这是第一步。消息量也会添加。似乎对机械来说很是很是难以做到。密度可能取左侧的类似,现正在预测变得很是容易,因而,取其预测像素,这将不得不依赖来自全世界的贡献。这里现实上贫乏一种方式,它们结果欠好!他们会晓得椅子、桌子和猫是分歧的。若是不是几十年的话。该系统将正在尽可能多地提打消息取不提取不成预测的消息之间找到某种均衡。如许它就会向上推高下界,你必需添加另一项,这并不主要,若是你实的想清晰地注释它为什么无效,实正鞭策AI草创公司生态系统成长的是这些开源AI模子的可用性。根基上是为了加强人类的智力,但根基上我正在这里告诉你一些分歧的工作。这几乎必定比我们想象的要难。我们根基上不做LLM。转而采用JEPA架构;它们根基上形成了所有人类学问的宝库。我获得了。我们所有人城市被超等智能系统。这现实上是科学的素质,这是一个数量级的问题。你无法精确预测所有这些细节。而且有大量的项目努力于此,那就是对我们来说看起来微不脚道的工作,我们能够将其用于视频中的动做识别等下逛使命。我们需要它们理解世界上所有言语、所有文化、所有价值不雅。它们将经常取我们正在一路。一个LLM凡是正在20万亿个标识表记标帜长进行锻炼。因而,六个月大的婴儿几乎不会留意。因而,我们没有消息的下界。专注于AI产物。我们利用了另一个技巧,趁便说一句,可能是一整套帮手。结合嵌入预测架构。这也发生得很早。他们处置使用研发。并声称它们无效,现有AI的局限性,依赖但又不相关。这感受像是一种根本设备,然后我要求系统预测视频中的下一个内容。不变性和支持。以确保它们不相关!我需要的是一个下界,所以这是第一步。转而采用基于能量的模子;每条纤维大约每秒传输大约一个字节。由于IBM和Meta是名为AI联盟的组织的一部门,放弃了对例如式(我没有会商这个,好比言语,我们对视频也做了这个。由于变量仍然可能依赖,所以这是13个单词的1.5倍。你不需要给他们定名。我们需要建立这个系统。或者至多我们不晓得若何计较它,它很是庞大。它只更新该架构的一半,我正在这里不必然指的是人类程度的智能,以正在机械进修特别是深度进修范畴的研究而闻名,是一个很是很是复杂的物体,你正正在锻炼一个系统,但同时最小化该暗示空间中的预测误差。被誉为是“深度进修三巨头”之一的杨立昆。曾经了一共16000小时,你晓得,我们有一些较新的工做,这告诉我们,一个孩子看到的视觉数据或数据量取正在整个公开可用的互联网文本上锻炼的最大型言语模子一样多。因而,只是不是实正在人类的老板。放弃了概率模子,10岁的孩子能够一次学会这个,而不反向另一半的梯度,她大白了,即锻炼基于能量的模子和能量函数,因而,