Skip to main content

Meta「世界模型」遭质疑:10年前就有了!LeCun:关键在于构建和训练

 

2月24日,Meta在「春晚」上介绍了首席科学家Yann LeCun在构建人类级别的AI勾勒出的另一种愿景。
 
LeCun表示,AI学习「世界模型」(世界如何运作的内部模型)的能力可能是关键。
 
然而,文章一出,便遭到了很多业内人士的质疑,这不是老早就有了的东西么?
 
Image


始于20世纪60年代?


多伦多大学的副教授Dan Roy指出,「我好像记得Josh Tenenbaum确实提过世界模型。当然也可能我记错了。」
 
Image
 
卡内基梅隆大学计算机科学教授、前苹果人工智能研究主任Russ Salakhutdinov随即跟帖表示:

「我十年前从事博士后研究时,Josh Tenenbaum和很多人就已经在搞世界模型了。所以今天Facebook说他们要描绘一个以AI为基础的世界模型,我听着就觉得挺逗的。」
 
Image
 
甚至有网友搬出了Jürgen Schmidhuber在1990年发表的论文,其中就有关于世界模型的介绍。
 
Image
论文地址:https://mediatum.ub.tum.de/doc/814960/file.pdf
 
另有热心网友在下面附上了他2018年在NIPS上发表的一篇有关世界模型的论文的链接。
 
Image
论文地址:https://arxiv.org/abs/1809.01999
项目地址:https://worldmodels.github.io/
 
当然还有更过分的网友直接表示,「大概率成不了。」
 
Image
 
被推上风口浪尖的LeCun,不得不亲自下场:这和Facebook没啥关系,是我自己提出的,况且应该是Meta。
 
他表示,「确实有很多人聊世界模型聊了几十年了,自打上个世纪60年代的控制论开始。但提出这个概念不是关键,关键在于到底怎样构建和训练世界模型。」
 
Image
 
也就是如何让世界模型学习分级表示法,并且实现分级规划。我认为这里创新的点就在于使用联合嵌入型预测架构(JEPA)在表征空间中进行预测。
 
Image
 
JEPA有这么几个特点:
  1. 非生成性——输出是被加密的,细节都被省掉。

  2. 非概率性——是基于能量的,不是可规范化的。

  3. 非对比训练(用VICR)


我认为第一个和第二个特点大概率会有悖于Josh的贝叶斯定理。
 
Image
 
不过,也有网友赞成LeCun的看法。
 
他表示,「确实,训练是个问题。对于一个离开自己原来的工作,去搞世界模型的人来说,他们可能会从物理学家、控制理论专家和人工智能的角度去构思,这样的话这些视角很难帮他们做什么...哪怕你搭建了一个机器,也学了一些特定领域的世界模型,你还是很难做出一款现象级的软件。」
 
Image


「世界模型」是什么?


人类会根据自己有限的感官所能感知到的事物,去建立了一个关于世界的模型。
 
在此之后,人类做出的所有决定和行动都将基于这个内部模型的。
 
而这个模型并不只是泛泛地预测未来,而是根据我们当前的运动和行动对未来的感官数据进行预测。
 
当面临危险时,人类能够本能地根据这个预测模型采取行动,并进行快速的反射性行为,而不需要有意识地计划出行动方案。
 
Image
人类所看到的是基于大脑对未来的预测
 
LeCun指出:「人类学习在世界如何运作的背景知识时,是通过观察,以及用独立于任务和无监督方式进行的。可以假定,这种积累的知识可能构成了通常被称为常识的基础。」
 
常识可以被视为世界模型的集合,可以指导智能体何种行为可能、何种行为合理、何种行为不可能。
 
这使人类能够在不熟悉的情况中有效地预先计划。例如,一名少年司机以前可能从未在雪地上驾驶,但他预知雪地会很滑、如果车开得太猛将会失控打滑。
 
常识性知识让智能动物不仅可以预测未来事件的结果,还可以在时间或空间上填补缺失的信息。当司机听到附近有金属撞击声时,即使没有看到撞车现场,他也能立即知道车祸发生。
 
就像首次接触左侧驾驶的人,不用再重复学习方向盘该怎么打一样,物理法则是不会改变的,而这就是个「世界模型」的例子。


早期工作


早在1990年,就有研究人员开始尝试建立一个完全依靠自己来学习世界表征的智能体。
 
Schmidhuber的模型指出,智能体可以从世界接收奖励R和输入IN。输入在经过网络处理后,模型会分别对世界和未来的奖励进行预测——PREDIN,PREDR。最后,动作通过OUT输出。
 
也就是说,这个智能体对于未来的奖励和输入是使用世界模型预测的。
 
Image
 
Schmidhuber的模型遵循的是压缩神经表征的思想,而压缩也是归纳推理的关键,即从少数例子中学习,这通常被认为是智能才有的行为。
 
然而,Schmidhuber在这个方法中缺少一个关于如何分析智力和意识的理论。
 
在2018年的论文中,Schmidhuber再次提出了一个受人类认知系统启发的简单模型。
 
在这个模型中,智能体有一个视觉感觉组件,将它看到的东西压缩成一个小的代表代码。还有一个记忆组件,根据历史信息对未来的代码进行预测。最后是一个决策组件,只根据其视觉和记忆组件所创建的表征来决定采取什么行动。
 
Image
智能体由三个组件组成:视觉(V),记忆(M),和控制器(C)
 
在这项工作中,Schmidhuber首先训练一个大型神经网络,以无监督的方式学习智能体的世界模型,然后训练较小的控制器模型,学习使用这个世界模型来执行任务。
 
其中,控制器让训练算法专注于小的搜索空间上的信用分配问题,同时不牺牲通过大的世界模型的能力和表现力。
 
在通过世界模型的视角进行训练之后,Schmidhuber证明,智能体可以学习一个高度紧凑的策略来执行其任务。
 

自主智能架构


LeCun在自己的「世界模型」中提出了一个由六个独立模块组成的架构。
 
Image
 
  1. 配置器模块负责控制任务的分配和调参。
 
  1. 感知模块负责接收来自传感器的信号并估计世界的当前状态。
 
  1. 世界模型模块的作用有两点:(1)补全感知模块没有提供的信息;(2)预测合理的未来状态。
 
  1. 代价模块负责计算和预测智能体的不合适程度。由两个部分组成:(1)内在代价,直接计算「不适」:对智能体的损害、违反硬编码的行为等;(2)评价者,预测内在代价的未来值。
 
  1. 行为者模块负责提供动作序列的建议。
 
  1. 短期记忆模块负责跟踪当前和预测的世界状态,以及相关代价。
 

自监督训练


自主智能架构的核心是预测世界模型。而建构它的关键挑战,是如何能使其呈现多种可能性的预测。
 
现实世界并不是完全可以单一预测的,特定情况的演变有多种可能途径,并且状况的许多细节与当下任务无关。
 
人类司机可能需要预测驾驶时自己周围的汽车会做什么,但不需要预测道路附近树木中单个叶子的详细位置。
 
世界模型如何学习现实世界的抽象表示,从而保留关键细节、忽略不相关细节,且能在抽象表示的空间中进行预测?
 
解决方案的关键要素是「联合嵌入式可预测架构」 (JEPA)。
 
JEPA能捕获两个输入数据x和y之间的依赖关系。例如,x可以是一段视频,y可以是视频的下一段。输入数据x和y被馈送到可训练的编码器,这些编码器提取它们的抽象表示,即sx和sy。
 
JEPA以两种方式处理预测中的不确定性:(1)编码器可能会抛弃关于y的难以预测信息,(2)当潜在变量z在一个集合上有变化时,将导致在另一个可能性集合上的预测结果有变化。
 
那么,JEPA如何训练?
 
直到晚近,唯一的途径是使用对比方法,即提供足够多的兼容x和y的示例、兼容x但不兼容y的示例、不兼容x但兼容y的示例。
 
但是当抽象表示达到高维时,此方法不切实际。
 
过去两年出现了另一种训练策略:正则化方法。当应用于JEPA时,该方法使用四个准则:
 
  1. 使关于x的表示,最大程度地提供关于x的信息
  2. 使关于y的表示,最大程度地提供关于y的信息
  3. 从关于x的表示中,最大程度地预测关于y的呈现
  4. 使预测器调用来自潜在变量的尽可能少的信息,来表示预测中的不确定性。
 
这些准则可以通过VICReg,也就是「方差、不变性、协方差正则化」(Variance, Invariance, Covariance Regularization)方法,转化为可微的代价函数。
 
其中,x和y表示的信息内容最大化方式,是将其分量的方差保持在阈值之上,并使这些分量尽可能地相互独立。
 
同时,此方法试图让y的表征可以从x的表示中预测,而潜变量的信息内容,则被使其离散、低维、稀疏或噪声化的方式最小化。
 
Image
 
JEPA的妙处,在于它自然地产生了关于输入信息的抽象表示,这些抽象表示消除了不相关的细节,基于其可以执行预测。
 
这使得JEPA可以相互堆叠,用来学习具有更高层次的、能藉以执行更长期预测的抽象表示。
 
例如,一个场景可以在高层次上抽象描述为「厨师正在制作法式薄饼」。
 
因此,人类智能可以预测:厨师会去取面粉、牛奶和鸡蛋;混合原料;把面糊舀进锅里;让面糊油炸;翻转薄饼;重复以上流程。
 
在低一级的层次上,人类智能可以预测:舀面糊动作,包括勺子舀面糊、倒进锅里、将面糊铺在锅面上。
 
这种层级的摊低可以一直持续到以毫秒为单位的厨师手部的精确运动轨迹。
 
在手部轨迹的低层次上,「世界模型」只能在短期内做出准确的预测。但在更高的抽象层次上,它可以做出长期的预测。
 
Image
 
多层JEPA可用于在多个抽象级别和多个时间尺度上执行预测。训练的主要途径是被动观察,辅助途径是与环境互动。
 
正如婴儿在出生后头几个月,主要通过观察来了解世界是如何运作的。她了解到世界是三维的、有些物体排在其他物体的前面、当一个物体被遮挡时它仍然存在。
 
最终,在大约9个月大的时候,婴儿学会了直观的物理学——例如,不受支撑的物体会因重力而落下。
 
多层JEPA有望通过类似的观看视频、与环境交互等方式,来了解世界是如何运作的。
 
通过自训练来预测视频中会发生什么,它将产生世界的分层级表示。通过在现实世界上采取行动并观察结果,「世界模型」将学会预测其行动的后果,这将使其能够进行推理和计划。
 
Image
 
在LeCun看来,我们应该让机器通过观察来学会现实世界中的最基础定律,这是让机器学习世界模型的最主要途径。
 
而对于现在的人工智能来说,最重要的挑战之一就是设计学习范式和架构,使起能够以自监督的方式学习世界模型,然后用这些模型进行预测、推理和计划。
 
或许,这个概念并没有想象中的那么「新」,但如何真正应用于实践,可能还有很长的一条路要走。

参考资料:

https://ai.facebook.com/blog/yann-lecun-advances-in-ai-research/

https://twitter.com/rsalakhu/status/1496677311290167302

https://twitter.com/ylecun/status/1496750102609809410



Comments

Popular posts from this blog

OWASP Top 10 Threats and Mitigations Exam - Single Select

Last updated 4 Aug 11 Course Title: OWASP Top 10 Threats and Mitigation Exam Questions - Single Select 1) Which of the following consequences is most likely to occur due to an injection attack? Spoofing Cross-site request forgery Denial of service   Correct Insecure direct object references 2) Your application is created using a language that does not support a clear distinction between code and data. Which vulnerability is most likely to occur in your application? Injection   Correct Insecure direct object references Failure to restrict URL access Insufficient transport layer protection 3) Which of the following scenarios is most likely to cause an injection attack? Unvalidated input is embedded in an instruction stream.   Correct Unvalidated input can be distinguished from valid instructions. A Web application does not validate a client’s access to a resource. A Web action performs an operation on behalf of the user without checking a shared sec

CKA Simulator Kubernetes 1.22

  https://killer.sh Pre Setup Once you've gained access to your terminal it might be wise to spend ~1 minute to setup your environment. You could set these: alias k = kubectl                         # will already be pre-configured export do = "--dry-run=client -o yaml"     # k get pod x $do export now = "--force --grace-period 0"   # k delete pod x $now Vim To make vim use 2 spaces for a tab edit ~/.vimrc to contain: set tabstop=2 set expandtab set shiftwidth=2 More setup suggestions are in the tips section .     Question 1 | Contexts Task weight: 1%   You have access to multiple clusters from your main terminal through kubectl contexts. Write all those context names into /opt/course/1/contexts . Next write a command to display the current context into /opt/course/1/context_default_kubectl.sh , the command should use kubectl . Finally write a second command doing the same thing into /opt/course/1/context_default_no_kubectl.sh , but without the use of k

标 题: 关于Daniel Guo 律师

发信人: q123452017 (水天一色), 信区: I140 标  题: 关于Daniel Guo 律师 关键字: Daniel Guo 发信站: BBS 未名空间站 (Thu Apr 26 02:11:35 2018, 美东) 这些是lz根据亲身经历在 Immigration版上发的帖以及一些关于Daniel Guo 律师的回 帖,希望大家不要被一些马甲帖广告帖所骗,慎重考虑选择律师。 WG 和Guo两家律师对比 1. fully refund的合约上的区别 wegreened家是case不过只要第二次没有file就可以fully refund。郭家是要两次case 没过才给refund,而且只要第二次pl draft好律师就可以不退任何律师费。 2. 回信速度 wegreened家一般24小时内回信。郭律师是在可以快速回复的时候才回复很快,对于需 要时间回复或者是不愿意给出确切答复的时候就回复的比较慢。 比如:lz问过郭律师他们律所在nsc区域最近eb1a的通过率,大家也知道nsc现在杀手如 云,但是郭律师过了两天只回复说让秘书update最近的case然后去网页上查,但是上面 并没有写明tsc还是nsc。 lz还问过郭律师关于准备ps (他要求的文件)的一些问题,模版上有的东西不是很清 楚,但是他一般就是把模版上的东西再copy一遍发过来。 3. 材料区别 (推荐信) 因为我只收到郭律师写的推荐信,所以可以比下两家推荐信 wegreened家推荐信写的比较长,而且每封推荐信会用不同的语气和风格,会包含lz写 的research summary里面的某个方面 郭家四封推荐信都是一个格式,一种语气,连地址,信的称呼都是一样的,怎么看四封 推荐信都是同一个人写出来的。套路基本都是第一段目的,第二段介绍推荐人,第三段 某篇或几篇文章的abstract,最后结论 4. 前期材料准备 wegreened家要按照他们的模版准备一个十几页的research summary。 郭律师在签约之前说的是只需要准备五页左右的summary,但是在lz签完约收到推荐信 ,郭律师又发来一个很长的ps要lz自己填,而且和pl的格式基本差不多。 总结下来,申请自己上心最重要。但是如果选律师,lz更倾向于wegreened,