Skip to main content

阿里达摩院年终预测:2022,十大科技看点!AI for Science居榜首

 


2021,还有3天就结束了。
 
回顾过去一年,科技圈有什么BIG NEWS还印在你的脑海?
 
扎克伯格宣布将Facebook改名Meta,全力进军「元宇宙」;微软推出混合现实会议平台Mesh;英伟达全能阿凡达平台的3个虚拟人同时亮相...
 
Image
 
过去,当马斯克说要在人类大脑植入芯片时,你一定认为他疯了。
 
但Neuralink在今年5月让一只植入芯片的猴子用意念打乒乓球游戏时,全世界都被震惊。
 
Image
 
另外,DeepMind今年开源了AlphaFold2,并能够预测出98.5%的蛋白质结构,让学术圈再次沸腾。
 
不仅如此,研究人员还将其做成了数据集,将其免费开放。
 
Image
 
1750亿参数GPT-3在2020年发布后,NLP大模型也在不断刷新纪录。
 
微软和英伟达联手发布了5300亿参数的「威震天」,智源1.75万亿参数的「悟道2.0」,阿里达摩院发布创纪录的10万亿参数多模态大模型「M6」,并且实现GPT-3同规模仅需1%能耗…….
 
还有IBM首发2nm工艺,人形机器人Ameca苏醒......
 
2021年并不缺重磅新闻,人工智能依然能够杀出重围,走进主流视野。
 
展望2022年,科技领域会有哪些大趋势?
 
今天,达摩院重磅发布2022十大科技趋势,这是连续第四年发布。
 
Image
 
通过「定量发散」与「定性收敛」,达摩院分析了近三年来的770万篇公开论文、8.5万份专利,通过挖掘其中热点及重点技术突破,深度访谈近100位科学家,提出了2022年可能照进现实的十大科技趋势。
 
AI仍是最浓墨重彩的主角,但基本范式正在发生变革;芯片技术将更迭;下一代互联网即将到来……

AI新范式


科学研究是在星辰大海里探索未知,其中,实验科学和理论科学是数百年来科学界的两大基础范式。
 
人工智能正在催生新的科研范式
 
以蛋白质为例,通过研究其3D结构,生物学家不仅可以更加快速地研发出针对各类疾病的药物,甚至能够揭开生命之谜。而「蛋白质折叠问题」在过去的50年里一直是生物学的一个巨大挑战。

1969年,赛勒斯·莱文塔尔 (Cyrus Levinthal) 指出,通过蛮力计算列举出典型蛋白质的所有可能构型所需的时间比已知宇宙的年龄还要长:一个典型的蛋白质可能有10的300次方种折叠形式。

Image

不过,随着人工智能的发展,2021年7月,DeepMind先是在Nature上开源了利用AI对蛋白质结构进行预测的AlphaFold 2,随后又发布了来自人类和20种其他生物共350000种蛋白质结构的预测结果。
 
经过训练的深度神经网络可以根据蛋白质的基因序列预测蛋白质的特性。主要判断依据是氨基酸对之间的距离和连接这些氨基酸的化学键之间的角度。通过已知信息,可以推断出蛋白质折叠之后的角度和距离信息,从而推断出整个蛋白质的结构。
 
Image
 
2021年12月,DeepMind首次利用人工智能帮助数学家们提出了两个全新的数学猜想,登上Nature封面。
 
作者猜测低维拓扑中存在未知的非线性关系,产生了很多数据并用神经网络拟合了近似函数,发现其中三个量在拟合过程中起到了很重要的作用。通过反正做拟合实验,产生新的数据,得到新的观察模型,最终数学家利用智慧猜出了一个不等式结构,并进一步给了严格的证明。
 
Image
 
由此可以看出,机器学习能够处理多维、多模态的海量数据,解决复杂场景下的科学难题,带领科学探索抵达过去无法触及的新领域。
 
人工智能也将成为科学家继计算机之后的新生产工具

1. 带来效率的显著提升,人工智能将伴随科研的全流程,从假设、实验到归纳总结,让科学家不需要像过去一样十年寒窗才能产出科学成果,而是能在一生中保持高产;

2. 让科学不再依赖少数天才,人工智能对科学研究产生猜想,让科学家就其中有意义有价值的部分进行实验与证明,让更多人能够参与到科学研究中。

 
阿里达摩院预测在未来的三年内,人工智能技术在应用科学中将得到普遍应用,在部分基础科学中开始成为研究工具。

大模型也卷不动了


AI能够取得这些成就的背后,少不了模型的支撑。
 
随着规模的不断扩大,预训练模型在文本、图像处理、视频、语音等多个AI领域实现了突破性进展,并逐渐成为人工智能的基础模型。
 
2018年,谷歌提出3亿参数BERT模型惊艳四座,大规模预训练模型也因此逐渐走进人们的视野,成为人工智能领域的焦点。
 
Image
 
2019年2月,OpenAI推出了15亿参数的GPT-2,能够生成连贯的文本段落,做到初步的阅读理解、机器翻译等。
 
Image
 
紧接着,英伟达推出了83亿参数的威震天Megatron-LM,谷歌推出了110亿参数的T5,微软推出了170亿参数的图灵Turing-NLG。
 
2020年6月,大模型来到了一个分水岭,OpenAI以1750亿参数的GPT-3,直接将参数规模刷到千亿级别,直逼人类神经元的数量。作诗、聊天、生成代码等等,无所不能。
 
Image
 
在沉寂了一段时间之后,微软和英伟达在2021年10月联手发布了5300亿参数的Megatron-Turing自然语言生成模型(MT-NLG)。同时夺得单体Transformer语言模型界「最大」和「最强」两个称号。
 
Image
 
除了千亿规模的稠密单体模型,还有万亿规模的稀疏混合模型。
 
2021年1月,谷歌推出了1.6万亿参数的Switch Transformer。12月,这个记录被达摩院的M6模型的10万亿参数打破,大模型参数直接提升了一个量级,而且达摩院只用了512张GPU进行训练。
 
Image
 
然而,同样随着模型规模扩大的是训练对资源消耗越来大,而参数数量增加所带来的性能提升与消耗提升不成比例。
 
大模型确实带来了非常惊艳的表现,但也有研究开始对「模型参数越多,性能也越好」是否始终成立提出了质疑。
 
例如,谷歌的研究人员开发了一个参数量远小于GPT-3的模型——微调语言网络(fine-tuned language net, FLAN),这个1370亿个参数的模型在许多有难度的基准测试中性能都大幅超过GPT-3。
 
Image
 
阿里达摩院认为,接下来大模型的参数规模发展将进入冷静期,大模型与相关联的小模型协同将是未来的发展方向
 
其中,大模型沉淀的知识与认知推理能力向小模型输出,小模型基于大模型的基础叠加垂直场景的感知、认知、决策、执行能力,再将执行与学习的结果反馈给大模型,让大模型的知识与能力持续进化,形成一套有机循环的智能系统。参与者越多,模型进化的速度也越快。
 
Image
 
而这样的一种新的智能体系,将会带来三点优势

1. 让小模型更容易获取通用的知识与能力,小模型专注在特定场景做极致优化,提升了性能与效率;

2. 解决了过去大模型数据集过于单一的问题,小模型在真实场景回收的增量数据,让大模型有再进化的元素;

3. 全社会不需要重复训练相似的大模型,模型可以被共享,让算力与能源的使用效率最大化。

 
对此,南京大学计算机科学与技术系主任兼人工智能学院院长周志华也提出了自己的观点:

大模型未来会在一些重大任务上发挥作用,而在其他一些场景下或许会通过类似集成学习的手段来利用小模型,尤其是通过很少量训练来「复用」和集成已有的小模型来达到不错的性能。

 
阿里达摩院预测在未来的三年内,个别领域将以大规模预训练模型为基础,对协同进化的智能系统进行试点探索。
 
在未来的五年内,协同进化的智能系统将成为体系标准,让全社会能够容易地获取并贡献智能系统的能力,往通用人工智能再迈进一步。


XR,下一代互联网


就像《黑客帝国》所描绘情景,未来的虚拟世界是否是矩阵模拟中的那样,这是未知的。
 
拉近点距离,我们如何才能进入这个虚拟世界才是最重要的一步。
 
Image
 
这里就不得不提,头号玩家中那副眼镜或许是打开新世界的大门。
 
未来,眼镜有望成为新的人机交互界面,推动形成有别于平面互联网的XR(未来虚实融合)互联网。
 
XR互联网将改变用户的信息感知和获取方式,最大的特征是由二维平面走向三维立体的沉浸式体验,信息会以自然的方式被获取,让用户所见即所得。
 
阿里达摩院预计未来3年内会产生新一代的XR眼镜,融合AR与VR的技术,成为下一代互联网的关键入口。
 
据报道,苹果明年预计会推出首款AR/MR头显,将配备3D传感器,能够实现手眼动作全追踪。
 
Image
 
其实,眼镜只是构成XR互联网所需要的四大要素其中的一种。
 
完整的XR互联网包括:硬件(如XR眼镜等)、内容(如娱乐、购物、社交等)、人工智能(如空间感知、数字孪生)、基础设施(如5G、云计算等)。
 
四大要素中硬件和内容会率先发展,硬件是获取数据与用户交互的基础,也是互联网平台的载体。
 
XR眼镜将会成为XR互联网的第一入口,同时云网端协同将改变眼镜的形态,使其向着体积更小、重量更轻、响应速度更快的方向发展。
 
Image
 
内容则以娱乐社交和办公场景开始,再逐渐发展至购物、教育、医疗等对远距互动有一定需求的场景。
 
就比如,微软推出的混合现实会议平台Mesh,人们可以通过虚拟化身的形式见面和互动,还能共享Office文件等。
 
Image
 
XR互联网改变人与科技互动的方式:
 

· 模拟真实世界的时空,解决真实世界远距移动的问题,如远程教育、远程医疗、远程办公等,克服地理空间的限制。

 

· 创造真实世界不存在的时空,解决真实世界不完美的问题,如游戏、社交等,让用户能够重新建立自我认可,并以接近真实世界的方式进行交互。

 
XR互联网也将重塑现有的产业结构,催生一批从元器件、设备、操作系统到应用的新产业生态。
 
Image
 

2022,AI还有什么看点?


除了AI for Science、大小模型协同进化、XR互联网之外,阿里达摩院还预测了2022另外七大科技趋势。
 
硅光芯片
 
当前,硅基半导体已经推进到5nm和3nm,IBM今年也宣布了突破2nm的「PPT 工艺」。
 
电子芯片发展逼近摩尔定律极限,集成技术进步趋于饱和,高性能计算对数据吞吐要求不断增长,亟需技术突破。
 
Image
 
光子芯片是用光子代替电子进行信息传输,可以承载更多的信息和传输更远的距离。
 
光电融合是未来芯片的发展趋势,硅光子和硅电子芯片取长补短,充分发挥二者优势,促使算力的持续提升。
 
未来三年,硅光芯片将支撑大型数据中心的高速信息传输;未来五到十年,以硅光芯片为基础的光计算将逐步取代电子芯片的部分计算场景。
 
柔性感知机器人
 
特斯拉AI日上,马斯克宣布明年即将推出Tesla Bot;波士顿动力公司的机器人Atlas上演惊艳跑酷;还有英国Engineered Arts开发的人形机器人Ameca让人直呼恐惧。
 
Image
 
近年来,柔性机器人结合柔性电子、力感知与控制、人工智能技术,获得了力觉、视觉、声音等感知能力,应对多任务的通用性与应对环境变化的自适应性大幅提升。
 
预计未来5年,兼具柔性和类人感知的机器人将逐步替代传统工业机器人,成为产线上的主力设备,并在服务机器人领域开始规模化应用。
 
还有以下这五大科技趋势,它们分别是:
 
绿色能源AI:人工智能助力大规模绿色能源消纳,实现多能互补的电力体系
 
高精度医疗导航:人工智能与精准医疗深度融合,助力诊疗精度与效率提升 
 
全域隐私计算:破解数据保护与流通两难,隐私计算从小数据走向大数据 
 
星地计算:卫星及地面一体化的通信与计算,促进空天地海全面数字化
 
云网端融合:云网端融合形成新计算体系,催生云上新物种
 
过去一年,我们见证了人工智能以全新的方式深入我们的生活,这些进步赋予未来很多可能。
 
Image
 
2022年,对于AI必将是令人兴奋的一年。
 
未来可期。

Comments

Popular posts from this blog

CKA Simulator Kubernetes 1.22

  https://killer.sh Pre Setup Once you've gained access to your terminal it might be wise to spend ~1 minute to setup your environment. You could set these: alias k = kubectl                         # will already be pre-configured export do = "--dry-run=client -o yaml"     # k get pod x $do export now = "--force --grace-period 0"   # k delete pod x $now Vim To make vim use 2 spaces for a tab edit ~/.vimrc to contain: set tabstop=2 set expandtab set shiftwidth=2 More setup suggestions are in the tips section .     Question 1 | Contexts Task weight: 1%   You have access to multiple clusters from your main terminal through kubectl contexts. Write all those context names into /opt/course/1/contexts . Next write a command to display the current context into /opt/course/1/context_default_kubectl.sh , the command should use kubectl . Finally write a second command doing the same thing into ...

OWASP Top 10 Threats and Mitigations Exam - Single Select

Last updated 4 Aug 11 Course Title: OWASP Top 10 Threats and Mitigation Exam Questions - Single Select 1) Which of the following consequences is most likely to occur due to an injection attack? Spoofing Cross-site request forgery Denial of service   Correct Insecure direct object references 2) Your application is created using a language that does not support a clear distinction between code and data. Which vulnerability is most likely to occur in your application? Injection   Correct Insecure direct object references Failure to restrict URL access Insufficient transport layer protection 3) Which of the following scenarios is most likely to cause an injection attack? Unvalidated input is embedded in an instruction stream.   Correct Unvalidated input can be distinguished from valid instructions. A Web application does not validate a client’s access to a resource. A Web action performs an operation on behalf of the user without checkin...