Skip to main content

Posts

Showing posts from March 24, 2019

新喜剧之王 1080P HD中字周星驰

Why Warren Buffett is skeptical of IPOs

copy in Python (Deep Copy and Shallow Copy)

In Python, Assignment statements do not copy objects, they create bindings between a target and an object. When we use = operator user thinks that this creates a new object; well, it doesn’t. It only creates a new variable that shares the reference of the original object. Sometimes a user wants to work with mutable objects, in order to do that user looks for a way to create “real copies” or “clones” of these objects. Or, sometimes a user wants copies that user can modify without automatically modifying the original at the same time, in order to do that we create copies of objects. A copy is sometimes needed so one can change one copy without changing the other. In Python, there are two ways to create copies : Deep copy Shallow copy In order to make these copy, we use copy module. We use copy module for shallow and deep copy operations. For Example filter_none

100 万奖励!3 位 AI 大佬荣获 2018 年图灵奖

3 月 27 日, ACM 官网发布消息,  2018 年图灵奖颁给  3 位深度学习之父 Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun,以表扬他们在人工智能(AI)做出的重大贡献。  三人的技术成就 ACM 官网列举了 3 位大佬的技术成就,一起来看看。 Geoffrey Hinton(杰弗里·辛顿) 1、反向传播 :1986 年他与 David Rumelhart 和 Ronald Williams 合著了一篇论文、《学习误差传播内部表示 | Learning Internal Representations by Error Propagation》,Hinton 证明神经网络反向传播算法可以发现自己的内部表示的数据,使其可以用神经网络来解决问题。在这之前,认为是是做不到的。反向传播算法是目前大多数神经网络的标准算法。 2、玻尔兹曼机(Boltzmann Machines) :1983年, Hinton  与特伦斯·塞诺斯基(Terrence Sejnowski)一起发明了玻尔兹曼机器,这是第一个能够学习不属于输入或输出的神经元内部表征的神经网络。 3、卷积神经网络的改进 :2012 年, Hinton  和他的学生亚历克斯·克里日夫斯基(Alex Krizhevsky)和伊利亚·苏斯基弗(Ilya Sutskever)一起,利用校正的线性神经元和dropout 正则化改进了卷积神经网络。在著名的 ImageNe t比赛中,Hinton和他的学生几乎将物体识别的错误率减半,重塑了计算机视觉领域。 Yoshua Bengio(约书亚·本吉奥) 1、序列的概率模型 :20世纪90年代,Bengio将神经网络与序列的概率模型相结合,如隐马尔可夫模型。这些想法被纳入 AT&T/NCR 用于阅读手写支票的系统,被认为是20世纪90年代神经网络研究的巅峰,现代深度学习语音识别系统正在扩展这些概念。 2、高维词嵌入与注意力 :2000年,Bengio发表了具有里程碑意义的论文《神经概率语言模型 | A Neural Probabilistic Language Model》,引入高维词嵌入作为词的意义表示。Bengio 的见解对自然语言处理任务产

在 Linux 终端下生成随机/强密码的五种方法 | Linux 中国

最近我们在网站上发表过一篇关于  检查密码复杂性/强度和评分 [1]  的文章。它可以帮助你检查你的密码的强度和评分。 我们可以手工创建我们需要的密码。但如果你想要为多个用户或服务器生成密码,解决方案是什么呢? 是的,Linux 中有许多可用的工具能满足这个需求。本文中我将会介绍五种最好的密码生成器。 这些工具可以为你生成高强度随机密码。如果你想要为多个用户和服务器更新密码,请继续读下去。 这些工具易于使用,这也是我喜欢用它们的原因。默认情况下它们会生成一个足够健壮的密码,你也可以通过使用其他可用的选项来生成一个超强的密码。 它会帮助你生成符合下列要求的超强密码。密码长度至少有 12-15 个字符,包括字母(大写及小写),数字及特殊符号。 工具如下: ◈  pwgen :生成易于人类记忆并且尽可能安全的密码。 ◈  openssl :是一个用来从 shell 中调用 OpenSSL 加密库提供的多种密码学函数的命令行工具。 ◈  gpg :OpenPGP 加密/签名工具。 ◈  mkpasswd :生成新密码,可以选择直接设置给一名用户。 ◈  makepasswd :使用  /dev/urandom  生成真随机密码,比起好记它更重视安全性。 ◈  /dev/urandom  文件:两个特殊的字符文件  /dev/random  和  /dev/urandom (自 Linux 1.3.30 起出现)提供了内核随机数生成器的接口。 ◈  md5sum :是一个用来计算及校验 128 位 MD5 哈希的程序。 ◈  sha256sum :被设计用来使用 SHA-256 算法(SHA-2 系列,摘要长度为 256 位)校验数据完整性。 ◈  sha1pass :生成一个 SHA1 密码哈希。在命令缺少盐值的情况下,将会生成一个随机的盐值向量。 怎么用 pwgen 命令在 linux 下生成一个随机的强壮密码? pwgen  程序生成易于人类记忆并且尽可能安全的密码。 易于人类记忆的密码永远都不会像完全随机的密码一样安全。 使用  -s  选项来生成完全随机,难于记忆的密码。由于我们记不住,这些密码应该只用于机器。 在 Fedora 系统中,使用  DNF 命令 [2]  来安装  pwgen 。 $ sudo dn