#AI

目前看来,深度学习模型在智能方面取得的进展只是在时间和规模尺度上对某些人类基本能力的延伸。由于让渡了一部分对模型的控制权和解释性,在充分利用数据和算力的同时,深度学习面临着复现困难、不便推广等问题。

阅读更多

绝对的意义虽不能至,相对的意义却触手可及。冷静、克制地归纳我们所取得的进展,审慎、理性地建立共识,进而丰富原有科学和哲学框架的内涵、探索前进的趋势,寻求具有公众意义的文化、伦理层面的讨论等,都是具有建设意义的明智之举。

阅读更多

DenseNet将shortcut-connection的思路发挥到极致。在一个DenseBlock内部,每一层的输出均跟后面的层建立shortcut,特别需要注意的是,不同于ResNet中的相加,DenseNet连接shortcut的方式是Concat,这样越深的层则输入channel数越大。

阅读更多

本篇是keras源码笔记系列的第三篇。在前两篇中,我们分析了keras对Tensor和Layer等概念的处理,并说明了它们是如何作用别弄个构成有向无环图的。本篇着眼于多层网络模型层面的抽象,即与用户距离最近的接口,源代码文件是/keras/engine/training.py/keras/model.py,要观察的类是ModelSequential

阅读更多

Keras架构的主要逻辑实现在/keras/engine/topology.py中,主要有两个基类Node()Layer(),一个重要函数Input()。具体地,

  • Layer()是一个计算层的抽象,完成网络中对Tensor的计算过程;
  • Node()描述两个层之间连接关系的抽象,配合Layer()构建DAG;
  • Input()实例化一个特殊的Layer(InputLayer),将backend(TensorFlow或Theano)建立的Tensor对象转化为Keras Tensor对象。

阅读更多

从经验中总结原则,用原则生成套路,正是我们自己处理和解决新问题的途径。通过解耦得到的信息来消除未知和不确定性,是我们智能的一部分。我们眼中的世界,只是适合我们的一种表示而已。也许,真正的人工智能到来那一刻,会是我们创造的机器“理解”了自己的表示系统之时——我们所关注的可解释性,也就无关紧要了。

阅读更多

本文讨论LSTM网络的Pytorch实现,兼论Pytorch库的代码组织方式和架构设计。

阅读更多

这篇文章是三位大牛15年发表在Nature上有关深度学习的综述,尽管这两年深度学习又有更多的模型和成果出现,文章显得有些过时,但来自三位领军人物对深度学习的深度阐述还是值得反复回味。

阅读更多

Dropout技术是Srivastava等人在2012年提出的技术,现在已然成为各种深度模型的标配。其中心思想是随机地冻结一部分模型参数,用于提高模型的泛化性能。

阅读更多

Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×