在神经网络中ReLU永远不会饱和。
K均值聚类算法是一种无监督学习算法。
深度学习与机器学习算法之间的区别在于,后者过程中无需进行特征提取工作,也就是说,我们建议在进行深度学习过程之前要首先完成特征提取的工作。
提升卷积核(convolutional kernel)的大小会显著提升卷积神经网络的性能。
当在卷积神经网络中加入RAM (pooling layer)时,变换的不变性会被保留。
CNN采用最大池化能够产生一定程度上的平移不变性。
在监督学习任务中,输出层中的神经元的数量应该与类的数量(其中类的数量大于2)匹配。
Y = ax^2 + bx + c(二次多项式)这个方程可以用具有线性阈值的单个隐层的神经网络表示。
卷积神经网络可以对一个输入完成不同种类的变换(旋转或缩放)。
可以用神经网络对函数(y=1/x)建模。
增加卷积核的大小对于改进卷积神经网络的效果是必要。
假设在ImageNet数据集(对象识别数据集)上训练卷积神经网络。然后给这个训练模型一个完全白色的图像作为输入。这个输入的输出概率对于所有类都是相等的。
训练CNN时,可以对输入进行旋转.平移.缩放(增强数据)等预处理提高模型泛化能力。
决策树是一种面向分类问题的有监督学习算法。
通过增加模型复杂度,那么模型的测试错误率总是会降低。