gpg抑制在gui中输入密码

Using Command-Line Passphrase Input for GPG with Git (for Windows) | by beta | Medium

在这个目录下创建 gpg.conf 和 gpg-agent.conf:

C:\Users<user>\AppData\Roaming\gnupg\

两个文件都应该包含这一行:

pinentry-mode loopback

CS231n Convolutional Neural Networks for Visual Recognition

线性回归

几何解释:超平面

模版匹配解释:每行代表一个类的模版,内积视角

hinge loss

max(0,-)

正则化是仅针对于权重的函数

惩罚大的权重往往会提高泛化能力,因为这意味着没有输入维度可以独自对得分产生非常大的影响。

Aside: Optimization in primal. If you’re coming to this class with previous knowledge of SVMs, you may have also heard of kernels, duals, the SMO algorithm, etc. In this class (as is the case with Neural Networks in general) we will always work with the optimization objectives in their unconstrained primal form. Many of these objectives are technically not differentiable (e.g. the max(x,y) function isn’t because it has a kink when x=y), but in practice this is not a problem and it is common to use a subgradient.

计算梯度有两条途径:一种是缓慢但近似且容易的方法(数值梯度),另一种是快速但更易出错且需要使用微积分的方法(解析梯度)

梯度告诉我们函数增加最陡的方向,但并不告诉我们沿这个方向应该走多远。

加法操作将梯度等分配给所有输入。最大操作将梯度路由到较高的输入。乘法门取输入激活值,交换它们,并乘以梯度。

在线性分类器中,权重与输入进行点乘 (乘法),这表明数据的尺度会影响权重梯度的大小。例如,如果你在预处理时将所有输入数据示例 xi 乘以 1000,那么权重的梯度将会大 1000 倍,你需要将学习率降低这个倍数来补偿。这就是为什么预处理非常重要,有时是以微妙的方式!而对梯度如何流动有直观的理解可以帮助你调试一些这些问题。