Perceptron
Perceptron 原理 简单的感知机可以看作一个二分类,假定我们的公式为 f(x) = sign(w *x + b) 我们把 -b 做为一个标准,w* x 的结果与 -b 这个标准比较, w*x > -b, f(x) = +1 w *x < -b, f(x) = -1 不难看出w是超平面的法向量,超平面上的向量与w的数量积为0。因此这个超平面就可以很好的区分我们的数据集。 而感知机就是来寻找w和b 优化方法 优化方法我们现有的方法比较多,诸如GD、SGD、Minibatch、Adam 当然我们的损失函数也包含多种,常见的有MSE,...
SoftMax指北
SoftMax指北 softmax函数,又称归一化指数函数。是将多分类的结果用概率的形式表示出来,而各种预测结果概率和为1,下图为SoftMax的计算方法。 e的zi次方保证了结果非负,除以总和保证了总和为1,这样就可以得出近似的概率。 代码示例 这边选用Fashion-Mnist作为示例. 第一步下载数据集 1234train_data = torchvision.datasets.FashionMNIST("./data/mnist",train=True,download=True)train_loader = torch.utils.data.DataLoader(train_data,batch_size = 8, shuffle = True)val_data = torchvision.datasets.FashionMNIST("./data/mnist",train=False,download=True)val_loader =...