Perceptron Perceptron Learning Algorithm yi∈{−1,1} Iteration 不断 pick,调整分类平面 即朝着 yi 方向调整 理论依据 线性可分 或者 w∗Txi⋅yi>0 理论 证明 假设我们的更新规则是 w(t+1)=w(t)+yi(t)xi(t) 处理数据 让不可分变可能可分 决策平面 可以衡量点的置信度 学习模型 损失函数