在线回归 在线学习算法不限于分类问题。 内核 adatron 算法的更新规则还建议了用于创建优化的在线版本的通用方法。 使内核 adatron 算法的第一次更新等价于 αi ← αi + ∂W(α) ∂αi 使其成为一种简单的梯度上升算法,并通过修正来确保满足附加约束。 例如,如果我们将相同的方法应用于支持向量回归算法的线性 ε 不敏感损失版本。 支持向量机的优点之一,支持向量回归作为它的一部分,它可以用来避免在高维特征空间中使用线性函数的困难,并将优化问题转化为对偶凸二次规划。 在回归情况下,损失函数用于惩罚大于阈值 - 的错误。 这种损失函数通常会导致决策规则的稀疏表示,从而带来显着的算法和表示优势。 参考: 模式分析的内核方法作者:John Shawe-Taylor & Nello Cristianini http://kernelsvm.tripod.com/
2022-04-06 09:49:06
35KB
matlab
1