1
sanddudu 2014-04-07 15:46:53 +08:00
线性回归方程?
|
3
rock_cloud 2014-04-07 16:13:03 +08:00
这个是最简单的线性分类啊,把OO的所有点坐标带入kx+b得到y1,XX的所有点坐标带入kx+b得到y2,然后最大化(y2-y1)^2就可以了。
|
4
11 2014-04-07 16:41:55 +08:00
线性判别分析(Linear Discriminant Analysis, LDA)
|
5
u 2014-04-07 16:44:10 +08:00
同楼上。最基本的模式识别。
|
6
wuyazi OP https://gist.github.com/10017286
代码转自: http://blog.csdn.net/ranchlai/article/details/10303031 是这种方法吗? 第六行shift的变量原来是3,我改成1,想得到OO和XX交叉的分类结果,可是得到的图是这样的。。。 http://ntu.me/di/0TOLB/.jpg |
7
wuyazi OP |
8
die4live 2014-04-07 18:14:12 +08:00
SVM
|
9
wuyazi OP |
10
msg7086 2014-04-07 18:34:39 +08:00
LDA 我记得是 machine learning 的技术吧……
|
11
wuyazi OP |
13
yangzh 2014-04-07 19:33:51 +08:00
请考虑 svm
|
14
wuyazi OP |
15
die4live 2014-04-07 19:52:36 +08:00 1
理论方面可以看看 [支持向量机通俗导论(理解SVM的三层境界) - 结构之法 算法之道 - 博客频道 - CSDN.NET](http://blog.csdn.net/v_july_v/article/details/7624837#t34) [支持向量机系列 « Free Mind](http://blog.pluskid.org/?page_id=683)
刚才用R试了下是可行的 设为线性核的话 也是可以得到k和b的 |