机器学习(十二、十三):K

简介:

本节介绍STANFORD机器学习公开课中的第12、13集视频中的算法:K-means算法、高斯混合模型(GMM)。(9、10、11集不进行介绍,略过了哈)

一、K-means算法

属于无监督学习的聚类算法,给定一组未标定的数据(输入样本),对其进行分类,假设可分为k个类。由于算法比较直观,故直接给出步骤和MATLAB代码。(k-means算法在数学推导上是有意义的)

MATLAB代码:

%%%k均值聚类clear all;close all;%%n=2;m=200;v0=randn(m/2,2)-1;v1=randn(m/2,2)+1;figure;subplot(221);hold on;plot(v0(:,1),v0(:,2),'r.');plot(v1(:,1),v1(:,2),'b.');%axis([-5 5 -5 5]);title('已分类数据');hold off;data=[v0;v1];data=sortrows(data,1);subplot(222);plot(data(:,1),data(:,2),'g.');title('未分类数据');%axis([-5 5 -5 5]);%%[a b]=size(data);m1=data(20,:);%随机取重心点m2=data(120,:);%随机取重心点k1=zeros(1,2);k2=zeros(1,2);n1=0;n2=0;subplot(223);hold on;%axis([-5 5 -5 5]);for t=1:10for i=1:ad1=pdist2(m1,data(i,:));d2=pdist2(m2,data(i,:));if (d1<d2)k1=k1+data(i,:);n1=n1+1;plot(data(i,1),data(i,2),'r.');elsek2=k2+data(i,:);n2=n2+1;plot(data(i,1),data(i,2),'b.');endendm1=k1/n1;m2=k2/n2;%plot(m1(1,1),m1(1,2),'g.');%plot(m2(1,1),m2(1,2),'g.');k1=zeros(1,2);k2=zeros(1,2);n1=0;n2=0;endplot(m1(1,1),m1(1,2),'k*');plot(m2(1,1),m2(1,2),'k*');title('k-means聚类');hold off;

输出结果(未分类数据是由已分类数据去掉标签,黑色※号表示聚类中心):

二、高斯混合模型(GMM)

回想之前之前的高斯判别分析法(GDA),是通过计算样本的后验概率来进行判别,而后验概率是通过假设多元高斯模型来计算得来的。高斯模型的参数:均值、协方差,是由已标定(分类)的样本得来,所以可以看做是一种监督学习方法。

在GMM模型(属于无监督学习),给定未分类的m个样本(n维特征),假设可分为k个类,要求用GMM算法对其进行分类。如果我们知道每个类的高斯参数,则可以向GDA算法那样计算出后验概率进行判别。但遗憾的是,,杨输入的样本未被标定,也就是说我们得不到高斯参数:均值、协方差。这就引出EM(Expectation Maximization Algorithm:期望最大化)算法。

EM算法的思想有点类似于k-means,就是通过迭代来得出最好的参数,有了这些参数就可以像GDA那样做分类了。GMM及EM具体步骤如下:

MATLAB代码如下:

%%%GMM算法(高斯混合模型)soft assignment(软划分)clear all;close all;%%k=2;%聚类数n=2;%维数m=200;% v0=randn(m/2,2)-1;% v1=randn(m/2,2)+1;v0=mvnrnd([1 1],[1 0;0 1],m/2);%生成正样本1v1=mvnrnd([4 4],[1 0;0 1],m/2);%生成负样本0figure;subplot(221);hold on;plot(v0(:,1),v0(:,2),'r.');plot(v1(:,1),v1(:,2),'b.');title('已分类数据');hold off;%%data=[v0;v1];data=sortrows(data,1);subplot(222);plot(data(:,1),data(:,2),'g.');title('未分类数据');%%mu1=mean(data(1:50,:));mu2=mean(data(100:180,:));sigma1=cov(data(1:50,:));sigma2=cov(data(100:180,:));p=zeros(m,k);%概率thresh=0.05;%迭代终止条件iter=0;%记录迭代次数while(1)iter=iter+1;A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2)));A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2)));for i=1:mp(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)');p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)');pp=sum(p(i,:));p(i,1)=p(i,1)/pp;%归一化,样本属于某类的概率的总和为1p(i,2)=p(i,2)/pp;endsum1=zeros(n,n);sum2=zeros(n,n);for i=1:msum1=sum1+p(i,1)*(data(i,:)-mu1)'*(data(i,:)-mu1);sum2=sum2+p(i,2)*(data(i,:)-mu2)'*(data(i,:)-mu2);endsigma1=sum1/sum(p(:,1));sigma2=sum2/sum(p(:,2));mu1_pre=mu1;mu2_pre=mu2;mu1=(p(:,1)'*data)/sum(p(:,1));mu2=(p(:,2)'*data)/sum(p(:,2));if ((pdist2(mu1_pre,mu1)<=thresh) || (pdist2(mu2_pre,mu2)<=thresh))break;endend%%subplot(223);hold on;A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2)));A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2)));for i=1:mp(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)');p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)');if p(i,1)>=p(i,2)plot(data(i,1),data(i,2),'r.');elseplot(data(i,1),data(i,2),'b.');endendtitle('GMM分类');hold off;%完输出结果:

当一个人真正觉悟的一刻,他放弃追寻外在世界的财富,而开始追寻他内心世界的真正财富

机器学习(十二、十三):K

相关文章:

你感兴趣的文章:

标签云: