cluster by fast search and find of density peaks

This paper proposed a new cluster idea. The idea is that the cluster center is characterrized by a higher density than their neighbors and by a relatively large distance from points with highter density(1.一个类中的聚类中心的点的密度较高,2.不同聚类中心的距离较大).

Based on this assumption, for each data point , we compute two quantities: Its local density  and its distane  from point with higher density. Both quantities are based on this distance  .The local density  is defined as

where  if  <0 and  otherwise, and  is a cutshort distance.(影响变量有 ).

  is measured by computing the minimum distance between the point and any other points with a higher density,(在密度比它大的数据点钟寻找距离最小的点).

在实际聚类中,首先画出一个叫做decision gragh 的东西,就是横坐标是  纵坐标是 的图,寻找聚类中心时是这两个值都比较大的情况。然后,有一个类似依附原则,数据点A的类别被分配在距离A最近的而且密度大于A的那个点所在的类别(梯度)。

以上是模型,也可以有一个噪声模型:为每一个类规定一个边界,边界定义为距离本类中心最近并且距离其他类的中心小于。这些被排除在外边的点称为Halo点。

以后的工作主要是实现这个算法,然后研究一下内部数学原理。

文章链接:

http://www.sciencemag.org/content/344/6191/1492.full

时间: 10-16

cluster by fast search and find of density peaks的相关文章

Science14年的聚类论文——Clustering by fast search and find of density peaks

这是一个比较新的聚类方法(文章中没看见作者对其取名,在这里我姑且称该方法为local density clustering,LDC),在聚类这个古老的主题上似乎最近一些年的突破不大,这篇文章算是很好的了,方法让人很有启发(醍醐灌顶),并且是发表在Science上,受到的关注自然非常大. 本文的核心亮点:1是用比较新颖的方法来确定聚类中心,2是采用距离的local density来进行聚类的划分.在这两点中,常见的Kmeans算法采用的方法是:用每一类的均值作为中点,用距离的最近的点来确定聚类划分

Science论文&quot;Clustering by fast search and find of density peaks&quot;学习笔记

"Clustering by fast search and find of density peaks"是今年6月份在<Science>期刊上发表的的一篇论文,论文中提出了一种非常巧妙的聚类算法.经过几天的努力,终于用python实现了文中的算法,下面与大家分享一下自己对算法的理解及实现过程中遇到的问题和解决办法. 首先,该算法是基于这样的假设:类簇中心被具有较低局部密度的邻居点包围,且与具有更高密度的任何点有相对较大的距离.对于每一个数据点,要计算两个量:点的局部密度和

Clustering by fast search and find of density peaks

"Clustering by fast search and find of density peaks"是20114年6月份在<Science>期刊上发表的的一篇论文,论文中提出了一种非常巧妙的聚类算法. 首先,该算法是基于这样的假设: (1)聚类中心密度要高 (2)高密度中心点之间的距离应该相对远一些. 异常点都会被排除,同时也和形状无关. 首先,这种方法不像原先的Kmeans那样随机初始种子点然后迭代,它是根据样本的密度峰值来确定聚类中心的,当然聚类中心确定之后,后面

一种新型聚类算法(Clustering by fast search and find of density peaksd)

最近在学习论文的时候发现了在science上发表的关于新型的基于密度的聚类算法 Kmean算法有很多不足的地方,比如k值的确定,初始结点选择,而且还不能检测费球面类别的数据分布,对于第二个问题,提出了Kmean++,而其他不足还没有解决,dbscan虽然可以对任意形状分布的进行聚类,但是必须指定一个密度阈值,从而去除低于此密度阈值的噪音点,这篇文章解决了这些不足. 本文提出的聚类算法的核心思想在于,对聚类中心的刻画上,而且认为聚类中心同时具有以下两种特点: 本身的密度大,即它被密度均不超过它的邻

Clustering by fast search and find of desity peaks(基于快速搜索与寻找密度峰值的聚类)

基于快速搜索与寻找密度峰值的聚类(Alex Rodriguez and Alessandro Laio) 摘要:聚类分析目的是基于元素之间的相似度对其进行分类,应用范围从天文学到生物信息学.文献计量学到模式识别.我们提出一种方法,思想基于簇中心具有比其邻居更大密度的特点以及与更大密度点之间有一个相对较大的距离(1.簇中心点有相对高的密度 2.簇中心点之间距离一般较大,即不同类别之间一般距离较远),这种思想形成了簇数目直观出现的聚类机制的基础,自动发现和排除异常点,同时在识别簇时,不用关心其形状和

Clustering by density peaks and distance

这次介绍的是Alex和Alessandro于2014年发表在的Science上的一篇关于聚类的文章[13],该文章的基本思想很简单,但是其聚类效果却兼具了谱聚类(Spectral Clustering)[11,14,15]和K-Means的特点,着实激起了我的极大的兴趣,该聚类算法主要是基于两个基本点: 聚类中心的密度高于其临近的样本点的密度 聚类中心与比其密度还高的聚类中心的距离相对较大 基于这个思想,聚类过程中的聚类中心数目可以很直观的选取,离群点也能被自动检测出来并排除在聚类分析外.无论每

Backup and restore of FAST Search for SharePoint 2010

一个同事问我一个问题: 如果FAST Search for SharePoint 2010被full restore到了一个之前的时间点, 那么当FAST Search重新开始一个增量爬网的时候, 会发生什么? FAST Search会查看内容数据库并发现上一次爬网的记录并为新item或更改的item制作索引么? FAST Search会发现索引与现在内容的不一致么? 还是说它直接会再来一次full crawl?   Some Basics =================== Fast Se

复杂网络中聚类算法总结

网络,数学上称为图,最早研究始于1736年欧拉的哥尼斯堡七桥问题,但是之后关于图的研究发展缓慢,直到1936年,才有了第一本关于图论研究的著作.20世纪60年代,两位匈牙利数学家Erdos和Renyi建立了随机图理论,被公认为是在数学上开创了复杂网络理论的系统性研究.之后的40年里,人们一直讲随机图理论作为复杂网络研究的基本理论.然而,绝大多数的实际网络并不是完全随机的.1998年,Watts及其导师Strogatz在Nature上的文章<Collective Dynamics of Small

发表在 Science 上的一种新聚类算法

今年 6 月份,Alex Rodriguez 和 Alessandro Laio 在 Science 上发表了一篇名为<Clustering by fast search and find of density peaks>的文章,为聚类算法的设计提供了一种新的思路.虽然文章出来后遭到了众多读者的质疑,但整体而言,新聚类算法的基本思想很新颖,且简单明快,值得学习.这个新聚类算法的核心思想在于对聚类中心的刻画上,本文将对该算法的原理进行详细介绍,并对其中的若干细节展开讨论. 最后,附上作者在补充

阿里巴巴西溪算法峰会之机器学习与deeplearning专场

大数据风潮的来临,TMT行业仿佛一夜间易帜,集团战略开始由IT时代迈向DT时代,对于像阿里巴巴这样的公司不管是从广告平台.搜索平台.推荐平台还是到图像采集.语音识别类产品,在底层设计中都用到了非常精妙的算法,而这些优秀的算法在DT时代更加凸显了整个公司的技术实力. 2014西溪峰会,齐聚集团算法十几个应用领域,几十个研发团队,与大家一同分享在业务中实践出来的优秀算法与经验,希望大家关注与支持算法领域的建设.共同探索和挖掘算法领域的宝藏,推动阿里巴巴集团从IT到DT的战略进程. 机器学习与deep