关于社交数据的一些机器学习计划是什么?

机器学习在社交网络上有大量潜在应用,其中有一些特别活跃: 链接预测:给定观察到的友谊,人际关系网络,建议新的联系,推断潜在链接等。Facebook,LinkedIn和Twitter都有自己的“您可能认识的人”功能,并且在机器学习中也是一个活跃的研究主题,通常被称为从关系数据或链接预测中学习。 即使在今年的ICML上,也有数篇论文涉及此问题,请在此列表中搜索“链接预测”以获取指针:http://icml.cc/2012/papers/ 推断影响力,预测信息传播:目前,这方面对商业(对口碑营销很有用),政治(以政治信息为最佳目标)和学术界非常感兴趣。 基本上,您想从数据中推断出谁有能力影响他人并在选定的主题中发表意见,以及如果您想在给定的影响力网络中最大化信息的有效覆盖面,则要针对哪些人群。 Manuel Gomez Rodriguez,Jure Leskovec,Lada Adamic和Sinan Aral致力于这个主题,PeerIndex(我们的公司),Facebook和其他地方的机器学习团队也是如此。 情绪分析:弄清楚当某人在社交媒体中对某事说某件事时,它是正面还是负面的信息。 然后,您可以进一步分析整个网络上的总体情绪,并尝试建模和预测其随着时间的变化。 有些人喜欢将社交网络中与上市公司相关的情绪与股价变化相关联的想法,例如,Twitter情绪分析可以指导股市投资吗? 集群化和可视化:社交网络中的无监督学习,降维和可视化可以做很多事情。 您可以根据人们的联系,特征,兴趣等对他们进行聚类。可以使用各种度量或非度量嵌入技术来可视化人们的社区。

极限学习机的缺点是什么?

Yann Lecun关于ELM的帖子: “极限学习机”有什么优点? 目前,机器学习的某些角落正在发生一种有趣的社会学现象。 一个主要集中在中国的小型研究团体围绕“极限学习机”的概念集会起来。 坦白说,我不了解ELM有什么优点。 有人可以帮忙解释一下吗? ELM基本上是2层神经网络,其中第一层是固定且随机的,第二层是经过训练的。 这个想法有很多问题。 首先,名称:ELM恰好是Minsky和Papert所谓的Gamba感知器(感知器,其第一层是一堆线性阈值单元)。 最初的1958年Rosenblatt感知器是ELM,因为第一层是随机连接的。 其次,方法:随机连接第一层几乎是您可以做的最愚蠢的事情。 自Perceptron以来,人们已经花费了将近60年的时间,提出了更好的方案来非线性扩展输入矢量的维数,以使数据更可分离(其中许多已在1974年的Duda&Hart版中进行了记录) 。 我们只列出一些例子:使用多项式之类的基础函数族,使用“核方法”,其中基础函数(又名神经元)以训练样本为中心,使用聚类或GMM将基础函数的中心放在数据是(我们称之为RBF网络的东西),并使用梯度下降来优化基本函数的位置(也就是使用反向传播技术训练的2层神经网络)。 如果您要学习的功能非常简单并且标记的数据量很小,则随机设置第一层权重(如果以适当的方式进行设置)可能会有效。 优点类似于SVM的优点(尽管程度较小):需要进行监督训练的参数数量少(因为第一层是固定的)并且易于规范化(因为它们构成了线性分类器)。 但是,为什么不首先使用SVM或RBF网络呢?…