我有六个月的时间必须学习数据挖掘,并且什么也不做。 我应该从哪里开始?

数据挖掘是对数据的分析,以查找以前未发现的关系。 这是在大数据集中发现模式的计算过程,涉及人工智能,机器学习,统计和数据库系统的交集处的方法。 通常,数据挖掘的研究与数据科学家一样,也参与工作角色。 这是“ 21世纪最性感的工作”对未来的潜伏。 对于所有想要从事数据科学家职业的学生和专业人士,因为它是最有利可图且发展最快的职业道路之一。 随着智能手机的出现,基于Android的应用程序制造商被推到了一个全新的高度。 每天都会有新的创业公司启动,而Android和网络应用程序是主要技术和驱动力。 edWisor.com就是这样一个平台,可提供对Data Scientist的完整实时培训 。 这些现场培训课程由目前在该职位上从事该行业的专业人员提供。 这是一个10-12周的课程,在周末进行3-4小时的现场培训。 根据每周的任务和行业项目,提供了一种实用的现场培训方法。 这些任务和项目由专业人员/导师评估,并根据其作为数据科学家的技能进行评估。 课程结束后,edWisor.com会将简历以及他们的项目发送给相关公司,以聘用为实习生和专职职位。 我们有100多家公司作为招聘合作伙伴,他们从edWisor.com的特定领域和技术中招聘edWisor培训过的学生。 感谢您的A2A。

在机器学习和计算神经科学的交汇处是否进行了强有力的研究?

我会说是的。 当然,这两个领域的人们之间都表现出越来越大的兴趣,并开始组织会议和活动来鼓励分享知识。 例如,加州大学伯克利分校将组织“大脑与计算”计划,该计划将许多活跃的机器学习研究人员和神经科学家聚集在一起(请参阅西蒙斯计算理论研究所)。 如果您查看这些人的研究页面,您会发现确实有很多关于该主题的著作。 我特别喜欢的一项著名著作是Olshausen and Field(1996,1997)的稀疏编码研究。 他们表明,可以将早期视觉皮层的编码机制假定为稀疏编码算法。 使用此算法训练的人工“神经元”(基本功能)与生物神经元具有相似的功能,例如边缘检测,方向敏感性等。遵循这一思路,机器学习研究人员开始形成许多生物学上合理的假设和模型。 由于深度学习的普及,神经网络开始引起更多关注。 如果您看一下早期的神经网络研究人员,例如Yann LeCun,Geoffrey Hinton和Terry Sejnowski,他们中的许多人在计算神经科学方面都有很强的背景。 重要的算法和模型,例如反向传播,卷积神经网络,辍学,或多或少地受到大脑机制的启发。 另一方面,计算机视觉,信号处理, 另一项研究是强化学习,强化学习可以玩Atari游戏,在扑克和围棋中击败人类冠军,还有更多其他功能。 强化学习(作为机器学习的研究领域)本身来自心理学和行为神经科学的大型研究领域,称为操作条件。…

每个DL研究人员都应实施哪些必须实施的深度学习论文?

嗯,有趣的问题,感谢A2A! 重新实现现有的深度学习论文通常并不容易。 因此,我将通过提出一些我认为每位DL研究人员都应该了解(并理解!)的论文来提出这个问题,以稍有不同的方式回答这个问题。 显然,此列表是主观的,反映了我自己的背景/想法,因此其他人可能会有不同的列表。 “使用神经网络降低数据的维数”(https://www.cs.toronto.edu/~hint…)很好地概括了自动编码器的工作原理(通过RBM实现)。 这篇论文已经很老了,实际的模型本身并没有那么重要,因为大多数DL研究已经脱离了RBM。 但是,本文仍然对说明神经网络在对数据进行建模时所做的工作具有高度相关性,在深入研究最新文献之前,这是一篇很有见地的文章。 特别是,它抓住了基于特征的学习理念背后的主要原理,这是深度学习的基础。 OG论文“具有深度卷积神经网络的ImageNet分类”(https://www.nvidia.cn/content/te…)是OG论文,它在计算机视觉领域掀起了CNN的主导地位。 此外,它在很大程度上被抛弃了几十年后,重新唤起了人们对神经网络研究的兴趣(Yann LeCun有一些有趣的故事,讲述了2010年前进行CNN研究的情况)。 除了历史意义之外,它还说明了为什么需要基于特征学习的方法来解决大规模AI问题。 “神经概率语言模型”(http://www.jmlr.org/papers/volum…)是较早的论文(2003年?)之一,描述了如何将神经网络应用于语言建模问题。 它是最早说明使用神经网络学习词嵌入的概念的论文之一。 阅读完本文后,您应该对单词嵌入的工作方式及其捕获的属性有一个非常直观的认识。 “ Deep Sparse…