因为数学中的所有术语都有明确的定义和规则,所以数学领域对于AI的发展会是一个好领域吗?

是的…但是没有。 使人类智能有用的是,我们擅长从不完整的数据推断。 例如,考虑开发人员面临的一个长期问题:教导计算机识别对象。 如果我给您看一个对象的图片,则可以在一组对象中识别该对象。 该对象在数学上定义明确,我们可以通过某种相似性度量来定义识别。 那是容易的部分。 问题是……它不起作用。 至少,与人类的视觉相比,它不能很好地工作,因为人类可以推断。 如果看到对象的一部分,则可以推断整个对象。 (这既有好处,也有坏处……我们从不完整数据中推断的能力才有可能取得进步;但是我们从不完整数据中推断的能力也使我们做出诸如“所有穆斯林都是……”之类的判断。) 现在,我们可以通过放宽相似性要求来模拟这一点。 但是,如果我们过分放松相似性要求,则机器人会将太多的东西识别为对象,并且缺乏辨别能力。 如果我们加强相似性要求,则机器人会在物体的一部分处于阴影中时无法识别该物体。 解决此问题的一种方法是使用机器学习。 基本上,计算机是一只猫,它将物体带给我们。 如果它带来了死老鼠,那么我们将拒绝其输出。 如果给我们带来报纸和拖鞋,我们将予以奖励。 逐渐地,计算机开发出一种选择算法。…

在人工智能相关领域,如何撰写一篇非常有说服力的论文?

发表论文意味着您做了新的事情。 可能不大,但是您至少为该领域贡献了一些新内容,尽管微不足道。 要么,要么您可以发布有关现有此类研究工作的研究报告,以及对进一步研究范围的估计。 并且,您所提到的领域(ML,NLP,DM,NN等)的论文或多或少是同一类型的,即论文要么提出一种解决现有问题的新方法,要么提出一种解决先前问题的更好的方法。效率更高的方法等等。 当然还有其他类型的论文 也一样 以前,以前只有很少的期刊和会议,通常与知名人士和出版商(ACM,IEEE,Springer,Elsevier,Nature,Science等)相关,每个人的目光都集中在这几种期刊和会议上。 那时候很有竞争力。 如今,有无数的期刊和会议会在一夜之间收取您的论文报酬,因此发表论文已成为“无大交易”。 这些会议似乎不时地在进行。 此类期刊的影响因素非常小。 现在,我以“非常有力的论文”来假设您的意思是在与我之前提到的知名人士相关的期刊或会议上发表论文。 因此,根据我的看法,这些是我认为可以帮助您做到的几个步骤: ## 1早点开始。 如果您对该领域感兴趣,不要等待遇到某个主题/主题。 为此,您必须尽早决定。 我是从学士学位学生的角度说这句话的,他们中的许多人直到他们的最后一年才能决定他们感兴趣的领域。…

当计算机,机器人和软件接管更多工作时,人类劳动力将如何适应?

机器人会压垮你的工作吗? 移民会偷你的工作吗? 也许移民会在机器人将他们碾入地下之前偷走您的工作? 在这些点击诱饵标题中,通常会引用Google的自动驾驶汽车或全球各地大量移民和难民的图像。 不幸的是,事实与头条新闻一样糟糕,尽管我要争辩的真实结论有些不同。 2014年2月,美国创造的私人工作大体上与2008年以来失去的工作相当。但是,有一个很好的理由使它感到不满意。 在800万个工作岗位上下移动之后,有200万人有效地从高薪和中薪类别转换为低薪类别。 这是所有行业工资的下降。 纽约和伦敦的出租车受到严格监管,因此利润颇丰。 纽约的大奖章赋予持有人在曼哈顿经营出租车的权利,其价值在2014年4月达到了130万美元的峰值。 Uber凭借其时髦的移动应用程序正在改变这种状况,并可能打破了纪念章价格的上涨。 他们以更好的技术和更灵活的驾驶员来颠覆出租车的旧模式。 要强调的是,现在可能会有更多的出租车和更多的司机在曼哈顿工作。 正如NELP职位数据所示,部分原因是更广泛的情况。 经济租金正在消除,创造了更多的就业机会。 转向失去的“好”工作,正在萎缩的两个主要部门是金融和制造业。 财务很有趣,我会改天。 那里的就业人数正在下降,许多人会接受那是一件好事的想法。…

如果有人开始使用C ++编写计算机视觉编码和机器学习应用程序,要注意哪些陷阱/陷阱/技术债务?

C ++的PTTD->内存管理是一堆可能的错误。 当遇到内存泄漏但您的所有新闻和删除都排队时,请在重新分配指针的位置查找语句,并确保先删除。 不要过度使用多重继承或运算符重载-没有性能优势,并且表达式的紧凑性是在易于维护方面的较差折衷。 因为C ++没有内置的多处理功能,所以在使用线程库时要明智地选择。 确保您使用的所有软件包都使用相同的基本构件。 PTTD用于计算机视觉->不要将机器学习误认为计算机视觉。 计算机视觉的基本转换-仿射变换,卷积,FFT在使用机器学习时仍然有用,因为在对训练集进行归一化后,机器仍然学习得最好。 比例尺是最重要的变量->可以操纵颜色,可以对水平进行阈值设置,但是比例尺仍然决定着我们要看的东西。 所有相机都会在图像上赋予自己的个性-尽可能使用图像随附的元数据。 尽管性能调整至关重要,但用于机器学习的PTTD->用于机器学习的编程相当简单。 教导机器是橡胶与道路相遇的地方。 请记住,您的负面/背景与正面示例同样重要。 实际上,大量的班级变得更容易训练,因为n-1个班级对每个单独班级都是负面的。 建立数据集至少与选择原型一样重要–计算机不知道您要分类的内容; 您必须尽可能清楚地显示它。 无监督学习可能在学术上很有趣,但对于应用程序而言却没有价值-除非计算机负担得起。

发展型机器人技术是人类机器人的正确方向吗?

我非常谨慎地指出这一点。 我之所以谨慎对待,是因为,《新科学家》标题上写道:“类人机器人具有自我意识”,但研究人员却相反: http://cacm.acm.org/news/184810-… “研究人员说,自我的剩余两个要素,即概念性自我和私人自我,可能非常困难,但可能是赋予iCub自我意识的关键。” 谢菲尔德大学的大标题作家也大肆宣传,但新闻稿中确实包含一些非妄想性的内容: 托尼·普雷斯科特教授“与自我相遇的机器人” “您可能会辩称,我们的模型缺少了一个关键要素:’我’是詹姆斯自我概念的核心-我们也将意识称为意识。 但是一种可能性是,当自我的其他方面融合在一起时,就会出现这种情况。” 归根结底,这是组合客厅的把戏吗?如果是,那又如何呢? 是否清楚地表明发展型机器人技术是机器人启蒙的方法? 还是机器人必须表现出色而不是伟大才能赢得我们的喜爱和钦佩,这是一个强有力的信息吗? 您可以构建一个无需太多AI就能赢得喜爱和钦佩的机器人。 如果发展型机器人技术想要解决难题,就必须像人类孩子一样从头解决镜像测试。 我们没有被教导要在镜子里认出自己,这是我们为自己发现的。 发展型机器人专家似乎认为,如果他们继续前进,这只会发生。 深度学习可能会超过发展型机器人技术,而人类开发的模型很少。 即使深度学习还没有到位,但发展机器人技术仍然面临着与人工智能一般常识性推理方法类似的风险,而这种方法现在已经进入了研究的第三十年。 我将发展型机器人技术和常识性推理都视为长途策略。