首页 > AIGC > ai人工智能怎么学-人工智能该如何覆盖?专业AI研究员给出10条建议
2023
10-02

ai人工智能怎么学-人工智能该如何覆盖?专业AI研究员给出10条建议

谨慎对待人工智能

首先我们需要强调人工智能的实际含义。 让我们明确一点:今天的人工智能系统与终结者或类似的科幻概念无关,夸张的终结者式故事加上误导性的图像让人工智能研究人员非常愤怒。

那么人工智能到底是什么? 人工智能研究员 Julian Togelius 在他的博客文章“给撰写人工智能文章的记者的一些建议”中恰当地回答了这个问题:

请记住:并不存在人工智能这样的东西,它只是构建软件的方法和想法的集合,而软件是我们人类大脑的产物。 研究开发人员开发新的人工智能方法(并使用旧的方法)来构建可以做令人惊讶的事情的软件(有时是硬件),例如玩游戏和画猫。

虽然这不是一个值得讨论的问题,但人工智能的报道在很多方面都是错误的,所以我们的下一个建议分别针对每个方面。

禁止在没有主权的地方暗示主权

上述定义的一个含义是具有误导性的,例如“人工智能发展非人类语言”,因为人工智能不是单一实体,而是一组技术和思想。 正确的说法应该是“科学家开发了基于人工智能的交通监控系统”。 正如资深机器人学家和人工智能研究员罗德尼·布鲁克斯(Rodney Brooks)在他的书《预测人工智能未来的七大罪》中所说:

有些人认为人工智能就是人工智能,因为他们认为人工智能是一个自治系统。 我认为这个想法是错误的,就像旧金山当地人不称他们的城市为“弗里斯科”一样,人工智能研究人员当然不会将人工智能称为人工智能。

这看起来像是文字游戏,但却是事实的一部分。 重要的是要了解,当今的人工智能系统在执行操作时几乎没有自主权。 “人工智能”的意思是“智能”,它是一个自主代理,但这与我们现有的基于人工智能的应用程序不同。 它只是在人工智能算法的帮助下开发的一些软件应用程序,与我们用来查看本文的浏览器不同,它接受人类输入并产生程序员指定的输出。 正如我们的调查受访者指出的:

系统很复杂,它们的行为很难解释。 我在这方面做了很多研究,但还有很长的路要走。 与任何其他技术一样,即使存在众所周知的风险(如核电)和不确定性,我们仍然使用它。 人工智能一词将意外的系统行为(即特斯拉汽车无缘无故突然停下)归因于“人工智能”的“有意识的决定”,而不是尚未理解的复杂技术系统的行为。

底线:“人工智能”一词表明“人工智能”系统的不当行为是“人工智能”的“有意识的决定”,问题是人类使用他们制造的技术工具,但尚未完全理解和控制,例如任何其他技术。

另一位支持者也指出:这最后一点确实是问题的根源。

使用拟人化,例如“IBM 教其人工智能来诊断疾病”,而不是“IBM 编写了一个可以诊断疾病的计算机程序”。 不存在所谓的“IBM AI”来玩危险游戏和诊断疾病,它们只是不同的程序。 此外,尽管机器学习技术包含“学习”一词,但使用“训练”一词来描述计算机以人类学习的方式学习似乎更合适。 机器学习与人类学习有很大不同。 更好的说法是“IBM 在大型病例数据库上运行机器学习算法,以创建一个可以诊断疾病的系统。”

认识人类所扮演的角色

上述关于没有真正自主权的人工智能驱动系统的观点有一个重要且经常被忽视的含义:人类在学习如何工作方面发挥着巨大作用。 头条新闻经常说“X 的人工智能自学如何 Y”,这意味着我们“只是”组合一个人工智能算法来运行它。 事实上,人们总是需要花费大量的思考和精力才能在新的、具有挑战性的智能应用上取得进展。 例如,最近有关 OpenAI 获得机械手来解决魔方的新闻(当给出将魔方带到已解决状态的步骤时)被标记为“机器人将自行解决魔方”,即使该项目涉及正如我们在研究范围中明确指出的那样,需要大量的人类工作。

Julian Togelius 在他的博客文章中再次提出了类似的观点:

请记住:“人工智能”实际上是人类的创造力。 研究人员和开发人员专注于人工智能在机器人、游戏或翻译等特定领域的应用是有原因的。 当构建一个系统来解决问题时,包含了大量关于实际问题的知识(领域相关知识)。 这可能起到向系统提供特殊输入、使用专门准备的训练数据、对整个系统的部分进行手工编码、甚至重新表述问题以使其更容易解决的作用。

建议:了解“人工智能解决方案”的哪些部分是自动的、哪些部分是由于巧妙编码的人类领域知识而产生的方法是观察系统如何处理略有不同的问题。

人工智能项目必须采取适当的预防措施

对上述观点的一种回应可能是说,当今许多最出色、最强大的人工智能技术都源于“机器学习”(整个人工智能的一个子领域,其中“深度学习”是机器学习的一个子集) ,那么如果谈到“学习”是否不公平地意味着某种程度的自主权或代理权? 简而言之,我们不这么认为。 相反,了解所使用的特定人工智能算法和类人学习之间的区别更为重要。

使用“学习”这个词可能会让人想到智能自主代理的想法,但现实是,今天应用机器学习算法主要涉及组织输入和输出数据集以及优化程序以将输入映射到适当的输出。 程序无法选择数据集、其自身的结构或何时以及如何运行它。 因此,说程序“学习”一些东西而不强调这与人类如何学习几乎无关ai人工智能怎么学,可能会严重误导读者,并且程序本身不具有任何自主性。 总的来说,正如我们调查的一位受访者所说:

请小心使用直观词汇,因为我们对人类学习和行为的直觉并不适合人工智能系统(手动使用人工智能文献中的某些术语无助于解决这个问题)。

事实上,人工智能研究人员通常会选择直观但具有误导性的词语。 但至少人工智能研究人员太愤世嫉俗,无法按照我们自己的理解来看待这些话。 那些不了解现代人工智能内部运作原理的人可能会认为这些词的含义比实际含义更深刻。 因此,应避免将机器学习与人类学习或开发进行比较。 罗德尼·布鲁克斯在他的博文中也强调了这一点:

词语很重要,但每次我们使用词语来描述人工智能系统的某些内容(也可以应用于人类)时,我们发现人们高估了它的含义。 到目前为止,大多数用于机器的词语只不过是对用于人类的词语的一种微观上狭隘的想象。

以下是一些应用于与人类能力完全不同的机器的动词:

预测、击败、分类、描述、估计、解释、幻觉、聆听、想象、计划、学习、建模、计划、玩耍、识别、阅读、推理、思考、看到、理解、行走、写作。

对于所有这些词,已有研究论文仅使用了这些词应用于人类时所具有的丰富含义的一小部分。 不幸的是,这些词的使用表明人工智能领域比人类领域更有意义。

这导致人们误解并夸大当前人工智能的能力。

需要做什么:强调当今人工智能驱动程序的局限性

上述结论的推论是,当今大多数基于机器学习的程序都可以被描述为只执行一项任务:将一种类型的输入映射到另一种类型的输出。

这是狭义人工智能的一个例子,这意味着人工智能驱动的系统只能执行一项任务,而不能执行多项任务。

将人工智能驱动的程序称为“智能”的另一个问题是,作为人类,当我们说“智能”时,我们倾向于指“广义智能”,因此可能会假设该程序也拥有广义智能。

避免这种误解至关重要,这就是为什么我们在与没有人工智能专业知识的读者交谈时需要使用“基于人工智能的程序”或“人工智能驱动的软件”等术语。 另一个原因。

Julian Togelius 在他的博客文章中也指出了这一点:您可以放心地假设同一个系统不能同时玩游戏和画猫。 事实上,我听说过的基于人工智能的系统都不具备多任务处理能力。 即使相同的研究人员基于相同的想法开发用于不同任务的系统,他们也会构建不同的软件系统。 当记者写道“公司.

而罗德尼·布鲁克斯则表示:这实际上就是问题所在。 人们听说某些机器人或某些人工智能系统执行了某种任务。 然后他们将这种能力概括并概括为执行相同任务的人类应该具备的能力。 他们将这种概括应用于机器人或人工智能系统。 当今的机器人和人工智能系统的能力极其有限。 人类的概括在这里不适用。

该怎么做:避免与流行文化对人工智能的描述进行类比

虽然今天人工智能的使用属于“狭义人工智能”的范畴,但迄今为止大多数流行文化对人工智能的描述都集中在更类似于人类的通用人工智能上。 毕竟,虽然专注于执行人类指令的计算机程序听起来很无聊,但思考具有人类或更高智能水平的计算机程序可能产生的影响是很有趣的。 艺术家从广义上思考人工智能的含义当然没有问题,但由于流行文化中的人工智能与现实世界中的人工智能之间存在差异,我们建议避免与流行文化中人工智能的描绘方式进行类比,除非进行比较旨在指出广义智力和侠义智力之间的区别。

不要:引用名人对人工智能的看法

与其他技术主题相比,人工智能的一个特别复杂的方面是,它长期以来一直在科幻小说中被思考和想象。 这些想法和想象虽然很有趣,但与当今现实中的人工智能完全脱节,所以我就不多说了。

许多著名人物(史蒂文·霍金、比尔·盖茨、埃隆·马斯克等)都曾表达过对超人人工智能对人类威胁的担忧,而这些观点都是猜测,与当今人工智能的现实完全脱节。 。 正如罗德尼·布鲁克斯所说:

“TC:你正在写一本关于人工智能的书,所以我想问你:埃隆·马斯克上周末再次表示人工智能是对人类的威胁。你同意还是不同意?”

RB:有很多人说人工智能对人类构成威胁:天文学家皇家马丁·里斯、史蒂芬·霍金写了一本关于人工智能的书,他们的一个共同点是:他们不从事人工智能人工智能相关的研究工作。对于从事人工智能相关研究工作的人来说,我们知道将人工智能相关项目推向产品层面是多么困难。”

然而,像霍金担心人工智能可能取代人类这样的报道比比皆是。 虽然这种报道可能看起来无害,但它可能会误导人们认为这样的人工智能灾难确实有可能发生,并导致他们误解或忽视当今现实中对人工智能的真正担忧。 神经科学家 Anthony Zador 和 AI 专家 Yann LeCun 最近表达了这样的想法:

“他们(关于恶意超级智能的猜测)分散了人们对这项技术在不久的将来可能带来的其他风险和好处的注意力。”

需要做什么:弄清楚任务是什么

上述建议与人们对人工智能的粗浅认识有关。 我们的下一组建议将讨论人们在谈论人工智能时需要特别注意的、最容易被读者理解的更具体的细节。

机器学习的许多子领域(当今大多数媒体报道的人工智能子领域),例如计算机视觉或自然语言处理,都涉及尝试复制人类智能的某些方面。 由于复制人类水平的智能已被证明是困难的,几十年来,人工智能研究人员一直在通过定义与人类智能相关的更雄心勃勃的任务来解决这些任务。 例如,在计算机视觉的早期,一项任务是将 3D 形状的 2D 图像转换为这些 3D 形状的程序表示,可以由计算机旋转:

摘自劳伦斯·吉尔曼·罗伯特的基础论文“三维机器感知”。

这是一项有用的任务,但将该解决方案描述为能够从 2D 图像(而不仅仅是简单的 3D 形状)创建任何对象的程序表示显然是不正确的。 同样的观点也适用于当今人工智能的发展。 例如,要解决的问题可能类似于“文本摘要”,但解决方案的细节很重要——文本可以概括为多少个单词? 该解决方案仅适用于一种类型的文本吗? 它是否保持了摘要的真实内容? 等等——细节确实很重要。 正如我们调查的受访者所说:

需要对要解决的问题进行非常具体的描述。 是“能写一本小说”还是“能写出连续两个连贯的句子”还是“能写一篇真实的新闻报道”?

到底什么是“超人表现”,应该仔细解释一下,用什么标准来衡量? 究竟是谁在进行比较? 任务的限制有多大? 模型使用多少数据进行计算? ”

关于机器学习算法的演示,除了正确描述任务的精确细节之外,需要采取的一个具体步骤是提供算法训练数据集中的示例,并提供各种输出输入。 这通常在有关机器学习主题的论文中进行描述,以便大致了解正在训练的程序可以接受的输入类型及其定性性能。

作为性能定性演示的一个例子,AI 算法经过训练可以输出 RGB 图像中各种对象周围的轮廓。 来自论文“学习细分候选人”。

定义边界

明确“任务是什么”的必然结论,就是要知道“任务不是什么”。 在计算机科学中,解决相关任务的难度对于没有经验的人来说并不明显。 正如XKCD漫画中所表述的那样:

因此,读者可能不清楚,可以下围棋的程序(例如AlphaGo)不能下国际象棋或做其他事情。 所以表情包设计,要清楚地说明问题是什么,不是什么问题。 再次引用 Julian Togelius 的博文:

建议:不要使用“人工智能”或“人工智能”等术语。 始终询问系统的局限性是什么。 询问玩“太空入侵者”和“蒙特祖玛的复仇”游戏是否真的是同一个神经网络。 (提示:不是)

不要忽视失败

即使对于狭窄的任务,人工智能系统也总是无法提供完美的结果。 指出这一点很重要,但也要注意这些错误是如何发生的。 将这些故障描述为意外或神秘可能会进一步强化系统中介的印象,从而向读者传达错误的概念。 更好的说法是,失败是由于复杂系统的不可理解的行为、人类未能设计出足够健壮的系统、使用有缺陷的数据或其他导致系统失败的原因。 承认人类决策(人工智能工程师)以及它们如何深刻影响系统(系统不仅仅是“人工智能”做出的决策)对于清楚地描述我们今天使用的人工智能非常重要。 正如我们的调查反馈中所述:

“理解数据/模式如何影响系统的问题;数据集通常太小/不完整/不需要执行任务;这是许多缺点的原因”

显示上下文中的进展

我们在报告新的人工智能结果时看到了一个令人担忧的现象,即报告这些结果及其意义,就好像它们是该领域的第一个发现一样。 例如,当谷歌发布其在嘈杂空间中的说话人识别的最新成果时,许多文章指出它“令人难以置信”,但没有提及该结果只是数十年来该主题研究的进一步进步。 虽然报告新想法及其影响非常有用,但这样做可能会导致更多不必要的关注。 再次引用Togelius的博客:

请记住:人工智能并不是一个新领域,很少有想法是全新的。 当前深度学习领域令人惊叹但有些夸大其词的进展源于 20 世纪 80 年代和 90 年代的神经网络研究。 因此,这些研究基于 20 世纪 40 年代的想法和实验。 在大多数情况下,前沿研究包括方法的微妙变化和改进,这些变化和改进早在研究人员诞生之前就已经设计出来了。 反向传播是为当今深度学习提供动力的算法,已有数十年历史,由许多人独立发明。

提示:在报告令人兴奋的新进展时,还请咨询年长或至少是中年的人工智能研究人员。 有些人在AI还没有很酷或者还没很酷之前就已经开始研究AI了,所以他们看到了AI繁荣的完整周期。 这些人可能会告诉你这个新开发是对哪个旧想法的改进。

关于这个话题的另一个建议是避免诸如“这种技术很快将使家庭机器人成为可能”之类的模糊表述,这些表述模糊而不是澄清了新研究的意义。 这个建议也适用于对研究的担忧。 现在最好报告可能的滥用情况,而不是警告未来不明朗的后果。 通常,任何新文章都代表着人工智能领域朝着巨大挑战迈出的一小步,这些文章应该清晰地表达出来。

综上所述:

我们希望这一系列推荐的最佳实践能够说明人工智能媒体报道中的一些不明显的陷阱。 当然吉祥物,适用于任何媒体报道的相同建议(多渠道采访、对某一领域有经济利益的受访者的观点持怀疑态度、避免诱饵和转换等)也适用于人工智能,但人工智能研究人员经常发现这让他们懊恼不已。 未遵循的建议:

作为人工智能研究人员,我们在这一领域投入大量精力是可以理解的,我们希望尽可能准确地向公众传达这一主题。 我们希望这篇文章能有所帮助,并鼓励记者联系我们,讨论我们如何进一步协助人工智能媒体报道。

相关报道:

网页链接

欲了解更多深度市场资讯,请点击下方小程序了解拓研产业研究院《2019AI人工智能行业报告》。

稿件来源:今日天网,大数据文摘编译(木今、王转转、马力)

“看”富三代ai人工智能怎么学,转发美好生活

最后编辑:
作者:nuanquewen
吉祥物设计/卡通ip设计/卡通人物设计/卡通形象设计/表情包设计