首页 > AIGC > 人工智能预制模型是什么意思-中国智库报告丨人工智能大规模模型井喷的出现是喜还是忧?
2023
08-15

人工智能预制模型是什么意思-中国智库报告丨人工智能大规模模型井喷的出现是喜还是忧?

中新网北京6月26日电(记者张绵绵)当前,世界各国大规模人工智能模型呈现出激烈竞争。 以“ChatGPT”为代表的大型模型一同发布。 中国电子信息产业发展研究院近日发布《赛迪智库观点丨冷眼人工智能大模型热潮》。

大企业抢着推出大车型背后隐藏着哪些问题? 如何推动大模型相关技术发展? 以及如何建立健全大型示范监管机制? 中国之声记者张绵绵是对话项目负责人,钟欣龙是中国电子信息产业发展研究院未来产业研究中心研究员、高级顾问。

智库文章:《赛迪智库观点丨冷眼人工智能大模型热》

智库:中国电子信息产业发展研究院

报告作者:钟新龙,中国电子信息产业发展研究院未来产业研究中心研究员、高级顾问

一群懂天文、懂地理的超级学者

人工智能模型是一种可以利用大数据和神经网络来模拟人类思维和创造力的人工智能算法。 它利用海量数据和深度学习技术来理解、生成和预测新内容,通常具有数百亿甚至数万亿的参数,并且可以在不同领域和任务中展现智能。 比如大家熟悉的“ChatGPT”就属于“大型号”。 这么大的模型到底能做什么呢? 它与过去的人工智能有何不同?

记者:人工智能这个大模型对于很多人来说还是很陌生的。 您能用通俗的语言给我们解释一下,人工智能的大模型是什么?

钟欣龙:现在业界将其定义为通用人工智能模型。 什么是通用人工智能? 相当于在大众心中有一群超级学者,可以解答一切问题人工智能预制模型是什么意思,随时随地做出回应。 这是一个非常平易近人、几乎拟人化的工具。 一般来说,大型模型会学习大量数据,然后理解并生成日常生活中使用的自然语言。

例如,中文和英文是人类社会使用的自然语言,包括图像、音频或其他常见类型的数据。 大模型就像一个巨大的超级学者集群,也就像人类学习各种例子。 比如,我们学习标准范文、看标准例图、听典型音乐、看典型视频等各种维度的信息来分析当前人类世界的信息构成。

记者:这样的超级学者集群和过去的人工智能有什么区别? 现在的“大模型”相当于人工智能AI的底层应用吗?

钟欣龙:是的,可以这么说。 因为通常都是这样划分的,所以就以去年下半年为时间节点。 在此之前,人工智能主要处于决策人工智能时代。 举个简单的例子,比如我们要做语音识别或者语音转文字,这是日常用户都会遇到的事情,还有图文转换。 这些人工智能应用都是相对简单的算法,特定于单一场景。 自然,不存在场景迁移的可能。 再举个例子,我能否做出所谓的算法来满足广义的任务需求,传统的决策人工智能做不到,因为它只能在特定的场景、特定的模式下使用。

以ChatGPT为例的大模型自去年下半年开始流行以来,业界将其称为“通用人工智能大模型”。 它可以解决比较通用的问题,而且最重要的是它不需要使用编程语言,比如经常接触的C语言、Python或者Java等编程语言。 这是一个非常突出的优势,因为编程语言不符合日常大众的使用习惯,大家在日常语言中必须使用自然语言进行交流,比如中文和英语。 以这个大型模型为例,它可以使用日常语言进行交流,所以没有门槛,每个人都可以使用它,你可以直接提出任何问题,而且几乎大部分问题都可以得到“像样”的答案答案,这就是这种通用人工智能模型与过去决策人工智能的根本区别。

大尺寸车型热潮来临,成本等隐忧值得警惕

目前,在大型车型领域,国内外巨头之间的竞争已经日趋激烈。 OpenAI已成为引领大型模型开发的标杆公司。 预计OpenAI将在今年第四季度发布更高级的ChatGPT-5版本。 5月24日,微软宣布Win11接入GPT-4; 5月10日,微软的直接竞争对手谷歌推出了新一代大型模型PaLM 2,超过25种AI产品和功能已全面接入PaLM 2; 亚马逊与人工智能初创公司Hugging Face联合开发了ChatGPT的竞争对手——BLOOM; 国内领先科技公司也在密集发布大型自研车型; 这些大型车型密集涌现的背后,蕴藏着怎样的商业价值? 同时存在的最大隐忧是什么?

记者:您能帮我们总结一下目前大型车型的总体特点吗?

钟欣龙:首先,比较明显的趋势是行业开始采用大模型进行应用赋能。 例如,微软在3月底发布了Copilot's Office。 他们将AI融入到Office应用中,可以为应用提供最基本的底层支持。 比如可以以对话的形式一键生成PPT,比如发出命令快速处理表格等,其实国内是有标杆的。 金山现在应该开始内部测试,即将大模型处理能力内置到WPS中。

其次,人工智能的底层应用趋势是对垂直行业的赋能。 比如在国外,我们知道BloombergGPT其实就是一个典型的赋能金融行业的大型模式。 从长远来看,几乎所有行业领域都将面临大规模模型重构,而行业智能化的基础将植根于大规模模型。

当然,这需要一个应用迭代开发的过程,也需要时间沉淀。 也许未来3到5年,会在这个方向上长期努力。 这就是国际发展形势。

记者:为什么国内外这些龙头企业纷纷研发大型车型? 他们认为大型模型有哪些优势?

钟欣龙:目前行业可能主要关注这一点,就是大车型的商业价值。 不客气地说,大规模模型应用的发展最终还是取决于商业价值。

目前比较早期的应用,比如将类似GPT的大规模语言模型接入自动化客服、自动化流程办公系统,或者用固定流程、固定模板做一些辅助工作ip形象,可以显着提高效率。 并降低成本。 比如艺术插画、文档定制、商城平台客服等都可以接入大型模型底层,将实现比传统机械人工智能更高的可用性和更强的有效性。

另外,由于这么多年的积累,特别是信息化、数字化这10年到20年,我们拥有的数据比历史上任何时期都多。 训练大型模型的重要组成部分。 即使将大模型提前放在历史维度的某个时刻,由于数据不足,训练效果也可能不会很好。

最后,目前在人工智能领域,包括顶尖公司在内的几乎所有研究团队都在竞相开发最先进的大规模模型,并且很多大型顶级模型已经开始开源。 我认为这种竞争是一种良性竞争,有利于促进技术的发展和技术的共享。

记者:国内外大型车型集中亮相的背后,是否存在技术层面的隐忧?

钟欣龙:第一,所谓成本问题。 从培训成本来看,以ChatGPT为例,培训成本大概是几百万美元。 在高度迭代、重复训练的过程中,进入门槛动辄上亿,还不包括算力成本。 如果要算上算力的成本,比如几万、几十万的专业计算卡,这就是几十亿的成本。 如此高昂的成本将直接将很多小型研究机构或中小型企业排除在外,从而导致人工智能研发向顶级资源集中,加剧不平等。

第二,目前很多大型模型的训练会导致大量的能源消耗,比如碳排放,包括电力消耗人工智能预制模型是什么意思,这会增加经济成本和环境成本。

第三是数据成本。 一般来说,大规模的模型训练必然需要大量的数据。 不仅数据量要大,而且质量也要高。 在这个过程中,收集和清理大量高质量的训练集也需要大量的时间和人力资源。

第四吉祥物设计,在人工智能竞争方面,也会存在一些维护和更新成本。 例如,以GPT为例。 从GPT-2到GPT-4,参数数量不断增加,反复迭代优化训练的成本也会随之增加,运维成本也会相应增加。 不仅更新成本增加,运营商还要做维护。 重复维护、操作和更新的成本都随着大模型的复杂性和参数规模非线性增加。

解决隐私泄露、成本增加等问题需多措并举

随着大机型的快速发展,业界普遍看好大机型的未来前景,但隐私泄露等风险不断出现。 应该如何看待此类风险? 应用赋能成本如何实现成本回收和增量收入的业务路径? 遇到这样的问题怎么解决呢?

记者:很多人担心大模型会泄露隐私,带来风险。 你怎么看待这件事?

钟欣龙:举一个很简单的例子,如果存在这些相关风险,如果没有基本的预防和纠正,就会存在潜在的犯罪风险因素。 通过大型模型获取违法犯罪的方法和手段必须予以禁止。 目前对于自己的大模型的训练,你也会发现里面好的训练集的来源存在一定的版权纠纷。

我们可以看到,在国外,比如Google、OpenAI都与此类新闻出版机构签署了版权授权证书,这说明他们在训练数据集的过程中实际上存在着版权纠纷。 是的,所以这也是一个风险问题。 目前来看,大模式需要关注的治理体系还有很多工作要做,特别是在伦理治理和法律治理方面。

记者:针对上述问题以及非常突出的成本问题,有没有更好的解决方案?

钟欣龙:针对这些问题,首先做一些研究,看看是否有好的方法来减少计算资源和能源消耗。 比如我们可以做一些研究,或者使用更高效的训练算法和硬件优化来减少对计算资源和人员的需求。

第二,针对AI过于集中于头部的情况,是否可以考虑建立一些公共计算资源和数据集,可以向公众或者这个行业的普通从业者开放。 这样,更多的中小型研究机构或公司就可以参与大型模型的研发。

第三,要注重数据隐私保护,包括在收集或使用数据时需要遵守与数据隐私和保护相关的法律和道德规范。 例如,我们需要采用合理的数据脱敏和匿名化技术,然后制定与版权人相关的使用授权规则,同时制定类似的用户显式同意声明和风险因素声明。

第四,尽可能提高大模型的可解释性。

我们回顾人类做决策的时候,每个决策都有一个逻辑链条,而且我们是一步步做决策的,所以人类的决策是可以解释的,但是大模型当前的生成结果是无法解释的,所以就导致了大模型在赢得公众信任方面可能还存在一些不足。 针对不足之处,通过研究大模型的可解释性,我们可以从伦理上从底层机制获得社会和公众的信任,甚至在相关治理方面会有更加安全可靠的治理手段。

最后,关于防止偏见和保护公平,这是目前几乎所有大型模型都会遇到的核心问题。 例如,在数据收集和训练阶段,可能存在一些歧视性、不公平和偏见的价值观,生成的内容中不可避免地会涉及到这些问题。 针对该问题,可能需要研究如何采用更加公平或者反歧视和价值修正的算法,对数据和模型进行修正和审计。

最后编辑:
作者:nuanquewen
吉祥物设计/卡通ip设计/卡通人物设计/卡通形象设计/表情包设计