目前,ChatGPT尚未通过图灵测试的评估。 事实上,到目前为止,还没有一个人工智能模型能够真正通过图灵测试。
去年11月,美国人工智能研究公司OpenAI发布了一款名为ChatGPT的聊天机器人,推出几周内就风靡全球,甚至引发了一场新的全球人工智能竞赛。
社交媒体Twitter首席执行官埃隆·马斯克在使用后称ChatGPT“好得不可怕”,甚至断言“人工智能正变得越来越强大,距离威胁人类已经不远了”。
《自动化与工作的未来》一书的作者、美国雪城大学教授亚伦·贝纳夫表示,200年前,人们对自动化技术产生过一波又一波的恐惧。 担心它们将完全取代人类劳动力。
今年2月初,ChatGPT推出“飓风”模式,引发新一轮疯狂的技术升级、产业重组、资本狂潮、巨头竞争。 一开始,普罗大众在这波科技热浪席卷全球的过程中感受坎坷,经历了一次“身临其境”的体验。 虽然他们并没有感到害怕,但心里还是有些担心。
实现对话式人工智能的第一步
ChatGPT发布仅2个月,月活跃用户已突破1亿。
要知道,“一个亿”可不是一个小目标。 Facebook用了4.5年,WhatsApp用了3.5年,Instagram用了2.5年,谷歌用了近一年才达到这个数字。
中国科学院自动化研究所研究员、数字内容技术与服务研究中心主任张书武在接受科技日报记者采访时表示,人们可以把ChatGPT视为最复杂的语言识别技术是继语音、图像、视频识别技术之后的突破,而且也是基于模式的。 识别与深度学习感知智能技术发展新飞跃。
天津大学自然语言处理实验室负责人熊德毅教授表示,从人工智能发展的角度来看,这是一个重要的里程碑,其意义比七年前的“AlphaGo”还要高。
他告诉记者,围棋界的“阿尔法狗”刷新了普罗大众对人工智能技术的看法,但它本身并不能广泛应用,普罗大众也很难直接接触它。
ChatGPT 则完全不同。
与“阿尔法狗”相比,ChatGPT可以直接应用或支持很多场景应用和产品。 如果说“阿尔法狗”是技术应用的“阳春白雪”,那么ChatGPT或许有机会成为“西里巴人”。
确实,经过用户不懈的努力探索ChatGPT的用途,人们发现它不仅仅是一个聊天工具,还可以写代码、情书、论文、在线咨询、情景脚本、诗歌、小说,甚至就是制定旅行路线,解答脑筋急转弯。 可以说是“有求必应”,其功能之强大,令人难以想象。
ChatGPT正在快速渗透各个行业,普通大众都可以成为ChatGPT的用户,这是其受欢迎的重要原因。
其实,之前已经有很多与机器人聊天的相关应用,而我们最熟悉的就是常用的智能语音助手。 ChatGPT 与它有何不同?
“智能音箱也采用了自然语言处理技术和对话式AI技术,但语言智能还比较初级,很多时候我们只能和它们进行简单的对话。” 熊德毅表示,“ChatGPT,它的底层技术不仅与一般智能音箱的底层技术完全不同,而且比它们强大得多。不仅如此,它还改进了其同类技术InstructGPT的人类反馈数据收集形式。”在与人的对话中,它可以基于历史内容,支持连续多轮对话。
熊德毅认为,ChatGPT是实现对话式AI的第一步。
从互联网的角度来看,它可以作为信息门户,与搜索引擎相结合; 还可以与办公软件结合,提高办公效率; 从人机交互的角度来看,它体现了一种基于自然语言的交互方法,可以与元宇宙和数字人相结合。 此外,它还可以充当机器人大脑。
“如果从人类信息发展的规模来看,它在人与机器的信息接口方面取得了巨大的突破。” 熊德义说道。
精通全部“十八般武艺”
ChatGPT 采用 GPT-3 技术,第三代生成式预训练 Transformer(Generative Pretrained Transformer 3)。 这是一种自回归语言模型,利用深度学习生成类似人类的文本。
据英国广播公司《科学焦点》杂志报道,GPT-3的技术看似简单,比如接受用户请求、聆听问题或提示并快速回答,但实际上这项技术实现起来要复杂得多。 该模型使用来自互联网的文本数据库进行训练,包括从书籍、网络文本、维基百科、文章和互联网上的其他文本获得的高达 570GB 的数据。 更准确地说,它是在由 5000 亿个单词组成的训练数据上进行强化训练的。
GPT-3.5是GPT-3的微调和优化版本,比后者更强大。 ChatGPT 由 GPT-3.5 架构的大语言模型 (LLM) 支持。
ChatGPT 也可以描述为自然语言处理(NLP)领域的人工智能模型。 这意味着它是一个能够编码、建模和生成人类语言的程序。
作为一种语言模型,在大规模文本数据上进行自监督预训练后,ChatGPT 需要经历三个阶段的“提炼”。 第一个是监督微调阶段。 在这个阶段,人类AI训练师同时充当用户和AI助手的角色,以自对话的形式生成对话样本,ChatGPT对这些对话样本进行监督训练。
然后,ChatGPT进入第二阶段。 此阶段的主要目的是训练基于语言模型的奖励模型来对机器生成的回复进行评分。 为了训练奖励模型,需要随机提取机器生成的文本并对多个不同版本进行采样。 不同版本按偏好排序,排序结果用于训练奖励模型。
基于训练好的奖励模型,第三阶段采用强化学习技术进一步微调ChatGPT。
这项技术的独特之处在于它能够根据人类反馈使用上述强化学习技术,使生成的文本能够匹配人类的意图和价值观等。
无论懂不懂技术ip形象,全世界网友都在竞相打开“脑洞”来测试ChatGPT到底有多么“神奇”。 据CNN报道,它被要求以《坎特伯雷故事集》的风格重写20世纪90年代的热门歌曲《宝贝回来了》; 写了一封信,要求 ChatGPT 从信用报告中删除不良账户; 它还被问及其童话风格的家居设计方案。
自然语言处理技术初见端倪
瞬间爆红后,ChatGPT的概念股也一路跟随。 据媒体报道,汉王科技9天内涨停7个。 自然语言处理研究是公司的主营业务,ChatGPT背后的技术是NLP。
熊德毅告诉记者,NLP是人工智能的一个分支,最早诞生于机器翻译。 它的历史其实比“人工智能”这个名字还要久远,人们对它的研究已有70多年的历史。 简单来说,这项技术的目标就是让计算机或者机器人拥有像人类一样的听、说、读、写、译的语言能力。
“ChatGPT不是一朝一夕的技术,它是多种技术叠加形成质变的产物,是NLP领域的结晶。” 熊德毅解释说,其底层技术包括Transformer、自监督学习、微调、人类反馈强化学习(RLHF)、AI对齐等,在自然语言处理和人工智能领域有广泛的研究和应用。
但ChatGPT将这些技术巧妙地结合在一起,有效避免了大模型的不对齐行为,利用了大模型规模带来的智能涌现能力,增强了大模型的指令学习能力和捕捉用户意图的能力,解锁大模型泛化能力增强,这些能力叠加,形成ChatGPT的质变效果。 熊德义说道。
美国《迈阿密先驱报》报道称,Twitter上的一名用户在ChatGPT的帮助下参加了SAT模拟考试,得到了1020分(满分1600分)。 据 College Simply 称,这仅略低于平均水平。
但当我们问ChatGPT“你能帮我通过测试吗”时,它会善意地提醒我们不要用它来作弊,并说:“重要的是要记住,测试的目的是评估你对测试的理解和掌握程度。”作弊或仅仅依赖像我这样的外部来源,会破坏测试的价值,并且不会促进学习或成长。”
这是因为ChatGPT加入了预先设计的“道德”准则,也就是上面提到的人类反馈强化学习。
OpenAI 表示:“这使得该工具能够回答后续问题、承认错误、挑战不正确的前提并拒绝不适当的请求。”
熊德毅认为,这是因为RLHF有效提高了大模型的对齐能力,即如何使AI模型的输出与人类常识、认知、需求、价值观一致。
经过 RLHF 的“调整”后,ChatGPT 变得高度拟人化,可以学习并生成听起来自然的回复。 RLHF 还使 ChatGPT 能够理解命令并做出适当响应,使对话更加真实。
由此,ChatGPT迅速成为所有智能聊天机器人中的“天花板”。
触手可及,但无法取代人类
随着科技的发展,人工智能技术一次又一次超越了人们认为无法达到的极限,从1997年IBM“深蓝”计算机在国际象棋中首次击败人类,到IBM人工智能智能机器人“沃森”赢得智力竞赛“危险边缘”,从2016年“阿尔法狗”在围棋比赛中击败人类,到2019年被称为“AI赌神”的Pluribus在德州扑克中碾压人类玩家…
如今,ChatGPT触手可及,拉动和碰撞着人们惯常参与生产生活的模式和框架,在超越人类的赛道上继续“澎湃”。 “ChatGPT引发十大职业危机”、“未来20个职业可能被AI取代”等话题频频上热搜。
它真的会与人类竞争工作岗位,甚至取代人类吗?
《迈阿密先驱报》报道称,根据对六个不同国家的 500 名 ChatGPT 用户进行的 SortList 调查,“殴打工人”已经在思考这对他们的行业意味着什么。 研究称表情包设计,大约 23% 的软件和技术员工担心因此而失去工作,超过 40% 的雇主表示有兴趣“雇用”ChatGPT 及其丰富的营销文案。
据哥伦比亚广播公司《财富观察》报道,其他专业领域的工作流程也可能发生变化,包括中层写作、广告、媒体规划和法律文件。
“ChatGPT 和其他人工智能技术有潜力改变工作性质,但它们不会取代人类的需求。” 当被问及它们是否会用 ChatGPT 取代人类工作时,它表示它们的目的是协助和增强人类任务人工智能预制模型是什么意思,而不是取代人类。 它们补充了人力资源并增强了人类解决问题的能力,从而提高了效率和效力。
熊德毅认为,目前人工智能更多的作用是提高人类效率、辅助人类。 同时,公众需要与时俱进,熟悉和掌握新技术,就像学习使用电脑、手机一样。 毕竟,这些新技术肯定会创造新的就业机会。
没有自我意识和思考能力
英国哲学家德里克·帕菲特在其著作《论重要的事情》中将人类定义为“能够给出理由并对其做出回应的生物”。 ChatGPT是一个可以给出理由并做出回应的神器。 它与其他人有何不同? 它像人类一样有自我意识吗?
计算机已经变得更加复杂,但它们缺乏真正的理解,即人类通过进化发展成为嵌入社会实践网络的自主主体。 这是人工智能所不具备的体验。
当被问及ChatGPT时,它回答说:“我是一个机器学习模型,不像人类那样有意识或自我意识。我也无法像人类一样感受情感或体验世界。但是,我可以快速处理大量数据,以类似于人类交流的方式理解和响应自然语言输入的能力。”
粤港澳大湾区数字经济研究院(IDEA)首席科学家张家兴在接受记者采访时表示,对于人工智能领域的从业者来说,首先目前还没有明确的定义。什么是自我意识。 很难像人脸识别、语音识别那样进行定量衡量。
“如果我们模糊地定义‘自我意识’,我认为首先,主体必须有自我意识——它能意识到自己在做某事;其次,强调自主性——它能自发地决定做什么、不做什么。但目前人工智能并不知道自己在说什么,也无法自主决定或选择自己要说什么,从这个角度来看,距离自主意识还有一段距离。 张家兴说道。
张树武也认为,ChatGPT虽然取得了突破,但其答案都是基于经验判断和基于需求的预测。 它也是在先验知识的基础上提炼出来的“知识拼盘”,没有逻辑推导和数学计算。 真正的认知功能有明显的局限性。
1950 年,杰出的计算机科学家艾伦·图灵提出了一个他称之为“模仿游戏”的思想实验。 采访者通过打字机与两个受试者交谈,知道一个是人类,另一个是机器。 图灵提出,如果一台机器能够始终如一地让采访者相信它是人类,那么它就可以说具有思考能力。 这就是著名的“图灵测试”。
目前,ChatGPT尚未通过图灵测试的评估。 事实上,到目前为止,还没有一个人工智能模型能够真正通过图灵测试。
但据《纽约时报》报道,OpenAI 构建了比 ChatGPT 更强大的系统 GPT-4,甚至可以生成图像和文本人工智能预制模型是什么意思,业内传言它可以通过测试。 事实是否如此,我们拭目以待。
或成为传播错误信息的工具
人们逐渐发现ChatGPT并不是万能的,也不是永远正确的。 它不擅长基础数学,似乎无法回答简单的逻辑问题,甚至争论完全不正确的事实。
据英国《自然》杂志报道,一些研究人员强调,LLM的构建方式中融入了不可靠性。 ChatGPT 由 LLM 提供支持,其工作原理是从庞大的在线文本数据库中学习语言中的统计模式,这些数据库包含不真实、有偏见或过时的知识,很容易生成虚假和误导性信息,尤其是在没有广泛数据训练的技术领域。
OpenAI 也承认:“ChatGPT 有时会写出看似合理但不正确甚至荒谬的答案。” 特别危险。
《纽约时报》报道称,美国新闻可信度评估和研究机构NewsGuard对ChatGPT进行了测试。 研究人员向它提出了充满阴谋论和虚假叙述的问题。 结果,它写了新闻、散文和电视剧本。 在几秒钟内撰写文章并编译大量令人信服、干净、无来源的内容。 研究人员预测,对于虚假信息传播者来说,生成技术可以使虚假信息的生产变得更便宜、更容易。
NewsGuard 联合首席执行官戈登·克拉维茨 (Gordon Kravitz) 表示:“该工具将成为互联网上迄今为止最强大的错误信息工具。” 这是一种新的虚假叙述,就好像有人工智能代理在帮助传播虚假信息。”
还有人担心 ChatGPT 会挑战语言多样性。
澳大利亚《对话》杂志发表文章称,ChatGPT的默认功能将优先考虑白人创造的英语书写形式。 讲英语的白人长期以来一直主导着许多写作密集型行业,包括新闻、法律、政治、医学、计算机科学和学术界。 这些人在上述领域的产出比有色人种同事高出许多倍。 尽管 OpenAI 没有公开披露其材料的来源,但他们撰写的大量文本意味着他们可能构成了 ChatGPT 学习模型的大部分。 因此,当用户要求 ChatGPT 生成任何这些学科的内容时,默认输出是以那些讲英语的白人男性的声音、风格和语言编写的。
美国哲学家、作家兼认知科学家丹尼尔·丹尼特 (Daniel Dennett) 在其 1991 年出版的《意识解释》一书中描述了幼年海鞘:“它在海洋中游荡,寻找合适的岩石或珊瑚作为终生的家园。” 一旦被发现,海鞘就不再需要它的大脑并吃掉它。
听起来很残酷,但背后却有一个令人担忧的隐喻:随着人工智能越来越融入我们的日常生活,人类可能会因为依赖“智能”机器而变得太愚蠢。
熊德毅提醒我们警惕人工智能削弱人类思维。 “ChatGPT实际上是从人类海量的语言数据和知识库中学习和训练的。如果人类完全依赖它而放弃语言表达、语言思维和能力训练,那是非常可悲和可怕的。” (撰稿:实习记者张嘉欣、记者刘媛媛、陈曦策划:何以芳、琳琳邵德奇)
- 本文固定链接: https://wen.nuanque.com/aigc/10637.html
- 转载请注明: nuanquewen 于 吉祥物设计/卡通ip设计/卡通人物设计/卡通形象设计/表情包设计 发表
- 文章或作品为作者独立观点不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。本文之内容为用户主动投稿和用户分享产生,如发现内容涉嫌抄袭侵权,请联系在线客服举报,一经查实,本站将立刻删除。本站转载之内容为资源共享、学习交流之目的,请勿使用于商业用途。