自动生成电路的思想起源于图灵老师邱奇,被誉为编程语言的圣杯。
而人工智能驱动的芯片自动设计将是设计界的一场革命!
前段时间,纽约大学的Chat-Chip项目引发了一阵热潮。 与此同时,中国科学院计算技术研究所在arXiv上发布了ChipGPT工作。 两队争夺领先,差距仅一天!
这场“人工智能芯片大战”正如火如荼地进行着,每个人都在用自己的法宝让芯片行业翻云覆雨。
尽管人工智能短期内很难完全取代人类劳动,但人工智能与人工智能的联合设计将相辅相成,将大大提升芯片设计的生产力和创新性,这关系到芯片设计的未来。芯片设计!
论文地址:
杜克大学陈怡然教授在微博上表达了她对自动芯片生成领域的担忧。 她认为这个话题令人兴奋,中科院计算技术研究所的ChipGPT也令人瞩目,但真正实现芯片自动化生成还有很多工作要做。 任重而道远。
ChipGPT的作者导师王莹博士认为,现有的工作只是对大语言模型交互芯片设计潜力的初步评估。 如何将其集成到现有的EDA流程中,实现无人值守的芯片设计将成为下一步的目标。
虽然陈教授提到的ChipGPT也是基于大语言模型的自动芯片设计,但与Chip-Chat不同的是,中科院计算所提出的ChipGPT也探索了芯片性能和面积的优化方法。
不仅如此,与ChatGPT相比,ChipGPT在芯片设计上还节省了高达47%的面积。
大模型芯片设计PK战:Chip-Chat vs ChipGPT?
这两部作品虽然都是利用大型模型的力量来生成芯片,但是视野广阔,一眼就能看到一切。 不过,人工智能仍处于发展初期,后续工作依然艰巨。
对此,ChipGPT作者表示,如果要采用大型模型进行自动化芯片设计,三大问题迫在眉睫:
第一个问题是,我到底要在模特的对话中加入什么? 芯片设计涉及到的知识实在是太博大精深了。 如果你必须把所有东西都塞进模型的上下文中,最终的结果可能和“一只熊挣脱玉米”一样,然后忘记了一切。 如何选择模型的“迎合内容”,是一个让芯片设计师头发变白的问题。
第二个问题是,如何利用“Prompt Engineering”让这个大模型生成的芯片变得更好、更强大? 要知道,瞬发工程本身就是一门神秘的玄学,大型模型想要一次性全部领悟是极其困难的。
第三个问题是,如何控制大模型生成的HDL,使设计的芯片在性能、功耗和面积之间达到最佳平衡? 任何筹码都面临着这三者之间的博弈。 让大型模型可以自由操控,简直就是天方夜谭。
如果我们能翻越这“三座大山”,自动化芯片设计的未来指日可待。 但话又说回来人工智能芯片是什么意思,即使解决了这三个问题,真正的工业化还很遥远。
所以芯片设计人员暂时放心,短期内你的工作应该很稳定!
芯片综合实力之源,大模型输入有何深奥秘密?
HDL = ChipGPT(Specification)
HDL = Chat-Chip(Prompt List)
Chip-Chat的纯聊天输入很难定制,所以ChipGPT研究从芯片规格开始!
Chip-Chat可以让你自由地聊天、玩耍,不留痕迹,而ChipGPT则一丝不苟,只依靠规范来指导你。 虽然聊天可以研发,但根据规格保证生产准确。
因此,ChipGPT研究从规范入手,放到聊天中,尝试直接应用芯片规范,但发现了很多困难:
首先,从规范中提取大量无用信息,例如模块运行错误模式、复杂时序等。大模型的收费取决于代币数量,因此应从规范中提炼有用信息。
其次,芯片规格混乱无序,自动提取GPT无法保证准确生成。 因此,ChipGPT选择手动提取,创建规范表单,并将输入归属于表单信息。
基于芯片手册,基于简单的提示,ChipGPT和Chip-Chat的应用场景有很大不同!
ChipGPT 的研究目标与基于提示的 Chip-Chat 有很大不同。
ChipGPT旨在为研究人员提供一个整体框架来指导大模型芯片硬件的自动生成。 Chip-Chat 告诉研究人员大型模型给自动硬件生成带来了哪些新挑战和机遇。
因此,ChipGPT可谓一本指南,指导工程师和研究人员如何合成大模型芯片。
ChipGPT 为自动芯片生成研究提供了指南。 想玩转大型号芯片的设计者可以借鉴一下。 它从芯片规格的提取入手,避免大模型直接加工规格带来的负面影响。 手动创建规格表对输入信息进行分类,可以更好地解决大型模型处理不规则信息的问题。
相比之下,Chip-Chat是大型模型自动硬件生成领域的一次新尝试。 更像是让研究人员知道大型模型给这个领域带来机遇和挑战,是一种测试和探索应用。 因此,两种方法虽然都是基于同一个大模型自动生成芯片,但其应用场景和目的却截然不同。
结束神秘学! ChipGPT让Prompt Engineering逐渐“可控”
根据规格输入也会被分解成小提示,但在芯片生成中,不规则的提示会带来一些问题:
1)大模型自动芯片设计卡通人物,输出结果的重复性和稳定性堪忧!
如图7所示,大型模型玩芯片设计,生成代码的稳定性是一个大问题。 即使给出相同的提示,其生成的Verilog代码也常常“不一致”,影响生成结果的可重复性和稳定性。
这可以让想要用大模型自动设计芯片的人又爱又恨,成为路上最大的绊脚石。
为了解决这个问题,使用一定的Module接口是一个好方法。 明确了接口之后,大型模型的输入处理的不确定性就可以大大降低,生成结果的稳定性自然会得到提高。
这就像父母提前告知孩子作业要求一样。 大模特提前知道需要遵循的“规则”ip形象,自然能高效稳定地完成“作业”。
2)芯片连接信号,如何解开这条整体上最难理清的“麻烦链条”?
大模特一口就能让人变胖,对健康不利。 同样,使用提示同时处理多个约束将显着降低为大型模型生成的代码的质量。
就像人吃饭一样,一次吃太多会导致消化不良。 对于大型模型来说也是如此。 如果一次处理太多约束,很容易混乱并导致输出错误。
在图8中,如果在同一个提示中也放入额外的信号约束,那么大模型必然会处理得很匆忙,这对芯片设计的正确性会产生很大的影响。
相比之下,如果提取额外的约束(例如Ready-Valid信号)并放入下一轮提示中,那么大模型就可以很容易地被逐一“消化”,然后可以正确地合成界面。
这就好比人吃饭的时候,分多次适量吃,而不是一次性吃太多,更有利于消化吸收。
因此,对于大型模型,尽量避免一次处理过多的约束是一个简单而高效的原则。 让它生成高质量代码的最佳方法是逐步输入,而不是一次“塞入”太多因素。
对于自动化芯片设计来说,通过多轮提示,提取额外的约束并逐步输入,可以更好地解决大型模型处理多个约束带来的问题,让其有序地完成设计任务。
3)对于大规模模块生成,我们还需要克服多少障碍才能实现自动化设计的“规模取胜”效果?
如果想让大模型自动生成大规模模块,如果直接使用整个大模块的描述输入,效果可能会“一塌糊涂”。 这就像让孩子直接处理整本课本一样。 他们难免会被困难“吓倒”而无从下手。
相比之下,从小的功能模块开始,逐步组合生成大模块,可以避免难度过高带来的问题。 这就像教科书分章讲解一样,让读者一步步掌握。
ChipGPT采用的“从小到大”的方法从小模块功能开始,逐渐用一系列提示代替单个提示,并将它们组合起来生成大模块,从而避免了直接处理大模块描述带来的问题。
因此,采用“分步”的方法从大型模型自动生成大型模块至关重要。 直接处理整个大模块的描述过于困难和复杂,达不到好的效果。
通过从小的功能模块开始,逐步组合输入,让大模型逐渐掌握并生成大模块,可以更好地避免这个问题。
这实际上是人工智能发展的一般规律。 通过避免太难一次性处理的任务,选择逐步训练和生成的方法,可以最大限度地发挥人工智能的学习和生成能力。
对于自动化芯片设计来说,要实现大规模模块的自动生成,采用ChipGPT的“从小到大”的方法,从小功能模块开始,组合输入,逐步生成大模块,无疑是一条比较可行的路径。
指责大模式无济于事,PPA平衡最终还是要靠自己的努力吗?
虽然大模型很智能,但生成的代码质量不如手工。 这也是研究工作面临的最大问题。
一般来说,基于GPT的设计依赖于反馈迭代,但现有的反馈方法只关注功能,很难生成考虑性能、功耗和面积的芯片。
ChipGPT的作者意识到了这个缺点,因此他添加了一个输出管理器来管理反馈并及时优化芯片的PPA。
这就好比老师不仅检查作业的正确性,还关注笔迹、表达等方面,可以帮助学生在更广泛的方面有所提高。 输出管理者相当于老师。 不仅检查功能反馈,还关注PPA等方面,及时提醒大模型进行改进。
因此,对于大型号自动化设计芯片来说,仅靠功能反馈是不够的。 还必须考虑 PPA 和其他方面,以生成全面且高质量的设计。
仅仅依靠大型模型很难完成这项任务,而且很容易忽视某些方面。 输出管理器的加入可以有效弥补这个缺点,及时检查PPA等指标,让大模型得到全面的反馈,生成更高质量的代码。
大型模型的自动设计并不局限于生成一种设计方案,它可以生成多种方案供选择,这给研究工作带来了更大的灵活性。
通过添加后端组件,ChipGPT可以在每一轮中生成不同的代码,然后使用枚举方法来选择最符合目标的代码。 这种方法比GPT简单的随机输出要好得多。
就像GPT自动生成的矩阵乘法电路一样,虽然实现了相同的功能,但可以产生不同的解决方案,在时间延迟和面积之间进行权衡。
利用这个优势,可以生成不同版本的代码。 如表3所示,按钮计数生成5个程序。 通过检查后,区域不同。
表4显示,如果选择不同的标准,最终输出是不同的。
因此,ChipGPT这种加入选择机制的方法,可以根据不同的目标选择最优解,显着提升效果。
正如作者提到的,如果目标是最优区域,与不添加反馈的方法相比,区域优化率可以达到47%。
这表明大型模型的自动设计不应仅限于生成一种解决方案,添加选择机制可以产生更好的设计。
ChipGPT是一种每轮生成不同代码然后选择最符合目标的解决方案的方法,可以利用大模型生成多个解决方案并获得更好的设计解决方案。
对于研究人员来说,这不仅为大型模型的自动化芯片设计提供了新思路,也表明选择机制在释放大型模型潜力方面发挥着巨大作用。
自动设计与盲目生成不同。 添加选择机制可以让大型模型在自动设计的同时实现优化目标。 这是实现高质量设计的关键因素之一。
在芯片设计方法之争中,ChipGPT 能否胜出?
ChipGPT的结论表明,与传统敏捷方法相比,代码量可减少5.32-9.25倍。 利用大型语言模型,ChipGPT 可以显着加速芯片开发。
在优化面积模式下,ChipGPT的面积减少最多可达47%,比原来的ChatGPT模型还要多。 它还将大型语言模型的正确性从概率正确提高到规则正确。
总之,ChipGPT让芯片开发飙升,提高效率。 与传统方法相比,编码量减少了5-9倍,这意味着开发周期可以大大缩短。 利用大语言模型,ChipGPT让芯片开发瞬间“升级”。
在面积优化方面,ChipGPT也表现出色,最多可以减少47%的面积,比ChatGPT原来的大模型还要多。 这表明,在实现设计自动化的同时,ChipGPT还可以实现更高的设计优化。
此外,ChipGPT还提高了大型语言模型的正确性,从概率正确到规则正确。 这意味着大型语言模型的输出结果更加准确可靠,而不是仅仅依靠概率。
所以,总体来说,ChipGPT在三个方面取得了重要进展:
1)编程效率大幅提升,编码量减少5-9倍,芯片开发周期大大缩短。
2)实现更高的设计优化,面积减少高达47%,优于ChatGPT模型。
3)提高大型语言模型的准确率,从概率准确率到规则准确率,输出结果会更加准确。
这充分证明大语言模型可以促进芯片开发的自动化,在自动化的同时实现设计优化。 这为大语言模型在更广泛领域尤其是工业应用中的应用提供了理论基础和经验依据。
芯片自动生成难以识别的获胜者,并使用评估标准来解决难题!
ChipGPT从三个角度评估自动芯片生成方案:
1)正确性:生成的硬件描述是否正确。 ChatGPT 和 ChipGPT 在概率上是正确的。
2)完整性:方法所覆盖的设计空间的范围。 ChatGPT 和 ChipGPT 是通用硬件生成器,可以描述所有大小和类型的逻辑。
3)表达能力:输入语言的生产力。 ChatGPT 和 ChipGPT 使用自然语言,是最先进的。
因此,总的来说,ChatGPT 和 ChipGPT 是概率上正确的、通用的硬件生成器,并且在三个维度上具有最高的表达能力。 这意味着它们可以生成各种类型硬件的概率正确的描述,并且输入法是最高效的自然语言之一。
这为比较不同的自动芯片生成方法提供了更全面、客观的评价体系。 对于研究人员和相关公司来说,这有助于选择最合适的方法并实现利益最大化。
总之,要实现芯片自动生成的工业化应用,选择最优的方法至关重要。
ChipGPT提供的评估体系为做出最佳选择提供了更加客观的依据,这无疑有利于相关技术的产业推广。
因此,这些成果也在一定程度上为大语言模型等新技术的产业化应用奠定了基础。
下一步:无人值守的AI自动化芯片设计可能吗?
Chat-Chip 和 ChipGPT 已经证明了大型语言模型在 RTL 设计中的巨大潜力。 考虑到大型语言模型通常是从包括代码在内的大型且丰富的文本语料库中训练出来的,其知识储备远远超出了用于实现 RTL 设计的范围,我们观察到它也具有一定的能力来解决芯片设计过程中的其他任务,例如根据 EDA 工具的报告给出优化 PPA 的想法甚至设计规范。
此外,现有的工作如AutoGPT、ChatGPT Plugins等进一步证明大语言模型具有分解任务和操作工具的能力。 因此,一个自然的想法是大语言模型能否驱动完整的芯片设计过程:即自主分解用户用自然语言描述的芯片/IP设计需求、设计规范、RTL实现,由用户给出,并且通过与EDA工具交互,进一步调试和PPA(性能/功耗/面积)优化,最终获得物理布局。
为此人工智能芯片是什么意思,基于ChipGPT的自动化框架ChipGPT2.0构建了这样一个原型。 与需要设计人员不断交互和处理反馈的Chat-chip方法(Human-in-the-loop)相比,ChipGPT2.0可以初步完全通过独立设计UART控制器、8位CPU和RISC等通用组件-V CPU,所得设计具有一定的可用性,证明无人值守的AI自动化芯片设计是可能的。
当然,如上所述,基于大语言模型的设计仅实现了概率正确性,我们构建的原型并不总是完全工程可用的。 但是,我们认为这样一套自动设计方法是对传统基于手动的设计方法的重要补充。
大语言模型完全自主设计的UART控制器布局
完全自主设计的大语言模型8位MCU布局
大语言模型完全自主设计的RISC-V CPU布局
大语言模型是芯片自动生成的华山之路吗?
与使用自然语言和大型模型辅助设计的方法相比,程序综合方法可以提供更高的方法鲁棒性和稳定性。
该领域的代表性工作包括中国科学院计算技术研究所智能处理器研究中心提出的自动化CPU设计方法。 该方法以程序综合为中心,可以使用输入输出对(IO示例)直接生成网表级电路。
该方法准确度较高。 通过这种方法设计的CPU自动生成的准确率接近100%。 理论上,通过放大测试用例,可以达到100%的功能准确性。
因此,总的来说,与大型语言模型相比,该方法更有以下两点优势:
- 本文固定链接: https://wen.nuanque.com/aigc/19737.html
- 转载请注明: nuanquewen 于 吉祥物设计/卡通ip设计/卡通人物设计/卡通形象设计/表情包设计 发表
- 文章或作品为作者独立观点不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。本文之内容为用户主动投稿和用户分享产生,如发现内容涉嫌抄袭侵权,请联系在线客服举报,一经查实,本站将立刻删除。本站转载之内容为资源共享、学习交流之目的,请勿使用于商业用途。