“麻省理工学院提出了可以压缩模型并鼓励代理商探索的AI框架”
在年国际学习与显示会议( iclr )上接受的两篇论文中,麻省理工学院的研究者研究了一种让软件代理探索环境的新方法和修剪算法,以使ai应用更高速地工作。 总的来说,这两种做法可以促进自主工业、商业和家用机械的迅速发展,这些机械虽然所需的计算量少,但具有比目前的野外产品更高的功能。 例如,考虑在raspberry pi上构建一个库存检查机器人,可以更快地学习杂货店小岛的导航方法。 )
好奇心算法
一个小组编制了元学习算法。 该算法是生成52,000个搜索算法或移动代理对周围环境进行广泛搜索的算法。 他们明确的两个是全新的,进行了探索,改进了一系列模拟任务的学习。 从登上月球车,举起机械臂到移动像蚂蚁一样的机器人。
的元学习系统首先选择一套高级操作,如基本程序、机器学习模式等,指导座位记住以前的输入、比较现在和过去的输入、采用学习方法改变自己的模块等各种任务的执行。 元学习系统共计从近3次的操作中购买,一次最多整合7个,制作了记述上述52,000种算法的计算图。
测试所有算法需要几十年。 因为,这位联合作者通过从代码结构中排除预期性能较差的算法,限制了对最佳算法的搜索。 然后,小组在基本的网格级导航任务中测试了最有前途的候选人。 这项任务需要大量的探索,但计算量最少。 优秀的候选人的表现成为了新的标准,随着时间的推移,越来越多的候选人被淘汰了。
研究人员表示,4台机器搜索了10个多小时,找到了最佳算法。 100个以上性能高,前16个有用新奇,性能和人工设计的算法一样好(或者优于人工设计的算法)。
该团队将前16个模型的性能归因于两个共享的发现功能。 首先,代理人在有搬家机会的新地方获得报酬。 在第二个模型中,一个ai模型学习和预测代理的未来状态,第二个模型一边回忆过去,一边协作预测现在。 这样,如果预测错误,双方都会奖励自己,表示发现了新的东西。
研究人员表示,元学习过程将生成高级计算机代码作为输出,因此可以分析这两种算法来了解决策过程。 麻省理工学院的研究生马丁·施奈德( martin schneider )在声明中表示:“我们生成的算法可以由人类读取和解释,但我们必须通过各自的变量和操作进行推理,以及它们 他与研究生ferran alet、mit计算机科学和电气工程教授leslie kaelbling和tom slozano-p rez共同撰写了这项研究。 利用计算机判断大量算法的能力,以及我们人类解释和改进这些思想的能力,设计算法和业务流程是一个有趣的公开挑战。
缩小ai模型
在两项研究的第二项中,麻省理工学院的团队解释了一种框架,以可靠的方式压缩模型,并使其能够在资源有限的设备上运行。 研究人员承认,他们不理解为什么它有这么好的工作,但他们主张它比其他压缩方法更容易和更快地实现,包括被认为是最先进的压缩方法。
这个框架是彩票假说的产物,这篇论文表明,如果在训练中识别正确的子模型,模型可以减少90%的要素,表现得很好。 该研究的共同执笔者说:“不是偶然写了彩票的假说,而是推荐将模型拉回初期的训练状态。 不需要参数(例如,模型内部的配置变量,其值可以根据给定值进行估计)的数据。 此裁剪方法通常会随着时间的推移而降低模型的精度,但可以接近原始精度。
对更广泛的ai研究行业来说,这是个好消息,其广泛的可访问性和可持续发展问题还没有得到处理。 去年6月,麻省大学阿默斯特分校的研究人员发表了一项研究,估计训练和检索某个模型所需的电量约为626,000磅二氧化碳排放量,约相当于平均寿命的5倍。 美国车。 最近的一份synced报告显示,华盛顿大学的grover机器学习模式旨在生成和检测虚假信息,在两周的培训中花费了25,000美元。
麻省理工学院助理教授宋涵说:“看到新的修剪和再培训技术飞速发展,我非常高兴。 他建立了领域标准的裁剪算法amc,但没有参加这项特别的研究。 他最近和其他人联系了论文,说明了在包含多个可与各种平台进行比较定制的预训练子模型的大规模模型中可以提高效率的ai训练技术。 [访问高性能ai应用程序的人会增加。
麻省理工博士alexa renda与mit助理教授和博士生合作进行了这项研究。 乔纳森弗兰克。 两者都是麻省理工学院计算机科学和人工科学实验室( csail )的成员。
心灵鸡汤:
免责声明:学习富国网免费收录各个行业的优秀中文网站,提供网站分类目录检索与关键字搜索等服务,本篇文章是在网络上转载的,本站不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系btr2031@163.com,本站的工作人员将予以删除。