人工智能最新研究:一种大语言模型加上评价框架带来新数学发现
中新网北京12月15日电 (记者 孙自法)国际著名学术期刊《自然》最新发表一篇人工智能研究论文称,研究人员报告了一种方法,他们利用一个大语言模型(LLM)对一个著名的数学问题作出了新发现,并通过系统的、迭代的评估框架确保正确。这一方法或可改进LLM用来解决问题和学习新知识的途径。
该论文介绍,基于人工智能的工具(例如LLM)有望加速科学发现,解决长久存在的问题,但它们有时受制于“幻觉”,导致作出看似合理但错误的陈述。加入一个评估步骤,系统地衡量潜在解决方案的准确性,使得靠LLM帮助应对复杂问题成为可能。这些问题一般需要可验证且定义明确,使这一工具在数学科学中有潜在价值。
论文第一作者和通讯作者、Google DeepMind的Bernardino Romera-Paredes和Alhussein Fawzi与同事及合作者一起提出一种方法,称为FunSearch(因为它搜索函数空间),将一组产生创造性解决方案的LLM和一个作为检查者以避免错误建议的评估程序结合起来。一个多次迭代此过程的演化方法,通过提供此前最佳解决办法作为输入来引导LLM,结果表明这种方法可以收敛到新的、可验证的正确结果。他们将FunSearch应用到了著名的上限集问题(cap set problem,数学中涉及计数和排列领域的一个中心问题),发现了超越最著名上限集的大上限集新构造。
论文作者认为,FunSearch的成功关键是它会寻找描述如何解决一个问题的程序,而非寻找解决办法。因为FunSearch的结果是程序,结果易于人类解释和验证,这意味着该方法有望激发该领域的进一步思考。
他们补充指出,目前,这个方法可能还不适合所有类型的挑战,但通过未来改进或可使FunSearch应用于更大范围的问题。(完)
版权声明:凡注明“来源:中国西藏网”或“中国西藏网文”的所有作品,版权归高原(北京)文化传播有限公司。任何媒体转载、摘编、引用,须注明来源中国西藏网和署著作者名,否则将追究相关法律责任。