北京持续建设科学智能基础设施 大原子模型新增7个覆盖领域
本报讯(记者 刘苏雅)北京在科学智能(AI for Science)领域的重要基础设施建设持续取得成果。最近,由北京科学智能研究院牵头,协同开源社区及30多家共建单位建设的大原子模型计划(OpenLAM)新上线了7个科研领域的模型解决方案。该院还联合多家单位发布新一代科研文献开放平台,通过人工智能技术,让科研人员的检索效率显著提高。
“语言数据的爆炸性增长,孕育了大型语言模型。微观尺度数据的累积也催生了一种创新模型——大原子模型,它像是自然科学界的GPT。”北京科学智能研究院院长、深势科技创始人张林峰解释,我们生活在一个由原子构成的物质世界中,科研人员通过大原子模型,可以快速完成新物质、新材料和新原理的构建与发现。这个大模型将提升工业仿真能力,更好地模拟原子级的实验现象,借给实验科学家观察微观世界的“慧眼”,成为原子级生产制造“大脑”的重要组成部分。
自从2023年底发布以来,大原子模型计划的应用领域覆盖范围不断扩大。最近,该计划通过开放社区共建的形式,又发展出合金、动态催化、分子反应、药物小分子、固态电池、半导体、高温超导7个领域的模型解决方案。
“很多重要的科学问题,本质上都是微观问题。”张林峰举例,让锂电池失效的锂枝晶,生长原理尚未破解。因为使用传统手段,很难再现几十万个原子在毫秒级时间内的变化。而人工智能大模型技术可以兼顾精度和效率。随着这套模型的不断升级,材料、能源、生物制药等领域微尺度工业设计将实现变革,半导体、电池、合金、药物将实现原子级别的生产制造。
“这就像是原子尺度下的‘活字印刷术’。”张林峰充满期待地说,“大原子模型最终能够征服元素周期表,为微观科学研究提供新的基础设施。”
借助人工智能大模型,为科研工作者量身打造的新一代科研文献开放平台也已经开放。“这个平台是科学智能领域的又一项重要基础设施。”北京科学智能研究院副院长李鑫宇介绍,当前,对学科交叉检索、原文内容溯源、科研数据解读的需求,已经远远超出了传统文献检索工具的能力范围。该平台通过人工智能向量数据库叠加大语言模型,能用更少的成本,等效实现3至6倍参数量模型的效果。使用者还能在平台的基础上构建自己的应用和智能体,形成一个全新的科研生态系统。
分享让更多人看到
- 评论
- 关注