美国国家海洋大气管理中心(NOAA)已经开发了一些重要的关于天气变化研究的超级计算模型。尤其是在普林斯顿大学的地理流体动力实验室(GFDL).GFDL研究人员都是气候科学领域内的专家。但正如很多科学家一样,他们对不同的超级计算技术不了解,这就是为什么引入HPTi公司的原因。

        HPTi(高性能技术有限公司)在今年7月份被DRC公司购买。但他的主营业务依旧是提供高端技术支持,并且有独立的经营权。该公司的强项在于其对高性能技术的了解,并有能力将高性能科学计算应用在客户的程序上。对于NOAA来说,HPTi提供其在高性能计算的知识、咨询和培训。作为合同的一部分,HPTi对GFDL的气候研究工作提供支持,帮助其研发人员升级其气候模型,并提供未来超级计算硬件和软件工具的指导。

       GFDL的工作是非常重要的,因为他们的研究结果会被.政府间气候变化问题小组(IPCC)采用在其气候评估报告中。尽管IPCC也会采用其他实验室的气候研究结果,但是GFDL的模型是他们评估报告中核心部分。这个评估报告本身也已经成为气候政策决策者、科学家、媒体及公众约定俗成的标准。

       HPTi对于GFDL的价值在于实验室的研究人员可以把重点放在建立物理模型上,而把高性能计算的事情丢给HPTi的计算专家、软件开发者、系统支持人员和其他顾问。由于HPTi为研究人员提供很多的计算方法,公司能够和NOAA这样的单位保持长期的合作关系。而事实上,这家公司从2008年起就为GFDL的气候研究项目提供支持。

        保持持续的投资是非常重要的。对于气候工作的高性能硬件每几年就会升级,这就需要对软件和软件开发工具进行重新评估。根据负责与GFDL气候建模小组沟通的资深顾问William Cooke说,在过去的4年里,运行这些模型的HPC系统已经改变了很多。

        Cooke说最近几年,GFDL都采用8000核SGI  Altix超级计算机,采用一个分布式内存架构。而在12年前,他们是用3万多核心的Cray XT6机器。而在接下来的几个月,他们打算将系统升级到XE6,增加78000多核。一旦系统安装完毕,就会具有计算峰值达1千万亿次的计算马力。

        理想情况下,科学家只需要将他们的软件在新的机器上重新编译,但实际上这样的事情不会发生。硬件的升级,尤其是计算核数的增加,如果他们需要充分利用这增加的额外计算马力,他们就得修改其气候模型。

        这个增加的计算马力也让研发人员对模型增加额外的功能,比如大气化学,CO2反馈,浮游生物繁殖、河流地貌等。但最直接的,多余的核数可以帮助提高现有模型的精确度。

         比如,目前气候模型对于大气和土地采用2度平方分辨率,对于海洋和冰层为1度平方分辨率。为了得到更精确的结果,科学家就必须把大气/土地模型变成1.5度平方分辨率,海洋/冰层降低到至少0.25度平方。这样对结果的模拟就更有好处,比如对飓风行为分析和区域雨量或者干旱密度分析等。

         为了让所有的工作可行,各种模型需要连接在一起,这就需要一个特殊的软件叫coupler,根据Cooke介绍说这是HPTi已经花费很多时间开发的一个关键软件。当Cray超级计算机的计算核数增加,就得对基础的算法做改写。新的版本不仅可以让多个模型跑在超过1万个核上,还可以将模拟时间降低到1半。

          这一点对于气候建模至关重要,很多需要花20年到30年时间的模拟在现在的系统上只需要一周的时间,而预计上百年的模拟在同样的机器上只需要花6个月的时间。这样研究人员就可以通过运行软件来改进他们的研究成果,并且进行更多科学的尝试。

           在后端模拟,计算变成一个典型的数据问题。根据Cooke的说法,即使2度平方的解析度,模型每个月要生成0.5个petabyte的数据,这在过去的十几年一直这样。当精度提高,这个数据库就更大。

          目前原始数据是每天通过NOAA的研究网络(N波)发到GFDL记性后期处理。但由于建模要生成越来越多的数据,它往往在某个地方成为一个障碍,这就是为什么数据周期管理成为研究的一个很关键的部分,这也是HPTi目前提供另外一块指导服务。

          IPCC的第五次评估报告,将要包括最新的来自于GFDL的模拟工作,预计在2013-2014年完成。报告也好,研究也好,数据也好,都会被公开。