站在云端运算与巨量资料(Big data)前所未有的交会口,高速计算对科学研发有了新的演绎。过去因高速计算机应用兴起,计算机模拟继观测与实验之后,成为第三种人类确立自然科学知识的方法,计算机成为协助解决科学研究与工程应用问题上的一个不可或缺的工具。但随着近年Big Data的崛起,如金融统计、服务经济分析、生物DNA、医疗影像数据库等,却渐渐改变科学研究的方式,科学研究慢慢地越来越仰赖海量的数据,有人说,数据资料快成为科学的第四大方法,因为能取得的数据资料已经多到彻底改变了科学家的研究方式。

以2011年底欧洲所发布的最新新闻为例,欧洲拟斥资10亿欧元(约台币406亿元)打造「地球实况模拟器」,以超级计算机分析来自网络的金融、新闻、医疗、政府统计数据等包罗万象的信息,再试图预测未来世界样貌的经济和社会发展趋势。如果计划通过,那这将是史无前例最大规模的数据研究、也是科学研究。其中FuturICT联盟主席、瑞士联邦科技研究所社会学教授贺尔宾说得令人心动,「我们想为这个星球打造出一个神经系统」,「构想是从庞大范围的来源搜集实时信息,然后利用全世界最强大的超级计算机加以分析。实务面可提供政治人物、决策者进行做好准备因应经济衰退或流行病等未来灾难的新方法。」而目前此计划也获得了欧洲30个居领导地位的计算机科学中心支持。

究竟预测未来是否真的可以成真?的确伴随着云端技术成熟,我们已经可以以大型研究网络连接起全球各地的研究中心与超级计算机,无上限的随时取得资源,但大量资料在没有做任何处理以前,就资料本身来说,是不会有任何价值的,必需要经过适当的萃取才会有价值。因此Big Data应该还包括大量资料处理的工具、程序、方法和流程,其所使用的的平行运算、客制搜寻、资料探勘、分析软件等技术才是最重要的,因为重点是搜集、筛选出「有用」的资料。但不可否认,Big Data将帮助解出许多科学研究难题。