从下一代数据中心的角度,谈谈为何Web3终将到来

1.什么是数据中心?数据中心(Data Center),起源于 20 世纪 40 年代的巨型计算机房,以埃尼阿克这样的最早面世的计算机为代表,早期的计算机系统,操作和维护起来很复杂,需要一个特殊的操作环境,连接所有组件需要许多电线和电缆,数据中心就是用来容纳和组织这些组件的空间尽管 2000 年前后处于互联网泡沫时期,很多公司倒闭,但是这段时间也给数据中心的发展和普及创造了机会,因为很多中小互联网创业公司也需要快速的互联网连接和不间断的操作来部署系统,但是对于资源有限的小公司来说,安装大型互联网数据中心是很不实际的,因此许多公司开始建造非常大的设施,也就是 IDC(Internet Data Center,互联网数据中心)IDC 的发展经历了三个不同阶段:第一代的数据中心只提供场地、带宽等基础托管服务;第二代的数据中心则是以增值服务和电子商务作为其服务的核心;第三代的数据中心能够提供融合的托管服务,可以实时地将互联网信息、电话信息、传真信息等集成在一起,再以客户最容易接受的方式提供给客户,这样,第三代的数据中心其实变成了一个网络服务中心。2.数据中心的迭代那么,从最早的机房时代再到今天常见的行业云,数据中心都经历过哪几次迭代?数据中心 1.0 时代,基本就是物理意义上的数据中心,也就是 1990 年代至 2006 年的机房时代,包含了大型计算机,小型计算机以及今天意义上的 x86 通用计算机,基本上就是电信企业面向大型企业提供的机房,包括场地、电源、网络、通信设备等基础电信资源和设施的托管和线路维护服务。数据中心 2.0 时代,互联网走向民用,网站数量激增,服务器、主机、出口带宽等设备与资源集中放置与维护需求激增,主机托管、网站托管等商业模式出现,再到后来 IDC 服务商出现,他们围绕主机托管提供数据存储管理、安全管理、网络互连、出口带宽网络服务等等,这一阶段的数据中心由互联网企业自行搭建或者租赁,存在建设与维护成本高、难以随业务发展而灵活扩展诸多问题,云计算应运而生。2007 至 2013 的通用计算云时代,这一时期主要的特征是商业模式构建以租户为中心,不论是物理机的服务器托管服务还是云计算的虚拟机租用模式。数据中心 3.0 时代,2014 至 2021 的行业云时代,云服务提供商成为主流,而其中高价值的行业云诞生,数据中心的规模空前,而这也意味着计算和数据的高度的集中化。早在 1961 年就有人预料到计算会成为公共服务,1990 年代网格计算(Grid Computing)与云计算(Cloud Computing)等概念就已先后出现,不过直到本世纪初亚马逊 AWS 才真正拉开云计算的序幕,计算真正成为所见即所得的公共服务,数据中心从分散在各地的「小电站」逐步走向集中式的「大电厂」,一般都是科技巨头搭建的大型化、虚拟化、综合化数据中心,通过对存储与计算能力虚拟化,变为一种按需使用的计算力,对于使用者来说,集中规模化降低了成本,同时具备了灵活拓展能力。数据中心的历史,最早可以追溯到 20 世纪 40 年代中期,当时最早用于军事的计算机房容纳了大型军用机器,用来处理特定的数据任务。到了 20 世纪 60 年代,有了大型计算机的诞生,IBM 公司为大型公司和政府机构部署了专用大型机房,但是,由于使用需求的增长,需要独立的建筑承载这些大型计算机,这就是最早一批数据中心的诞生。直到 20 世纪 80 年代,个人电脑(PC)横空出世,电脑需要与远程服务器联网,这样才可以访问大型数据文件。到 20 世纪 90 年代,也就是互联网(Web1.0)开始广泛普及时,互联网交换中心(IX)大楼已逐步在主要国际城市兴起,以满足万维网的需求。这些 IX 大楼,也是是当时最重要的数据中心,很多人提供服务,很多还在使用。什么是互联网交换中心(Internet Exchange Point)?主要是指是不同电信运营商之间为连通各自网络而建立的集中交换平台,互联网交换中心在国外简称 IX 或 IXP,一般由第三方中立运营,是 互联网的重要基础设施。3.为什么数据中心会迭代?从网站托管需求开始出现的数据中心发展随着互联网使用的增长,数据中心数量开始急剧上升,因为 2000 年前后,各种规模的公司都热衷于在互联网上建立自己的网站,这时的数据中心,可以为这些公司的网站提供托管服务,并且提供远程服务器以保持它的运行。由于这个时候的互联网数据中心有着大量的服务器和来自不同电话公司和网络运营商的电缆,一旦网站出现任何技术问题,数据中心运营商可以马上更换服务器或切换连接,以保持其正常运行。这是互联网数据中心主要的需求所在,也是商业模式和用户选择它们的理由。当时,很多组织或者公司会将自己的数据业务迁移到数据中心,这种方式被称为主机托管,也就是说,企业要么将自己的服务器放在供应商的数据中心,要么从供应商那里租用服务器空间,用于远程运行和访问一些应用程序,例如电子邮件、数据存储或备份。云服务与数据中心不过,在过去的十年左右,云服务大厂频频出现,无论是微软、谷歌、亚马逊、IBM、甲骨文、SAP、Salesforce、阿里云,还是其他许多公司,云服务的市场,最初是由亚马逊网络服务启动的,该公司围绕「基础设施即服务(IaaS)」为企业提供托管解决方案。IaaS 允许公司通过云计算灵活地访问由 AWS 等供应商拥有的远程服务器,并根据其业务数据处理和管理需要,按需使用(也就是说,企业可以随时点外卖,由专业服务商处理这些业务)。还有一种说法是,AWS 提供 IaaS,主要是因为亚马逊有着快速增长的电子商务业务,而这些业务可以为市场其他主体提供多余的云服务器容量,而事实并不是这样,AWS 的出现,是亚马逊可以向任何有需求的人或机构提供 IaaS 而专门建立的业务,IaaS 允许初创公司和小公司与大型机构竞争,因为大型机构通常拥有更广泛的计算能力供其支配,有了云服务,小公司也可以直接采购成熟的业务,不需要自己建设团队(自己建设团队,构建计算能力的成本对于小公司是非常高的)需求和增长是如何发生的?当很多公司开始通过云计算远程访问部分或大部分关键的商业软件应用程序,而不是在位于自己机房的服务器上部署和管理这些应用时,云计算数据中心的增速就开始了。为什么会有这种变化?成本和效率,永远是商业公司需要考虑的。有了云服务,无论是何种规模的公司,都可以根据业务需求,选择合适的使用规模,从而降低软件的成本。这比在公司内部服务器上永久安装一些功能丰富的软件的成本要低很多。由于云服务的需求急剧增加,因此,为托管这些服务而建造的数据中心的规模和数量也会增加。这样的数据中心就是超大规模的数据中心,通常这种设施由云服务提供商和其他公司所有,建造这些设施是为了向提供这些服务的家喻户晓的公司使用空间。2020 年第二季度末,如微软、谷歌和亚马逊运营的全球大型数据中心总数已增加到 541 个,比 2015 年中期的数字增加了一倍多。总结一下:1980–2000 年这段区间内,互联网刚出现,大型机和小型机是主流,但其成本非常高昂,运行的 UNIX 系统也成本高昂,并且,通用计算机 x86 性能尚且无法满足很多业务需求,但是随着通用计算机真正成为下一个时代的趋势,降本增效成为了所有企业的刚性需求。2000 年到现在,2006 年 AWS 成立是一个开始,之后行业逐步认可了公有云作为基础设施的存在,特别是在 2013/2014 年,AWS 拿很多大客户的单子,我们可以这么理解,在早年间使用公有云的确成本低廉,成本优势巨大,但在 2015 之后公有云的成本优势也在不断减少,即使按照整体成本(服务器 租用机柜 运维人员工资 开发团队协同等因素)目前公有云成本并不占优势,于是出现了很多大厂开始自建云的趋势。