— 网页的平均容量是320KB(包含网页里内嵌的脚本、图片、CSS),不过需要注意的是有些网站会通过robots.txt阻止Google爬虫索取 CSS和JS脚本文件
— 只有2/3的可压缩内容真正被压缩了,同样需要注意的是有些网站为真正的浏览器提供压缩内容,而给Google爬虫看的则是未压缩的
— 80%的页面里包含10个或10个以上的同一主机里的素材
— 大部分流行网站并没有将同一主机里存放的脚本和CSS都写到一起,导致多出8个HTTP请求
— 每张网页里包含的图片数量是29.39个,加在一起有205.99KB
— 每张网页里包含7.09个外部脚本和3.22个外部CSS,平均脚本大小是57.98KB,CSS是18.72KB
— 只有1700万张网页使用了SSL加密,占总数的0.4%
— 平均网页加载速度为4.9秒,需要请求49个不同的来源
Google此举是为了提高大家对网页读取速度优化的重视程度,他们为网页开发者提供了很多帮助指南,来提高效率。
Google给出的主要建议有四点:
— 使用Gzip压缩页面
— 使用HTTP缓存
— 优化JavaScript代码
— 合并脚本和CSS