打破全球移动应用两极格局
|
会最先去CPU的L1 Cache中寻找相关的数据,找到了就返回,找不到就去L2 Cache,再找不到就去L3 Cache,再找不到就从内存中读取数据,寻找的距离越长,自然速度也就越慢。 4. Cache Line? Cache Line可以理解为CPU Cache中的最小缓存单位。Main Memory-Cache或Cache-Cache之间的数据传输不是以字节为最小单位,而是以Cache Line为最小单位,称为缓存行。目前主流的Cache Line大小都是64字节,假设有一个64K字节的Cache,那这个Cache所能存放的Cache Line的个数就是1K个。 5. 写入策略
Cache的写入策略有两种,分别是WriteThrough(直写模式)和WriteBack(回写模式)。直写模式:在数据更新时,将数据同时写入内存和Cache,该策略操作简单,但是因为每次都要写入内存,速度较慢。回写模式:在数据更新时,只将数据写入到Cache中,只有在数据被替换出Cache时,被修改的数据才会被写入到内存中,该策略因为不需要写入到内存中,所以速度较快。但数据仅写在了Cache中,Cache数据和内存数据不一致,此时如果有其它CPU访问数据,就会读到脏数据,出现bug,所以这里需要用到Cache的一致性协议来保证CPU读到的是最新的数据。 L1 Cache是最离CPU最近的,它容量最小,速度最快,每个CPU都有L1 Cache,见上图,其实每个CPU都有两个L1 Cache,一个是L1D Cache,用于存取数据,另一个是L1I Cache,用于存取指令。 L2 Cache容量较L1大,速度较L1较慢,每个CPU也都有一个L2 Cache。L2 Cache制造成本比L1 Cache更低,它的作用就是存储那些CPU需要用到的且L1 Cache miss的数据。 L3 Cache容量较L2大,速度较L2慢,L3 Cache不同于L1 Cache和L2 Cache,它是所有CPU共享的,可以把它理解为速度更快,容量更小的内存。
当CPU需要数据时,整体流程如下: 为什么要有Cache这个问题想必大家心里都已经有了答案了吧,CPU直接访问距离较远,容量较大,性能较差的主存速度很慢,所以在CPU和内存之间插入了Cache,CPU访问Cache的速度远高于访问主存的速度。 CPU Cache是位于CPU和内存之间的临时存储器,它的容量比内存小很多但速度极快,可以将内存中的一小部分加载到Cache中,当CPU需要访问这一小部分数据时可以直接从Cache中读取,加快了访问速度。
想必大家都听说过程序局部性原理,这也是CPU引入Cache的理论基础,程序局部性分为时间局部性和空间局部性。时间局部性是指被CPU访问的数据,短期内还要被继续访问,比如循环、递归、方法的反复调用等。空间局部性是指被CPU访问的数据相邻的数据,CPU短期内还要被继续访问,比如顺序执行的代码、连续创建的两个对象、数组等。因为如果将刚刚访问的数据和相邻的数据都缓存到Cache时,那下次CPU访问时,可以直接从Cache中读取,提高CPU访问数据的速度。 但是,首席运营官(COO)并不是唯一需要充当安全倡导者的人。所有企业高管在建立强大的安全文化中都可以发挥关键作用。由于他们与不同的利益相关者有联系,因此他们将能够分享各种见解。 例如,首席运营官可以更好地吸收董事会的意见,这对于确保首席信息安全官(CISO)了解企业的风险承受能力至关重要,这将直接影响创新和收入。首席财务官(CFO)可以分享有关支出优先事项和保护财务系统所需的各种义务的见解,而首席人力资源经理(CHRM)可以从员工那里获得有价值的数据。首席人力资源经理(CHRM)在推动安全文化发展方面发挥了重要作用;他们的参与程度通常决定着发展成功的安全意识文化的整体成功。 具有安全意识的高层管理人员将能够介入,以支持首席信息安全官(CISO)的使命,即安全性是重中之重。 以安全为先 从最高层得到模型行为,将有助于强调组织对网络安全的集体承诺。通过这种方式,员工在保持企业的数据安全方面的职责分担责任感。为此,至关重要的是,现代公司的高管必须是安全的开拓者,尤其是在当前形势下。 网络犯罪分子采用的技术越来越复杂,在暗网上出售数据泄露和被盗信息的风险从未如此猖獗。随着疫情继续影响信息安全的发展,企业高层、中层管理人员和初级员工必须共同努力,以实现确保工作场所安全的集体目标。
树立安全意识文化绝非易事,但其长期收益胜过任何棘手的问题,将有助于使企业在日益增长的威胁环境中无懈可击。 (编辑:平凉站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |



