BloomFilter云安全存储系统数据安全去重系统设计(2)
时间:2022-08-07 11:18 来源:毕业论文 作者:毕业论文 点击:次
15
第四章 系统具体实现 18 4。1 开发环境 18 4。2 核心算法与主要代码 18 4。2。1 核心算法 18 4。2。2程序主要代码实现 19 4。3 程序流程 21 4。3。1程序总体流程 21 4。3。2用户端流程 22 4。3。3云端流程 22 4。4 运行效果图 23 4。4。1 客户端运行效果图 23 4。4。2 云服务器端运行效果图 29 结 论 31 致 谢 32 参 考 文 献 33 第一章 引言 本章主要交代了研究的背景,介绍了本文研究的现状,说明研究的内容与目的,确定了整个文章的结构,是整个文章的引言部分,对于整个文章进行初步介绍与框架确定。 1。1 研究背景 云计算,作为计算功能一直以来的愿景,支持随需应变和无处不在的可配置资源的集中池访问如访问一个一个如网络应用程序和服务,还具有快速弹性资源,基于服务收费制度,和外包计算等特点。而云计算概念发展扩展产生云存储这个概念。 因为网络技术发展迅猛,用户、企业的网络数据存储量迅速增加,而随着近几年云计算的快速发展与不断的进步,为了减少维护大数据的开销,大量的企业和个人用户选择云,他们将自己的敏感数据外包给现有的各个云存储提供商(例如Dropbox,Google Drive),这样就可以以一种无处不在的方式享受高质量的数据存储和计算服务,同时可以减少数据存储以及维护的负担。根据IDC的调查数据显示,云服务的存储功能增长程度在2013年就将超过云的其他服务,而根据Gartner的报告,我们可以知道在2015年公共云服务增长率就将达到13。5%,这些都表明近几年云存储提供商所面临的数据总量在急速增长中。所以,云存储供应商就面临了一个新的挑战即如何高效的管理这些与日俱增数据。而根据IDC的分析,预计在2020年全球的数据总量就将达到40万亿GB,面对巨量的数据云服务提供商就必须充分利用存储资源。对于云服务提供商来说为避免上传存储巨量的重复数据,数据去重成为一条必须要走的路。 数据去重是利用检测和消除冗余数据来存储数据和降低网络和存储的开销的方法,云服务提供商通过去重只保存一个物理副本并将其他冗余数据指向该副本来消除冗余从而避免来自多个用户的重复数据,具体地说就是云服务提供商只在接收到第一个上传请求的时候执行数据文件的存储,对于后面的上传请求,只是分配一个从上传用户到原始数据副本的链接。因此如果有一个用户想要上传一个已经存储的文件,那么云提供商将会将他加入这个文件(或块)的所有者列表里而不在执行上传存储。去重已经被证明有节约更多的空间和成本并且很多云服务提供商现在已经在使用去重技术。在数据冗余较高的情境下,去重能够非常有效的减少数据存储空间和通信开销,它可以减少备份应用程序高达90%-95%的存储需求和高达68%的标准文件系统存储需求。 大量的事实证明云存储服务还并不是完善的,并且随着云存储的发展,安全和隐私问题的重要性逐渐上升,已经限制了云存储的发展。而去重技术一方面确实能够为云存储服务提供商节省存储空间,另一方面它同样面临着很多新的威胁。比如它降低了系统的可靠性。因为每一个被所有用户共享的存储在云上的文件的都只有一个副本。如果这样的一个文件丢失了,那么大量的数据将因为所有共享这个块的文件的无效而不能访问。还有,云服务提供商必须确保存储的数据只能够被正确的客户获得,这涉及到用户必须能够证明自己是文件的真实拥有者。此外,用户在文件上传前会进行加密,来保证数据不被他人获知。然而传统的加密技术将使得相同的明文变成不同的密文,使去重变得不可行。论文网 (责任编辑:qin) |