一、基于数据压缩的信息检索技术的研究(论文文献综述)
陈瑾[1](2021)在《时序数据无损压缩算法研究》文中指出时序数据是按照时间顺序观测某个或某些物理量得到的一串值,其反映了事物属性随着时间变化的特征。时序数据压缩是一个基础且重要的工作。时序数据的压缩不但能够减少空间存储,而且降低了数据传输的成本。本文对时序数据无损压缩展开研究,设计了一种针对时间戳的无损压缩算法以及两种针对时序数据值的无损压缩算法,实现了数据信息无失真情况下的高压缩率压缩。主要工作及创新点如下:(1)提出了e-DoD时间戳压缩算法。该算法首先对UNIX时间戳进行二阶差分,然后固定变长编码对二阶差分值绝对值较小者进行编码,使用位掩码法、尾零法以及偏置法三种编码方法分别对二阶差分值绝对值较大者进行编码,选择编码最短的编码方法编码该二阶差分值,使用变长控制位对所有编码进行变长控制存储。e-DoD算法有效减少了时间戳的存储空间开销。(2)提出了Pred Zip时序数据值压缩算法。该算法分为两个部分:概率预测模块和算术编码模块,概率预测模块对时序数据中的每一个字符,利用该字符的前k个字符预测其条件概率值,算术编码模块使用该字符的条件概率值进行算术编码压缩。Pred Zip算法在实验数据集中压缩率最高达到9.2。通过分别使用了基于逻辑回归、LSTM以及XGBoost的三种概率预测模型的Pred Zip压缩算法进行实验对比,发现概率预测模型的预测精度越高,算法的压缩率就越高。(3)提出了CS-Zip时序数据压缩算法。该算法分为训练过程和数据压缩过程。在训练过程中,首先使用遍历择优标注算法标注定长数据段的最优数据压缩的数据转换方法,形成训练集;依据该数据集训练数据转换方法分类器。数据转换方法包括一阶差分、一阶逆差分、二阶差分、二阶逆差分、异或和差分异或6种方法。在数据压缩过程中,时序数据均匀分成数据段,根据数据转换方法分类器得到该数据段的数据转换方法;然后根据该方法对该数据段进行转换,再对转换后的数据段中的每一个数据选择压缩率最高的编码方法进行编码。数据编码方法包括位掩码法、尾零法、偏置法和右向偏置法。CS-Zip算法为时序数据的每个分段选择压缩率更高的压缩方法,从而提高实现整个时序数据的压缩率。
李文越[2](2021)在《面向边缘计算的数据压缩分类机制研究》文中研究表明随着5G时代的发展,云中心产生海量数据,在网络边缘部署微型数据处理设备成为解决数据缓存问题和提升数据传输效率的方法之一,云服务的普及推动边缘计算的发展。从云中心到边缘节点间传输着大量数据,造成节点负荷超载、传输时延增大等弊端。为了缩减边缘网络传输过程中产生的海量数据,可以利用压缩技术对原始数据进行压缩。当边缘网络节点对数据进行分类、检测操作时,传输设备中数据信息处于压缩状态,需要对压缩数据先进行解码处理,所以在压缩数据的解码过程中产生了边缘网络数据传输时延,边缘节点无法实时地进行数据处理,从而致使边缘计算设备数据处理工作的滞后。为此,本文提出了一种面向边缘计算的数据压缩分类机制,本文主要工作内容和创新点总结如下。1.为降低数据处理时延,本文给出了一种自编码数据压缩方法,利用自编码网络实现高效地同态数据压缩,为边缘网络节点实施精准的数据压缩提供了有效保障。2.针对引入自编码数据压缩方法导致数据分类精度下降的问题,本文提出了一种面向边缘计算的特征重构数据压缩分类机制,首先在边缘计算节点的传输段进行数据收集,对原始输入数据进行特征重构,然后利用自编码数据压缩方法对特征重构后的输入数据构建特征压缩,缩减数据规模,最后搭建面向压缩结果的数据分类模型。3.为加快数据传输速度,有效地进行边缘节点数据处理,进一步构建更为高效的数据压缩分类机制,本文提出了一种面向边缘计算的Manifold数据压缩分类机制,通过构建数据特征压缩方法实现同态特征映射,并搭建面向压缩数据的分类模型,精准高效地在边缘网络实现数据压缩分类操作。实验证明,本文提出的数据压缩分类机制,在缩减数据规模和提升数据处理效率的同时,有效保证了压缩数据的分类准确率,通过缩减数据规模,达到了快速高效地处理边缘网络海量数据的目的。
张民敏[3](2021)在《基于哈希学习的压缩媒体上数字指纹生成方法研究》文中提出近年来,随着数字成像设备的快速发展和网络传播速度的提高,我们进入了大数据时代。在大数据时代中,探索如何更好地存储和利用大规模图像数据集具有重要意义,图像的存储、快速检索和保证内容安全是亟待解决的课题。哈希学习和数字指纹为信息检索和信息的可靠性验证提供了重要的技术手段。在大规模数据集的检索和应用中,对于信息安全的探索和研究很少,与哈希学习相结合的数字指纹生成方法亟待提出。为了在对大规模图像的存储和搜索过程中,进一步提高数据的安全性,本文首次将哈希学习、数据压缩和数字指纹相结合,提出了一种基于哈希学习的压缩媒体上数字指纹生成方法,既能提高大规模图像数据集上的检索速度,又降低了数据存储量,有利于数据的处理和传输,还加强了信息的安全性。主要工作如下:(1)深入探索了基于哈希学习的图像检索方法、图像压缩机制和数字指纹机制,首次将哈希学习、数据压缩和数字指纹相结合,提出了一种基于哈希学习的压缩媒体上的数字指纹生成方法,在进行大规模图像数据检索时自动进行图像的压缩和数字指纹的嵌入。(2)对正交指纹和纠错码指纹进行了分析和研究,对二者的复杂度进行了对比,为了更好地应用于大数据和多用户的场景中,本文将里德所罗门码和哈希码结合,构成了新的指纹模块。一方面提高了抵抗平均合谋攻击的能力,另一方面,管理者通过提取图像中的指纹信息,能够迅速分离出数字指纹中的哈希码,以常数级的时间复杂度在数据集中检索到未经过压缩和其它处理的原始图像。
王娜[4](2021)在《熵编码算法研究》文中指出随着信息时代的到来,由于数据的海量性、计算机存储资源和网络带宽的有限性,数据压缩已经成为数据存储和传输过程中不可或缺的部分。数据压缩是一种在保证重要信息的基础上,降低数据的存储容量,提高计算机资源利用率的技术。熵编码是数据压缩的一种有效手段,大多数用于图像、语音、视频的压缩系统使用自适应预测器或去相关变换,将原始数据块映射为低熵的整数块以便于熵编码过程。常见的熵编码算法有香农编码、Huffman编码、Lempel-Ziv编码、Golomb编码和ANS编码,其中Golomb编码是一种无损数据压缩方法,当输入序列中的符号概率服从几何分布时,使用Gololmb编码可以得到最优的前缀码。给定一个待编码的正整数N,Golomb编码使用一个参数M将其分成两部分:商部分和余数部分。当M不是2的幂次时,这两部分的码字均采用可变长度编码。与固定长度编码相比,可变长度编码的编译码复杂度较高,实现速度较慢。此外,Golomb编码只能采用二进制编码。迄今为止,没有文献研究任意n进制的Golomb编码。ANS编码是一种新的熵编码方法,它有两个主要的实现:range ANS(rANS)和tabled ANS(tANS),其中rANS需要一些复杂的算术运算,包括整数乘法和整数除法,计算复杂度较大。tANS将整个行为(包括重正化)固定到一个查找表中以避免乘法运算,在编码速度与Huffman编码相当的情况下,可以达到算术编码的压缩性能。然而,tANS需要耗费较大空间来存放整个查找表,对CPU的内存要求比较高。Golomb编码和ANS编码都属于可变长度编码,可变长度编码的主要局限性在于缺乏有效的随机访问能力。在数据库领域,经常遇到需要以压缩的形式随机地访问或修改某一个条目的情况。目前国内外在这方面的研究大致可分为两类:(1)基于采样的随机访问机制研究;(2)基于辅助的数据结构的随机访问机制研究。然而,现有的研究都需要开辟额外的空间,额外空间的使用将损失部分压缩性能。本文主要研究文本压缩中的熵编码技术,包括Golomb编码、ANS编码以及可变长度编码中的随机访问应用。首先,本文指出了传统Golomb编码存在的问题,然后提出了一种新的、Golomb编码的变体,它对于任意的M值,始终采用固定长度编码余数部分的码字。此外,本文将二进制的Golomb编码和所提出的编码拓展到任意n进制。接着,针对tANS编码速度快,但查找表耗费空间大的问题,本文提出了一种查找表空间较小的tANS算法,在避免了复杂度较高的乘法运算的同时,解决了内存占用大问题。最后,在不损失压缩性能的前提下,本文提出了一种新的、不需要辅助空间且支持随机访问的解决方案,显着提高了算法的随机访问效率。本文的贡献点如下:1.本文提出了一种Golomb编码的变体,它在不损失压缩性能的前提下,对于任意的M值,始终使用固定长度编码余数部分的码字,显着降低了编译码的复杂度。此外,本文提出了n进制的Golomb编码和n进制所提出的编码。实验结果显示,与传统的Golomb编码相比,所提出的方案编码时减少了 20%加法运算、40%的乘法运算,增加了 20%的位运算。译码时减少了 40%的加法运算、10%的乘法运算,增加了 20%的分支判断。2.本文提出了一种查找表空间较小的tANS算法,它在避免乘法运算的同时,减少了查找表所占的空间。此外,本文提出了一种一次可解码多个符号的快速译码算法。实验结果显示,在压缩比略微降低(大约损失0.5%)的情况下,我们的方法在编码(译码)时的吞吐量比rANS大约高25%(60%)。3.本文提出了一种前缀码流的重排方法,它在不需要使用额外空间的情况下,可支持高效的随机访问。实验结果显示,与传统方法相比,所提出的方案随机访问一个元素时需要读取的比特数目大约减少了两个数量级。此外,对于码字长度可由前缀确定的前缀码,如Canonical Huffman编码,我们的方法可以进一步提高随机访问效率。
范磊[5](2020)在《云制造环境下的车间资源虚拟可视化设计与实现》文中认为随着云制造概念在工业制造领域的深度融合,车间云端化建设已成为暨数字化、智能化建设之后的新趋势。作为最基本的生产单元,实现车间制造数据共享、离散资源管理和制造能力网络化等云功能,是云端化建设过程中必须解决的问题。传统制造业通常存在以下问题:制造数据量大,共享性差,利用率低;资源离散分布,管理难度大,生产环节难以把控;制造能力过剩,难以准确表征,资源利用率低。针对上述问题,本文主要完成工作概括如下:(1)车间高性能传输网络架构和数据处理平台设计,及高并发多源异构数据采集软件设计与开发。针对云制造环境下对车间制造数据的需求,搭建了车间高性能传输网络结构,研发了多源异构设备统一采集软件,设计了支撑海量数据传输、处理和存储等功能的数据处理平台,并最终在模拟车间中进行了验证。(2)基于本体与语义化方法的资源虚拟化方法的设计与实现。根据资源分类结果,利用本体和语义化的方法,借鉴RDF框架构建不同资源本体模型。结合动、静态数据,利用XML本体语言进行资源实例的语义封装,以提高资源本体的表征能力,并结合本体描述模型和SpringBoot框架开发了资源注册终端。(3)基于资源本体的制造资源知识图谱的研究与实现。结合各类资源本体的实例数据,抽取图谱所需的节点、属性等数据,通过建立启发式关系规则和资源关系处理算法,构建资源间关系数据。最后,完成对知识和关系数据的融合以及结构化处理,利用InteractiveGraph工具实现知识图谱的开发。(4)车间资源虚拟可视化管控系统的部署和测试。利用模块化理念,基于SpringBoot框架实现了虚拟资源管理端和知识图谱终端的开发。结合数据采集,数据传输和数据处理平台,实现了基于B/S架构的车间信息可视化终端开发。最后,对系统传输、显示性能以及运行稳定性进行验证,证明了系统的有效性和准确性。
郭争文[6](2016)在《基于TermID序列排序的标识符重分配的倒排索引压缩研究》文中指出由于信息科技的飞速发展,数据爆炸式增长,形成了人类史上前所未有的海量文本信息。面对海量的文本信息,倒排索引作为一种有效的全文索引技术,能够快速准确地帮助人们查找所需要的信息。但是海量的文本信息形成了规模庞大的倒排索引,其规模最大可达原文的300%,所以倒排索引的压缩是十分必要的。倒排索引生成算法的一般流程是docID分配、Posting Lists生成和Posting Lists压缩。常见的标识符分配算法有基于URL排序的标识符分配算法和基于交叉的标识符重分配算法;常见的Posting Lists压缩算法有Unary Code、Variable Byte Code、 Simple-9和PForDelta等。本文提出了基于TermID序列排序的标识符重分配算法。通过遍历已创建的倒排索引生成正排表,规定正排表内termID序列的排序规则,并按照该规则对正排表中的文档记录进行排序得到新顺序的文档序列,然后根据新的文档顺序依次为文档分配新标识符,重新创建倒排索引。本文实现了基于URL排序的标识符分配算法(URL)、基于交叉的标识符重分配算法(IBDA)、基于TermID序列排序的标识符重分配算法(SBDRA)等标识符分配算法和VByte、Simple-9、Simple-16、New PFD、Opt PFD、PForDelta等posting lists压缩算法。使用Wikipedia网站文档数据集,实现了18组混合交叉实验。实验结果表明,对于大规模的文档数据集,本文提出的基于TermID序列排序的标识符重分配算法性能优于基于URL排序的标识符分配算法和基于交叉的标识符重分配算法,其生成的倒排索引具有更好的整体压缩效果。
黄黎灵[7](2015)在《基于缓存内容辅助的网络层去冗余技术研究》文中研究表明随着时代的发展,在网络中传输的信息量飞速增长,传输信息中的编码冗余度也随之急剧增加,网络中的冗余比特去除是直接提高网络链路效率的有效方法之一。目前主要的网络数据冗余去除技术是针对应用层的缓存内容。但是,主要的数据冗余存在于各种应用软件的数据通信当中,即出现在网络层的数据转发包之中;因此,大多数现有的应用层去冗余缓存策略并未能有效的去除网络中数据的冗余。为了能够更好地去除网络中的数据冗余,本文研究了网络层去冗余技术,以数据压缩为基本技术去除网络层的冗余比特,提高网络数据传输效率。本文提出了 一种基于网络中节点缓存内容辅助的去冗余技术,以数据压缩为基础去除网络层的冗余比特,从而更好地提高网络数据传输效率。首先通过理论推导得到数据压缩算法的冗余度公式,提出了“基于聚类分析的缓存内容辅助的数据压缩”的策略,这是本文研究内容的重要技术支撑点之一。然后在理论数据下进行仿真分析,论证了该策略的优越性。最后将该模型应用在真实场景的网络层中,提出了改进的非参数辅助内容选择算法,进一步去除网络数据冗余,从而有效提升了网络信息传输效率。本文构造了理论混合数据源,建立了基于聚类分析的内容辅助压缩模型,对现有的自适应算术编码Lite PAQ压缩算法进行了基于边信息输入的改进,从理论和仿真上对提出策略进行了验证。在仿真方面,本文分析了最佳的Hellinger距离模型,并运用基于K-means辅助内容选择算法进行模型仿真中,通过近25%的性能提升证明本文提出的基于缓存内容辅助的数据压缩策略的正确性;同时,通过对比采用基于K-means聚类和基于实际聚类结果两种辅助内容选择算法下,几乎相等的压缩性能证明了基于K-means聚类的辅助内容选择算法的有效性。经过理论数据下的验证后,本文将提出的基于内容辅助的压缩模型应用在网络信息传输中。利用节点缓存的历史内容的辅助作用,对于传输信息的压缩进行仿真分析。针对缓存内容辅助的网络层数据压缩模型,本文基于三方面的分析,提出了改进的非参数辅助内容选择算法。本文随后通过基于内容辅助的网络层包压缩模型的仿真设计,验证了改进的非参数辅助内容选择算法相较于基于K-means辅助内容选择算法由3%至8%的压缩性能提升,并结合几种不同的压缩算法和网络性能要求,进行压缩算法的简单选取讨论。综上所述,本文主要完成了对于基于缓存内容辅助的网络层数据压缩模型的如下工作。首先,通过从理论上推导出数据压缩算法的冗余度公式,提出了减少冗余度的基于聚类分析的数据压缩策略。然后,采用仿真分析,验证提出基于聚类分析的数据压缩策略的正确性;最后,本文将该模型应用在真实场景的网络层中,提出了改进的非参数辅助内容选择算法。本文通过仿真得出,在改进的非参数辅助内容选择算法下,结合Lite PAQ数据压缩算法,在传输相同网络层信息传输情况下,本文提出的基于缓存内容的网络数据压缩模型,能成功将ASCII编码70%的传输比特冗余去除。总结得出,本文提出的基于缓存内容的网络数据压缩模型能有效得去除网络层传输信息的冗余,有效提升了网络信息传输效率,增加了带宽利用率。
向波[8](2012)在《基于数据压缩的信息检索技术的研究》文中提出概述了数据压缩技术的概念、分类及特点,介绍了数据压缩在信息检索中的优点,从多媒体检索、全文检索、图像检索、电子出版检索等角度探讨了数据压缩在当今信息检索技术的应用现状,并展望了其未来发展趋势。
刘科[9](2012)在《内容感知存储系统中的信息检索关键技术研究》文中认为随着信息技术的日益发展,信息资源呈现出爆炸性增长的态势。数字资源的急剧增长导致有效数据通常被淹没在信息海洋之中,单靠人工或传统查询工具将很难迅速定位所需信息。由于信息检索技术可从大规模信息系统中快速、准确、全面地获取有效信息,因此它被认为是解决上述问题的最佳途径。现有研究围绕着提高存储系统智能化程度、增强异构信息检索能力和提升查询结果相关性等方面展开,但是存储与查询功能的相对独立使得存储系统很难理解所存内容、并依据感知到的信息进行查询优化操作。为了将信息检索领域中的相关技术移植并应用于存储领域,在研究内容感知存储系统架构的基础上,探讨了该系统中的信息组织、索引和检索机制,从系统结构角度提供了一种有效融合存储与检索功能的整体解决方案。为解决存储系统缺乏内容感知能力的问题,设计了一种跨越存储栈的信息扩展与传递机制。该机制根据应用层的具体需求抽取上层语义信息并作为扩展信息保存,然后在传统的数据I/O通道上扩展元数据I/O通道实现扩展信息的传递,存储系统通过解析此类扩展信息获取语义内容,进而实现在存储系统内部感知和使用上层信息以优化系统整体性能的目的。在该扩展传递机制的基础上设计并实现了内容感知网络存储原型系统。为充分利用存储系统感知到的各类信息,为使用者提供高效、便捷的查询服务,提出了内容感知网络存储系统中的两阶段检索策略。由于存储系统中的查询需求主要来自系统管理员对元数据的查询,以及普通用户对关键字内容的查询。这两类查询通过对元数据和关键字分别建立索引来提升系统查询速度,但存储系统自身所具备的特性并没有被用于优化上述查询过程。所提出的两阶段检索策略将基于元数据和关键字的查询与底层存储系统的块相似性查询相结合,提升了系统的整体查询效率。为有效衡量索引优化操作对系统性能的影响,提出了基于分级存储的索引分割机制及开销模型。随着存储系统中信息量的不断增大索引所消耗的空间也在同步增长,有些索引在生成之后几乎不会被检索到,因此并非所有索引都拥有相同的访问频率。据此索引优化算法按照访问频率对索引进行分割和分级存储,将不常用的索引存放到低速存储设备上以节约成本,并分析了索引分割对查询命中率、索引空间开销以及查询时间所造成的影响。为满足用户对于相似性查询的需求,提出了基于内容哈希的数据相关图构建方法。由于存储系统通常采用层次结构来组织和管理数据,这种层次化设计思想通过标准的接口在各层间传递特定的信息,它隐藏了每一层所不必关心的信息,但也约束和限制了扩展信息在各个层次间的自由流动。所提出的数据相关图构建方法以存储系统中的重复数据块为桥梁,通过打破层次壁垒在多层信息之间建立起联系,生成具备全局特征的完整数据相关图,为将信息检索领域的相关理论引入存储系统奠定了基础。为解决用户查询请求过于宽泛或精细时无法得到预期查询结果的问题,结合数据相关图对两阶段查询机制中的排序算法进行改进,提出了块相似性度量算法。该算法将信息检索中网页排序算法的核心思想引入存储系统,以重复数据删除计算所得到的重复数据块作为生成数据相关图和衡量数据相关度的依据,改进了现有的相似查询和相关度计算方法。该解决方案反映了数据的内部结构特征,降低了查询失效率、提高了查全率。从上述多个方面开展深入研究,经过模型建立、算法生成、理论分析、实验验证等步骤,将内容感知技术和信息检索关键技术引入到存储系统中,提升了存储系统的智能化程度和信息检索能力。
朱鹏[10](2011)在《农村智能信息服务系统构建及关键技术研究》文中研究说明信息时代,农村信息资源匮乏已成为抑制我国社会主义新农村建设发展的瓶颈,成为拉大我国城乡差距的决定因素之一。构建一个智能的农村信息服务系统(Rural Intelligent Information Service System,RIISS),为农村用户提供全方位的信息服务,显得非常必要。同时,这也是信息社会发展的需要、我国信息化发展战略的需要及我国农村基层人员的切实需求。本文以建构农村智能信息服务系统为目标,首先阐述了国内外的相关研究情况、论文的研究内容、研究方法、研究意义与创新及论文的基本结构。其次,以信息科学理论、信息服务理论及传播科学理论为理论基础,进行了农村智能信息服务系统构建的需求分析、可行性分析,阐述了农村智能信息服务系统服务定位与设计原则,并进行了RIISS的架构设计。再次,分别进行了RIISS信息检索、RIISS多媒体应用与实现、RIISS的数据库构建及RIISS信息推荐等关键技术的研究。最后,叙述了RIISS的网络运行环境、服务器端及客户端的运行要求,构建实现了农村智能信息服务系统,并阐述了其应用领域和推广方式。具体而言,本文主要进行了以下几个方面的研究工作:第一,RIISS的理论分析与架构设计。主要阐述了构建RIISS的理论基础,进行了需求分析和可行性分析,叙述了其系统定位与设计原则,并进行了相应的架构设计,包含RIISS逻辑结构设计、运行框架设计、功能结构设计及详细的内容设计等。第二,RIISS多媒体应用与实现。主要叙述了多媒体技术的相关知识,设计了RIISS多媒体应用的模块流程,论述了多媒体信息展示、多媒体交互性及多媒体信息存储技术在RIISS中的应用。第三,RIISS的数据库构建。主要阐述了RIISS的数据库构建的目标、原则及规范,研究设计了RIISS的数据库的逻辑结构、用例模型及各类数据表等。第四,RIISS信息检索关键技术研究。主要是进行了RIISS信息检索方面的研究,通过关联图表示关键词之间的共现关系,然后利用关联图获得关键词在查询向量中的权重,设计了基于关键词关联图扩展的向量空间检索算法,并通过实验验证了算法的有效性。第五,RIISS信息推荐关键技术研究。主要对常用的各类信息推荐方法进行了比较分析,选择了基于内容的推荐方法应用到RIISS中。设计了一个基于内容的农村信息推荐算法,通过RIISS用户信息行为采集模块获取用户的兴趣,构建用户兴趣模型,然后通过计算形成推荐结果,并将结果推送到用户。最后对算法进行了实验验证。第六,RIISS构建实现与应用推广。主要分析了RIISS的网络运行环境、服务器端及客户端的运行要求,阐述了RIISS信息服务系统及管理系统的构建实现,包括电子村务类、农村经济类、乡村文化教育类、乡风文明建设类、多媒体类、专家答疑类信息服务等的构建实现,及信息检索管理、系统内容管理、用户管理、数据分析、行为分析管理、信息推送、专家答疑管理等的构建实现。最后,叙述了RIISS的应用领域和推广方式。文章最后对研究的主要结论和贡献进行了总结,指出了研究的不足之处,并提出了下一步研究工作的构想。
二、基于数据压缩的信息检索技术的研究(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、基于数据压缩的信息检索技术的研究(论文提纲范文)
(1)时序数据无损压缩算法研究(论文提纲范文)
致谢 |
摘要 |
ABSTRACT |
1 引言 |
1.1 课题研究背景与意义 |
1.2 国内外研究现状 |
1.3 课题研究内容与目标 |
1.4 论文组织结构 |
2 相关理论介绍 |
2.1 时序数据与数据编码 |
2.1.1 算术编码 |
2.1.2 基于预测误差的编码模型 |
2.2 机器学习基础 |
2.2.1 决策树与CART回归树 |
2.2.2 时间序列森林分类器 |
2.2.3 循环神经网络模型 |
2.3 时序数据无损压缩技术 |
2.3.1 Gorilla数据库压缩技术 |
2.3.2 InfluxDB数据库压缩技术 |
2.4 本章小结 |
3 e-DoD时间戳压缩算法 |
3.1 问题描述 |
3.2 二阶差分编码 |
3.3 e-DoD时间戳压缩算法介绍 |
3.3.1 e-DoD压缩算法中的位掩码法、尾零法与偏置法编码 |
3.3.2 e-DoD压缩算法编码过程 |
3.3.3 e-DoD压缩算法解码过程 |
3.4 实验与分析 |
3.4.1 实验数据集与评价指标 |
3.4.2 数据压缩算法测试及结果分析 |
3.5 本章小结 |
4 PredZip时序数据值压缩算法 |
4.1 问题描述 |
4.2 PredZip算法介绍 |
4.3 PredZip算法概率预测模块 |
4.3.1 独热编码 |
4.3.2 FC预测模型 |
4.3.3 LSTM预测模型 |
4.3.4 XGBoost预测模型 |
4.4 PredZip算法的编码与解码过程 |
4.4.1 PredZip算法编码过程 |
4.4.2 PredZip算法解码过程 |
4.5 实验与分析 |
4.5.1 实验数据集与评价指标 |
4.5.2 实验结果与分析 |
4.6 本章小结 |
5 CS-Zip时序数据压缩算法 |
5.1 问题描述 |
5.2 CS-Zip时序数据压缩算法 |
5.2.1 遍历择优标注法与时序数据分类 |
5.2.2 两阶段压缩 |
5.2.3 CS-Zip算法编码过程 |
5.2.4 CS-Zip算法解码过程 |
5.3 实验与分析 |
5.3.1 实验数据集与评价指标 |
5.3.3 实验结果与分析 |
5.4 本章小结 |
6 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
作者简历及攻读硕士学位期间取得的研究成果 |
学位论文数据集 |
(2)面向边缘计算的数据压缩分类机制研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 边缘计算研究现状 |
1.2.2 数据压缩研究现状 |
1.3 论文研究内容 |
1.4 论文组织结构 |
第二章 相关理论和技术概述 |
2.1 深度学习模型 |
2.2 边缘计算 |
2.3 数据压缩 |
2.4 流形学习 |
2.5 本章小结 |
第三章 面向边缘计算的特征重构数据压缩分类机制 |
3.1 自编码数据压缩 |
3.2 一种特征重构的数据压缩方法 |
3.3 面向压缩数据的分类模型 |
3.4 实验设计 |
3.4.1 数据集 |
3.4.2 实验方案和评估指标 |
3.5 实验分析 |
3.5.1 准确率分析 |
3.5.2 效率分析 |
3.6 本章小结 |
第四章 面向边缘计算的Manifold数据压缩分类机制 |
4.1 特征映射压缩 |
4.2 面向压缩数据的分类模型 |
4.3 实验设计 |
4.3.1 数据集 |
4.3.2 实验方案和评估指标 |
4.4 实验分析 |
4.4.1 准确率分析 |
4.4.2 效率分析 |
4.5 本章小结 |
第五章 数据压缩分类框架的设计与测试 |
5.1 数据压缩分类框架设计 |
5.2 框架测试 |
5.2.1 系统环境 |
5.2.2 框架测试 |
5.2.3 测试结果 |
5.3 数据压缩分类框架的性能测试 |
5.3.1 性能测试 |
5.3.2 实验结果 |
5.4 本章小结 |
结论 |
参考文献 |
致谢 |
攻读学位期间发表的学术论文及取得的科研成果 |
(3)基于哈希学习的压缩媒体上数字指纹生成方法研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景和意义 |
1.2 国内外研究现状 |
1.2.1 哈希学习研究 |
1.2.2 数据压缩研究 |
1.2.3 数字指纹研究 |
1.3 本文主要工作 |
1.4 本文章节安排 |
第二章 基于哈希学习的图像检索算法的研究与分析 |
2.1 基于哈希学习的方法 |
2.2 四种哈希学习算法的研究与对比 |
2.2.1 基于谱哈希学习的图像检索算法 |
2.2.2 基于图哈希学习的图像检索算法 |
2.2.3 基于核哈希学习的图像检索算法 |
2.2.4 基于深度哈希学习的图像检索算法 |
2.3 四种哈希学习算法的优缺点对比 |
2.4 基于监督式深度学习的二进制哈希码生成方式 |
2.5 数字指纹基础知识 |
2.5.1 数字指纹生成过程 |
2.5.2 合谋攻击 |
2.5.3 合谋者追踪 |
2.6 本章小结 |
第三章 基于哈希学习的压缩媒体上数字指纹生成方法设计方案 |
3.1 方案要求 |
3.2 系统模型 |
3.3 哈希学习模块方案设计 |
3.3.1 哈希学习模块系统模型 |
3.3.2 学习类哈希二进制编码 |
3.3.3 通过分层次深度搜索进行数据检索 |
3.3.4 实验效果 |
3.4 数据压缩模块方案设计 |
3.4.1 数据压缩模块系统模型 |
3.4.2 学习算法 |
3.4.3 损失函数 |
3.4.4 实验效果 |
3.5 数字指纹模块方案设计 |
3.5.1 数字指纹模块系统模型 |
3.5.2 对压缩信号的预处理 |
3.5.3 指纹码部分的方案设计 |
3.5.4 双重指纹编码模式的嵌入 |
3.5.5 实验效果 |
3.6 性能分析评估 |
3.7 本章小结 |
第四章 总结与展望 |
4.1 全文总结 |
4.2 未来工作展望 |
参考文献 |
附录 |
附录 A 部分代码展示 |
附录 B 部分程序运行结果展示 |
致谢 |
(4)熵编码算法研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 研究背景 |
1.2 国内外研究现状 |
1.2.1 Golomb编码算法研究 |
1.2.2 ANS算法研究 |
1.2.3 可变长度编码中随机访问机制研究 |
1.2.4 现有研究存在的主要问题 |
1.3 研究意义 |
1.4 研究内容 |
1.5 本文的主要贡献 |
1.6 本文的组织结构 |
第2章 Golomb编码的变体及n进制研究 |
2.1 引言 |
2.2 准备工作 |
2.2.1 定义 |
2.2.2 Golomb编码的介绍 |
2.2.3 常除数实现无符号整数除法 |
2.3 Golomb编码的变体 |
2.3.1 码字构造方法 |
2.3.2 码字长度分析 |
2.3.3 实验结果与复杂度分析 |
2.4 n进制编码算法研究 |
2.4.1 截断n进制编码 |
2.4.2 n进制Golomb编码 |
2.4.3 理论分析 |
2.4.4 所提出方案的n进制编码 |
2.4.5 实验结果与讨论 |
2.5 总结 |
第3章 查找表空间较小的tANS算法研究 |
3.1 引言 |
3.2 准备工作 |
3.2.1 定义 |
3.2.2 ANS编码的介绍 |
3.2.3 问题表述 |
3.3 查找表空间较小的tANS算法 |
3.3.1 编码表的构造 |
3.3.2 编码算法 |
3.3.3 译码算法 |
3.4 实验结果与复杂度分析 |
3.4.1 算术复杂度分析 |
3.4.2 实验结果 |
3.5 总结 |
第4章 支持随机访问的零辅助空间算法研究 |
4.1 引言 |
4.2 准备工作 |
4.2.1 定义 |
4.2.2 相关的研究工作 |
4.3 一种新的码流重排方法 |
4.3.1 码流重排方法 |
4.3.2 理论分析 |
4.4 符号/整数序列的随机访问 |
4.4.1 查找表构造 |
4.4.2 基于查找表的译码/随机访问算法 |
4.4.3 Canonical Huffman编码的随机访问 |
4.4.4 讨论 |
4.4.5 VLQ编码的随机访问 |
4.5 实验结果 |
4.5.1 符号序列的随机访问性能 |
4.5.2 整数序列的随机访问性能 |
4.6 总结 |
第5章 结束语 |
5.1 本文的主要工作 |
5.2 本文的主要贡献 |
5.3 未来的研究工作 |
参考文献 |
致谢 |
在读期间发表的学术论文与取得的研究成果 |
(5)云制造环境下的车间资源虚拟可视化设计与实现(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 课题来源 |
1.2 课题研究背景及意义 |
1.2.1 工业4.0 与云制造 |
1.2.2 研究意义 |
1.3 国内外研究现状及存在问题 |
1.3.1 数据采集及处理技术研究现状 |
1.3.2 制造资源虚拟化技术研究现状 |
1.3.3 知识图谱技术研究现状 |
1.4 论文研究的主要内容 |
第二章 航空制造车间高并发数据采集及数据处理系统构建 |
2.1 EtherCAT的车间高性能传输网络设计与搭建 |
2.1.1 车间组网协议研究 |
2.1.2 车间网络架构 |
2.2 多源异构设备数据采集客户端的设计与开发 |
2.2.1 数据采集客户端采集原理 |
2.2.2 工业数据采集方法对比 |
2.2.3 车间多源异构数据特点分析 |
2.2.4 数据采集方法的设计与实现 |
2.2.5 客户端数据采集验证 |
2.3 Phi架构数据处理平台 |
2.3.1 数据处理架构的价值及需求 |
2.3.2 架构对比及优缺点 |
2.3.3 Phi数据处理架构的设计及特点 |
2.3.4 数据处理架构的适用场景 |
2.4 本章小结 |
第三章 基于本体的航空制造资源虚拟化方法设计与构建 |
3.1 制造资源本体 |
3.1.1 本体定义 |
3.1.2 资源虚拟化技术分类与区别 |
3.2 资源虚拟化本体建模分析 |
3.2.1 资源分类 |
3.2.2 航空资源特点与属性 |
3.2.3 车间资源的本体模型分析与分类 |
3.2.4 资源本体建模流程设计 |
3.3 资源本体实例模型的设计与实现 |
3.3.1 资源类的概念分层与资源核心属性分析 |
3.3.2 资源本体语义化封装基本规则 |
3.3.3 资源本体语义化描述语言及工具 |
3.3.4 基于RDF三元组概念的资源本体描述模型构建 |
3.3.5 制造资源本体模型的实例化 |
3.4 基于动态数据的资源本体实例的构建方法改进 |
3.4.1 数据预处理及数据融合 |
3.4.2 资源本体注册与封装方法的改进 |
3.5 本章小结 |
第四章 基于资源本体实例的制造资源知识图谱分析与构建 |
4.1 Ontology与知识图谱关系分析 |
4.1.1 Ontology与知识图谱 |
4.1.2 关系分析 |
4.2 车间资源知识图谱构建 |
4.2.1 资源知识图谱体系构建流程 |
4.2.2 资源知识图谱数据来源 |
4.2.3 资源知识图谱数据结构 |
4.2.4 资源知识图谱数据预处理 |
4.3 资源关联分析 |
4.3.1 制造资源关系分析 |
4.3.2 基于模板的资源关系规则设计 |
4.3.3 制造资源关系规则处理与实现 |
4.4 基于本体的车间资源知识图谱设计 |
4.4.1 Neo4j图数据库与InteractiveGraph图数据交互框架对比 |
4.4.2 基于InteractiveGraph的资源知识图谱设计 |
4.5 本章小结 |
第五章 数字化车间虚拟资源管控系统实现与部署 |
5.1 基于Phi架构的数据处理平台部署与测试 |
5.2 资源虚拟化模块开发 |
5.2.1 资源虚拟化注册端 |
5.2.2 资源虚拟化管理端 |
5.3 资源可视化模块开发 |
5.3.1 基于动态数据的实时状态信息监控模块 |
5.3.2 制造资源知识图谱模块 |
5.4 系统功能集成及测试 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 论文成果总结 |
6.2 未来展望 |
致谢 |
参考文献 |
附录 |
附录A 数据采集程序 |
附录B 资源注册管理程序 |
附录C 图谱数据融合与关系构建程序 |
攻读硕士学位期间取得的研究成果 |
(6)基于TermID序列排序的标识符重分配的倒排索引压缩研究(论文提纲范文)
致谢 |
摘要 |
ABSTRACT |
1 引言 |
1.1 课题的研究背景与意义 |
1.2 课题相关的研究现状 |
1.2.1 全文索引模型 |
1.2.2 数据压缩 |
1.2.3 文档标识符(docID)分配方案 |
1.3 课题主要研究内容和创新性 |
1.4 论文的内容安排 |
2 倒排索引的生成算法 |
2.1 倒排索引文档标识符(docID)分配算法 |
2.1.1 基于URL排序的标识符分配算法 |
2.1.2 基于交叉的标识符重分配算法 |
2.2 常见的Posting Lists压缩算法 |
2.2.1 Unary Code压缩算法 |
2.2.2 Variable Byte Code压缩算法 |
2.2.3 Simple-9压缩算法 |
2.2.4 PForDelta压缩算法 |
2.3 本章小结 |
3 基于TermID序列排序的标识符重分配算法(SBDRA)的设计 |
3.1 算法预处理 |
3.2 正排表生成 |
3.3 排表排序 |
3.4 新标识符分配 |
3.5 本章小结 |
4 基于TermID序列排序的标识符重分配算法(SBDRA)的实现 |
4.1 正排表生成 |
4.2 正排表排序 |
4.3 新标识符分配 |
4.4 本章小结 |
5 实验结果与分析 |
5.1 实验评价标准 |
5.1.1 倒排索引压缩实验评价标准 |
5.1.2 倒排索引的解压实验评价标准 |
5.2 实验数据集 |
5.3 实验环境和工具 |
5.4 URL、IBDA和SBDRA算法的压缩实验 |
5.4.1 URL+VByte的压缩实验 |
5.4.2 URL+Simple-9的压缩实验 |
5.4.3 URL+Simple-16的压缩实验 |
5.4.4 URL+New PFD的压缩实验 |
5.4.5 URL+Opt PFD的压缩实验 |
5.4.6 URL+PForDelta的压缩实验 |
5.4.7 IBDA+VByte的压缩实验 |
5.4.8 IBDA+Simple-9的压缩实验 |
5.4.9 IBDA+Simple-16的压缩实验 |
5.4.10 IBDA+New PFD的压缩实验 |
5.4.11 IBDA+Opt PFD的压缩实验 |
5.4.12 IBDA+PForDelta的压缩实验 |
5.4.13 SBDRA+VByte的压缩实验 |
5.4.14 SBDRA+Simple-9的压缩实验 |
5.4.15 SBDRA+Simple-16的压缩实验 |
5.4.16 SBDRA+New PFD的压缩实验 |
5.4.17 SBDRA+Opt PFD的压缩实验 |
5.4.18 SBDRA+PForDelta的压缩实验 |
5.5 URL、IBDA和SBDRA算法的压缩实验结果分析 |
5.6 本章小结 |
6 总结与展望 |
6.1 论文总结 |
6.2 工作展望 |
参考文献 |
作者简历及攻读硕士学位期间取得的研究成果 |
学位论文数据集 |
(7)基于缓存内容辅助的网络层去冗余技术研究(论文提纲范文)
摘要 |
ABSTRACT |
主要符号对照表 |
第一章 绪论 |
1.1 引言 |
1.2 课题背景及意义 |
1.3 网络信息数据冗余去除技术概述 |
1.3.1 按去冗余算法分类 |
1.3.2 按处理冗余所处协议层分类 |
1.4 本文的主要工作和创新点 |
1.5 本文的组织结构 |
第二章 网络信息冗余及数据压缩技术简介 |
2.1 网络信息冗余的基本介绍 |
2.2 数据压缩去冗余技术 |
2.2.1 数据压缩与信源编码 |
2.2.2 数据压缩算法分类 |
2.2.3 通用数据压缩与机器学习 |
2.2.4 相关压缩算法简介 |
2.2.5 数据压缩的主要性能指标 |
2.3 本章小结 |
第三章 基于内容辅助的压缩技术理论研究 |
3.1 数据压缩编码冗余度分析 |
3.1.1 离散平稳无记忆数据源理论编码 |
3.1.2 通用数据压缩编码的冗余度介绍 |
3.1.3 单一参数信源模型的普通压缩策略的冗余度计算 |
3.2 混合源参数模型压缩编码冗余度推导 |
3.2.1 混合源参数模型理论编码 |
3.2.2 混合源参数模型普通压缩策略的冗余度计算 |
3.3 基于聚类内容辅助的压缩策略的理论推导 |
3.3.1 基于聚类分析的内容辅助压缩策略 |
3.3.2 数据压缩策略对比讨论 |
3.4 本章小结 |
第四章 基于聚类分析的内容辅助压缩模型仿真 |
4.1 模型仿真总体设计 |
4.2 混合数据源序列构造 |
4.3 基于聚类的辅助内容选择算法研究 |
4.3.1 聚类特征向量提取及空间模型 |
4.3.2 聚类分析距离模型研究与仿真 |
4.3.3 聚类分析算法选择 |
4.4 基于K-means聚类的辅助内容选择算法流程 |
4.5 基于边信息辅助的Lite PAQ算法构造 |
4.6 整体模型仿真结果分析 |
4.7 本章小结 |
第五章 网络数据下辅助内容选择算法的改进研究 |
5.1 基于缓存内容辅助的网络层数据压缩模型 |
5.1.1 模型框图介绍 |
5.1.2 应用场景介绍 |
5.2 辅助内容选择算法改进分析 |
5.2.1 K-means算法局限性分析 |
5.2.2 真实网络数据特征分析 |
5.2.3 数据压缩算法特性分析 |
5.3 Non-parametric辅助内容选择算法 |
5.4 改进的辅助内容选择算法性能对比仿真 |
5.4.1 仿真模型参数设置 |
5.4.2 改进的辅助内容选择算法对比仿真结果分析 |
5.5 真实网络场景压缩仿真及应用讨论 |
5.5.1 不同压缩策略的仿真对比及分析 |
5.5.2 基于不同压缩算法的仿真与分析 |
5.5.3 压缩策略算法选择讨论 |
5.6 本章小结 |
总结与展望 |
参考文献 |
致谢 |
攻读学位期间发表的学术论文目录 |
(8)基于数据压缩的信息检索技术的研究(论文提纲范文)
0 引言 |
1 数据压缩技术的分类及特点 |
2 数据压缩技术在信息检索中的优点 |
3 数据压缩在信息检索技术中的应用 |
4 结束语 |
(9)内容感知存储系统中的信息检索关键技术研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究背景与意义 |
1.2 国内外相关技术研究现状 |
1.3 现有研究工作的不足 |
1.4 本文研究内容与创新 |
1.5 论文组织结构 |
2 内容感知存储系统中的检索机制 |
2.1 内容感知存储系统的特点 |
2.2 内容感知存储系统架构 |
2.3 内容感知存储系统中的检索流程 |
2.4 本章小结 |
3 内容感知存储系统的索引组织与优化策略 |
3.1 索引与查询优化相关研究 |
3.2 元数据的索引组织形式 |
3.3 非结构化信息的索引组织形式 |
3.4 内容哈希的索引组织形式 |
3.5 基于分级存储的索引优化模型 |
3.6 实验与分析 |
3.7 本章小结 |
4 查询扩展与数据相关性挖掘 |
4.1 查询扩展与相关性挖掘研究 |
4.2 基于重复数据的相关图构建 |
4.3 基于重复数据的相关度计算 |
4.4 实验与分析 |
4.5 本章小结 |
5 查询结果的相似性度量研究 |
5.1 SIM-RANKING 局部相似性度量 |
5.2 PAGERANK 网页链接分析 |
5.3 BLOCK-RANKING 全局相似性度量 |
5.4 实验与分析 |
5.5 本章小结 |
6 全文总结 |
6.1 论文总结 |
6.2 未来的研究方向 |
致谢 |
参考文献 |
附录 1 攻读博士学位期间发表的论文目录 |
附录 2 攻读博士学位期间参与的课题 |
附录 3 攻读博士学位期间申请的专利 |
(10)农村智能信息服务系统构建及关键技术研究(论文提纲范文)
中文摘要 |
英文摘要 |
目录 |
图目录 |
表目录 |
第1章 绪论 |
1.1 引言 |
1.2 国内外研究综述 |
1.2.1 国外研究综述 |
1.2.2 国内研究综述 |
1.3 研究内容与方法 |
1.3.1 主要研究内容 |
1.3.2 主要研究方法 |
1.4 研究意义和创新之处 |
1.4.1 研究意义 |
1.4.2 创新之处 |
1.5 论文的主要结构 |
第2章 RIISS的理论分析与架构设计 |
2.1 构建RIISS的理论基础 |
2.1.1 信息科学理论 |
2.1.2 信息服务理论 |
2.1.3 传播科学理论 |
2.2 RIISS的需求分析 |
2.2.1 系统用户分析 |
2.2.2 系统功能需求 |
2.2.3 系统性能需求 |
2.3 RIISS建构的可行性分析 |
2.3.1 社会可行性 |
2.3.2 经济可行性 |
2.3.3 技术可行性 |
2.4 RIISS系统定位与设计原则 |
2.4.1 RIISS系统定位 |
2.4.2 RIISS设计原则 |
2.5 RIISS架构设计 |
2.5.1 RIISS逻辑结构设计 |
2.5.2 RIISS运行框架图 |
2.5.3 RIISS功能结构设计 |
2.5.4 RIISS内容详细设计 |
2.6 本章小结 |
第3章 RIISS多媒体应用与实现 |
3.1 多媒体技术基础 |
3.1.1 多媒体内容解析 |
3.1.2 多媒体特征及优势 |
3.1.3 多媒体沿革历程 |
3.2 RIISS多媒体系统模块设计 |
3.2.1 RIISS多媒体系统模块逻辑结构设计 |
3.2.2 RIISS多媒体信息展示模块设计 |
3.2.3 RIISS多媒体交互性模块设计 |
3.2.4 RIISS多媒体信息安全模块设计 |
3.3 多媒体在RIISS的应用实现 |
3.3.1 RIISS多媒体数据压缩技术应用 |
3.3.2 RIISS多媒体信息展示 |
3.3.3 RIISS的多媒体交互性 |
3.3.4 RIISS多媒体信息存储技术应用 |
3.3.5 RIISS多媒体信息安全实现 |
3.4 本章小结 |
第4章 RIISS的数据库构建 |
4.1 RIISS数据库分析 |
4.1.1 RIISS数据与信息 |
4.1.2 RIISS元数据 |
4.1.3 RIISS数据库管理 |
4.2 RIISS数据库构建目标 |
4.3 RIISS数据库构建原则 |
4.3.1 实用性原则 |
4.3.2 标准化原则 |
4.3.3 安全性原则 |
4.3.4 开放性原则 |
4.4 RIISS数据库构建规范 |
4.4.1 表构建规范 |
4.4.2 视图构建规范 |
4.4.3 标志符命名规范 |
4.5 数据库结构设计 |
4.5.1 逻辑结构 |
4.5.2 用例模型 |
4.5.3 表结构设计 |
4.6 本章小结 |
第5章 RIISS信息检索关键技术研究 |
5.1 信息检索模型 |
5.1.1 信息检索一般模型 |
5.1.2 向量空间检索模型 |
5.2 信息检索的查询扩展 |
5.2.1 利用语言学知识对查询词扩展 |
5.2.2 利用相关反馈和伪相关反馈对查询词扩展 |
5.2.3 利用词语共现互信息对查询词扩展 |
5.3 基于关键词关联图扩展向量检索算法 |
5.3.1 信息 |
5.3.2 基于关键词关联图查询扩展的向量生成 |
5.3.3 基于关键词关联图扩展向量检索 |
5.4 实验及结果分析 |
5.4.1 实验设计 |
5.4.2 评价标准 |
5.4.3 结果分析 |
5.5 本章小结 |
第6章 RIISS信息推荐关键技术研究 |
6.1 信息推荐技术基础 |
6.1.1 常用信息推荐方法 |
6.1.2 RIISS信息推荐方法选择 |
6.2 基于内容的农村信息推荐算法设计 |
6.2.1 算法流程 |
6.2.2 用户信息行为的采集 |
6.2.3 构建用户兴趣模型 |
6.2.4 推荐结果的形成 |
6.2.5 手机信息推送 |
6.3 实验及结果分析 |
6.3.1 实验设计 |
6.3.2 评价标准 |
6.3.3 结果分析 |
6.4 本章小结 |
第7章 RIISS构建实现与应用推广 |
7.1 RIISS的运行环境 |
7.1.1 RIISS运行的网络环境 |
7.1.2 RIISS服务器端设计 |
7.1.3 RIISS客户端要求 |
7.2 RIISS系统构建实现 |
7.2.1 RIISS信息服务系统构建实现 |
7.2.2 RIISS管理系统构建实现 |
7.3 RIISS应用推广 |
7.3.1 RIISS应用 |
7.3.2 RIISS推广 |
7.4 本章小结 |
第8章 结束语 |
8.1 研究结论 |
8.2 主要创新点 |
8.3 研究不足及后续研究展望 |
8.4 本章小结 |
参考文献 |
致谢 |
四、基于数据压缩的信息检索技术的研究(论文参考文献)
- [1]时序数据无损压缩算法研究[D]. 陈瑾. 北京交通大学, 2021(02)
- [2]面向边缘计算的数据压缩分类机制研究[D]. 李文越. 内蒙古工业大学, 2021(01)
- [3]基于哈希学习的压缩媒体上数字指纹生成方法研究[D]. 张民敏. 山东师范大学, 2021(12)
- [4]熵编码算法研究[D]. 王娜. 中国科学技术大学, 2021(09)
- [5]云制造环境下的车间资源虚拟可视化设计与实现[D]. 范磊. 电子科技大学, 2020(07)
- [6]基于TermID序列排序的标识符重分配的倒排索引压缩研究[D]. 郭争文. 北京交通大学, 2016(07)
- [7]基于缓存内容辅助的网络层去冗余技术研究[D]. 黄黎灵. 上海交通大学, 2015(02)
- [8]基于数据压缩的信息检索技术的研究[J]. 向波. 煤炭技术, 2012(11)
- [9]内容感知存储系统中的信息检索关键技术研究[D]. 刘科. 华中科技大学, 2012(07)
- [10]农村智能信息服务系统构建及关键技术研究[D]. 朱鹏. 南京大学, 2011(04)