本文是一篇经济统计论文,经济统计工作是搜集、整理和分析国民经济数量资料的工作过程;经济统计资料是经过搜集、整理和计算分析以后所得的反映国民经济现象数量方面的各种统计数据。(以上内容来自百度百科)今天为大家推荐一篇经济统计论文,供大家参考。
优秀经济统计毕业论文范文篇一
1.前言
1.1研究背景、目的及意义
社会依赖人而存在,因此社会要发展就必须要满足人们的各种物质和精神需要,就需要各种不同类型的消费资料。于是,消费结构问题应运而生,它也是国民经济重大比例因素之一。消费结构能反映消费的内容、质量和水平,其合理化程度反映居民生活消费质量变化的好坏。改革幵放以后,市场经济代替了计划经济,居民可以根据自己的需求任意购买自己中意的商品,粮票的时代一去不返了。当前的全球经济增长下滑、通货膨胀不断加剧。受到国内外许多因素的影响,我国在经历了经济高速增长的时期以后也开始放慢速度,转型中的中国经济进入了一个关键的时期。投资、出口和消费是国家拉动经济的“三驾马车”,经济要协调发展就必须要求投资、出口和消费有协调的比例关系。但是改革开放以来,我国的投资率一直保持在较高的水平,净出口率也在逐年上升,但最终消费率却始终处于比较低的水平并逐年下降。换句话说,居民消费对GDP的贡献率呈下降趋势,发达国家的消费贡献率平均为80%,我国与发达国家的差距还很大。2005年,中央经济工作会议就明确的表示要实现经济平稳较快的增长,关键是努力扩大国内需求。2010年,温家宝总理在政府工作报告中指出,要巩固扩大传统消费,积极培育信息、文化、健身、培训、旅游、养老、家庭服务等消费热点,促进消费结构优化升级。虽然我国居民己经在逐渐从生存型消费向享乐型、发展型消费过度,但是,区域协调发展程度、收入分配结构、产业结构和产品结构等都滞后于消费结构升级变化,从而必然导致了消费需求的縮减,这也是消费贡献率一直难以提高的部分原因,阻碍了经济增长。并且,从一定程度上说,消费结构决定了产业结构和产品结构,因为产品最终要用于消费,供求关系决定了他们之间相互制约相互影响。消费结构的升级能够带动产业结构的合理变迁,随着收入的不断提高,居民的消费需求层次也会不断提高,想要解决生产过剩的问题就必须要了解消费结构的变动趋势。只有掌握居民消费需求的变动和发展方向,才能合理引导消费者扩大消费,促进消费结构的优化升级,促进产业结构的调整从而推动经济平稳、健康地发展。
…………
1. 2研究思路
本文将温江区城乡居民消费结构作为研究对象,分为问题提出、理论阐述、实证分析这三大板块。问题提出:本文从研究背景入手,阐述本文研究目的和意义。理论阐述:对有关的消费理论进行综述,对消费结构的含义以及各类指标进行界定,并对消费结构的类型进行划分。实证分析:首先对温江区城乡居民的消费支出结构分别进行纵向分析,釆用聚类分析法对温江区1987年至2011年的消费结构进行阶段划分;其次,着重对三大类消费的演进趋势和特点进行探究;最后,采用ELES模型和双残差模型对温江区城市化进程和居民消费结构变动关系进行分析。
……………
2.消费结构理论
2.1相关概念
消费是消费者借助于所在社会关系而进行的为满足自身需要而运用消费资料的行为和过程。消费结构是指在一定的社会经济条件下,包括各种不同类型旳消费者和社会集团在内的人们在消费过程中所消费的各种不同类型的消费资料(包括劳务、服务等)的比例关系,因此消费结构又称消费构成。简单地说,就是消费者对各种消费品和劳务等消费的数量在总消费支出中的占比,可以用各项消费支出占生活费总支出的比重来表示。城镇居民可支配收入,指被调查城镇居民家庭经过初次分配和再分配(主要指扣除直接税)之后,所余下的可直接用于储蓄和消费的实际收入。其中,城镇居民的实际收入指被调查城镇居民全部的实际现金收入,包括经常或固定得到的收入和一次性收入。不包括周转性收入,如提取银行存款、向亲友借入款、收回借出款以及其他各种暂收款。城镇居民消费性支出,指被调查城镇居民家庭用于日常生活的全部支出,包括购买商品支出和文化生活、服务等非商品性支出。不包括罚没、丢失款和缴纳的各种税款(如个人所得税、房产税等),也不包括个体劳动者生产经营过程中发生的各项费用。
…………
2. 2有关消费结构问题的文献综述
消费结构问题从17世纪开始就渐渐受到西方古典经济学家的关注,马克思主义的经典作家也对此颇有研究,虽然没有建立起系统的消费结构理论体系,但却科学地阐述了消费结构研究的一般性原理。在此基础上,当代西方经济学家不仅对消费结构有了更加深入的研究,并且创造了一些具体的方法。这些思想与我国特有的国情相结合,逐渐发展出了具有中国特色的有关消费结构的理论和方法,这就为本文研究温江区居民消费结构变动问题提供了理.论基础。在马克思、恩格斯时代,还没有消费结构这个概念,但是马克思在《资本论》中已经有将消费区分为生产消费和个人消费的思想,这就为消费结构理论的发展奠定了基础。1844年,马克思在自己的手稿中进一步将生活消费划分为基本生活资料、享受性生活资料和发展性生活资料,这也是本文将消费划分为生存型、享受型和发展型三大类消费的最早的理论支持。“没有生产就没有消费;但是,没有消费也就没有生产。”消费的社会性逐渐引起学者的重视,消费结构与生产结构、产业结构之间必须相互适应、互相协调的思想应运而生。斯大林最先将人的需要区分为物质需要和文化需要,他指出满足人的这两种需要是社会主义生产的目的。在我国社会主义建设初期,以毛泽东为核心的中国第一代领导人将保障与改善人民基本消费作为对消费结构问题探索的主要部分,着力解决人民温饱问题。1955年,供给制退出历史舞台,基本消费品统购统销政策开始实施,从而出现了 “凭票购买”这一极具中国特色的历史时期,但计划经济体制严重遏制了消费的发展,长期的供不应求导致人民生活的改进非常缓慢。
………………
3.温江区居民消费结构类型的统计分析........... 8
3.1八大类消费支出 .........8
3.2生存型消费、享乐型消费和发展型消费......... 9
4.温江区居民消费结构阶段性特征的统计分析......... 10
4.1温江区居民消费结构阶段划分......... 10
4.2温江区城乡居民八大类消费支出演变趋势分析......... 16
4.3温江区城乡居民消费支出三阶段规律性特征......... 21
5.温江区城乡居民消费结构变动分析 .........28
5.1温江区城乡居民消费结构比例结构变化分析......... 28
5.2温江区城镇居民消费结构变动特点分析......... 30
5.2.1恩格尔系数.........30
5.2.2居住消费......... 31
5.2.3医疗保健、交通与通讯消费......... 32
6.温江区居民消费结构变动与其城市化进程关系
为了分析温江区整体居民消费结构变动与其城市化进程的关系,本文拟采用城镇人口比例作为衡量城市化进程的指标并依此为权数算出温江区整体居民的人均收入以及三大类消费人均年支出。在这里需要说明的是,因为统计口径的原因,我们没有直接的有关城镇户籍人口与农村户籍人口的数据,因此我们釆用非农业人口比例代替城镇人口比例,从另一方面说,因为村镇的建立和发展,以非务农人口比重作为衡量城市化进程的指标更为准确。温江区居民的平均消费倾向(APC)逐渐降低,但一直高于50%,说明居民的消费支出随着收入的增加而增加,但居民消费支出占收入的比重在逐渐下降,该比重从1987年的93%下降到2011年的63%,居民的消费结构在不断优化,整体生活水平逐渐提高。但边际消费倾向(MPC)波动较大,并且也呈现不是非常明显的下降趋势。
……………
结论
本文通过对温江区居民自1987年以来这25年来的消费结构变动研究,可以看出温江区居民旳生活水平正在不断地提高,尤其是农村居民生活变化巨大。城乡居民相比而言,城镇居民对享乐型消费的消费需求和支出要大于农村居民,而农村居民对发展型消费的支出增长迅速,这一方面可以体现出温江区居民对自身素质发展的重视,另一方面可以看出,温江区城市化进程促进了居民为提高自身素质将更多的收入投入到发展型消费中。但总体来说,居民的有效需求还不足。温江区城乡居民收入和生活消费支出差距如图20所示。可以看出,农村居民人均收入和生活消费支出相比城镇居民仍然较低,且1993年以后,城乡居民消费支出差距多大于城乡收入差距,农村居民的消费需求不强,还没有形成消费市场上的生力军。
……………
参考文献(略)
优秀经济统计毕业论文范文篇二
1 绪论
1.1 研究背景
1.1.1 政府统计的现状
在大多数国家,政府统计体系的建立和发展已经有一百多年的历史。十九世纪中叶以前,随着欧洲主要国家先后建立起资产阶级专政政权,一方面,国家行政的统一和生产力的提高为统计工作提供了有利的条件,另一方面,政策、法令的制定在资产阶级民主制度下要求以统计资料为依据,这些国家相继建立了为国家管理服务的政府统计体系。二次世界大战以后,随着社会经济的快速发展以及政府对统计产品的急切需求,国民核算体系在政府统计体系中发挥着重要作用,一系列的统计活动被涵盖进了政府统计体系中。而计算机科学的革命性发展则为统计在处理和传播上开启了新的篇章,统计机构从传统的强调数据的精确性,逐渐扩展到更广泛的内容,包括统计机构的独立性、数据的可得性,以及对用户的关注不断提高。 对于统计数据,传统来说来自于官方统计机构,如进行一系列的抽样调查和普查,而这样的抽样调查和普查又是需要耗费大量资金和时间的。近 20 年来,先进国家开始不断地将行政记录和名录库的概念引入现有的统计体系中,旨在建立一个传统统计方法与名录库数据口径一致、涵盖内容协调、储存方式文档化,并且能够保证数据质量的系统。
………………
1.2 研究意义
从政府统计环境的变化可以看到,当代官方统计工作面临着许多新的难题。可分别从数据的生产和数据的使用两个角度进行分析:
(1)从数据生产者的角度看,现代社会,由于人们观念的改变以及法律环境对个人隐私和保密信息的保护产生了对统计部门不利的改变。无回答问题日益突出,已然成为了统计工作者亟需解决的问题,特别是涉及个人信息的数据从常规调查中越来越难以取得,而且取得成本高。因此从传统方式得到统计数据的可能性有所下降,并且数据的真实性也难以保证。
(2)从用户对数据需求的角度看,用户对数据的需求越来越高,需要针对新情况的更多、更快的统计数据。然而统计数据质量不高、数出多门的情况却时有发生。
………………
2 相关研究
2.1 对统计数据质量理论体系的研究
在设计阶段,统计数据质量的概念范畴决定了评估研究的系统框架,传统的统计数据质量实际上等同于统计数据的准确性,主要通过对统计调查误差的测量进行估算。随着人们认识的加深,统计数据质量的概念不断得到扩展,Juran & Gryna(1980)从数据生产者和使用者的角度考虑,提出“适用程度”(fitness for use)的概念,从适用性的角度解读统计数据质量,突破数据质量等同于准确性的狭义定义,标示着学界对统计数据质量的概念有了新的认识。Lyberg, Felme & Lars(1977)在全面质量管理的框架下,介绍了质量维度的概念体系,以此来将“适用程度”的概念具体呈现出来。九十年代中期以后,部分国家政府统计机构在质量维度的理念下开展了对数据质量概念体系的研究(Fellegi, 1996)。在具体的质量要素构成方面,余芳东(2002)通过回顾和借鉴国外数据质量评价和管理的方法和经验,对各项统计数据质量维度进行了较为完整的总结,指出统计数据质量的概念具体可以涵盖以下 11 个维度:适用性、准确性、及时性、可比性、可衔接性、可取得性、可解释性、客观性、方法专业性、有效性和减轻调查负担。黄恒君,傅德印(2009)对统计数据质量的特性进行了探讨,按照统计调查过程和统计调查主体纵横两个方向分别对统计质量特性进行分解,并对纵横两个方向进行整合分析。
………………
2.2 对行政记录用于改善统计数据质量的研究
2.2.1 从统计数据质量多维度的角度
从统计数据质量理论体系的研究现状可以看到,对数据质量的含义,可以从多个维度进行解释,因此衡量行政记录对统计数据质量的改善可以从数据质量的不同维度进行分析。Longva(1998)结合挪威 1960 年的人口普查,说明了在普查过程中通过行政记录和直接收集数据两种方式的结合能有效降低普查的成本。Thomson & Holm y(1998)根据挪威统计局使用行政记录来改善统计数据质量的经验,研究了在利用行政记录数据的前提下,通过事后分层、回归估计量、校准估计以及排序的方法来解决数据中的无回答问题、减少偏误、提高估计精度以及保证不同来源数据的一致性。S rndal & Lundstr m(2005)研究了如何使用行政记录对调查数据的权重进行调整,来降低抽样误差、无回答误差和抽样框误差。减少调查误差的最好方法莫过于能够在数据的编辑的过程中识别出由数据回答者所引起的数据问题,Granquist,Kovar &Nordbotten(2006)建议把行政记录作为外部数据来改善整个统计流程,包括检查调查数据中的错误信息、填补缺失数据、以及对调查数据的质量进行评估。王萍(2008)指出很多国家在统计上应用行政记录的成功经验表明,开发行政记录在统计上的应用,既是对现有行政资源的进一步开发应用,又可以减少因调查给基层被调查单位以及基层统计机构带来的负担。胡桂华(2011)研究了我国的调查失业率,由于存在比较大的答复误差而对调查失业率的估计精度有较大影响,提出利用工作单位的行政记录来提高估计精度。
………………
3 行政记录用于政府统计的发展历程 ..... 14
3.1 行政记录的概念 .... 14
3.2 行政记录与政府统计的渊源 ........ 14
3.3 行政记录在我国政府统计中的使用状况 ...... 17
4 行政记录统计使用的理论基础 ...... 21
4.1 行政记录的统计内涵 ........ 21
4.2 行政记录统计使用的经济意义 .... 22
4.3 行政记录统计使用的统计意义 .... 26
4.4 行政记录统计使用存在的问题 .... 29
5 名录库调查体系的构建与应用 ...... 31
5.1 名录库调查的概念 ...... 31
5.2 名录库调查的相关理论 .... 32
5.3 名录库调查的实施方法 .... 36
5.4 名录库调查的作用 ...... 38
5.5 名录库调查的实际应用 .... 40
6 问题与建议
6.1 我国政府统计体系存在的问题
6.1.1 统计管理体制不够完善
改革开放 30 年以来,我国一直在有条不紊地进行统计改革,然而统计改革的进程却是异常缓慢、阻力重重,政府统计体系依然存在着不少的问题。根据《统计法》规定,我国的统计管理体制是“统一领导、分级负责”,然而随着社会主义市场经济的深入发展,这种体制的弊端逐步显现。首先,专业之间、政府统计部门和部门统计之间各自为政,导致数出多门、数据混乱、效益低下;其次,这种体制呈现出了“倒金字塔”型,调查任务层层下达,越到基层统计人员越少,基层负担沉重且资金不足;再者,计划经济时代建立的统计报表制度在如今的市场经济体制下呈现出越来越多的问题。目前来看,《统计法》的一些规定已经落后于统计工作的实际需要,相关的配套不够健全,缺乏统计机构对政府相关部门以及社会团体索取统计数据的法律依据,使得建立跨部门数据库的要求成为了空口号。另外对调查对象的资料缺乏严格的保密规定,从而也影响了他们对统计调查的配合程度。究其根源,改革缓慢的重点在于改革过程中牵扯到多方利益,多年来,许多学者致力于从体制上进行改革,却成效甚微。反观现今的统计环境,由于历史的因素,我国的统计环境与世界各国相比,具有其特殊性。于建国后建立的统计报表制度一直延续至今,并且深入到政府各部门和社会各单位团体,这种特殊性兼有利弊,其直接的结果是使得我国的行政记录相比于其他国家来说更为完善和丰富,并且其可靠性和权威性有相当大的保证。
………………
结论
本文对行政记录在政府统计中的使用进行研究,围绕行政记录的统计使用,分别从“为什么使用”、“能不能使用”,以及“如何使用”三个方面进行研究,全面、深入地总结国内外相关研究,提出问题,进而思考问题,再到解决问题,最后对改革和完善我国政府体系提出建议。政府统计的现状及面临的环境要求使用行政记录。统计环境发生了巨大变化,外部环境包括公共领域隐私问题突出,用户信任度下降,用户对数据需求提高,以及信息科学发展;内部环境包括数据质量问题突出,统计机构经费预算太少,以及行政干预问题突出。各国的经验表明,更多地使用行政记录对完善统计体系有重要意义。政府统计使用行政记录具有经济意义。由于利益的驱动,在统计数据生产过程中,数据回答者和统计机构都期望实现效用最大化,从而会做出有利于自己的行为决策,使用行政记录能使利益相关者得到额外的效用。
…………………
参考文献(略)
优秀经济统计毕业论文范文篇三
第一章绪论
1.1研究背景与意义
随着互联网的高速发展,web信息正呈现着爆炸性的增长。美国互联网数据中心指出,互联网上的数据每年将增长50%,每两年便将翻一番,而目前世界上90%以上的数据是最近几年才产生的。尤其是近年来社交网络的兴起,大量的UGC(即用户生成内容)文本信息、音频、视频、图片等非结构化数据正在爆增。在互联网上,—天的时间里,新浪微博用户所发的微博量超过1亿条,Facebook能产生32亿条评论、3亿张照片,信息量达10TB;对Twitter而言,一天代表新增2亿条微博,约有50亿个单词,比纽约时报60年的词语总量还多一倍,信息量达7TB;而百度大约要处理数十亿次搜索请求,淘宝网站的交易达数千万笔。这一切也标志着大数据时代的到来。蕴藏着如此多信息的互联网环境犹如一个海量且资源丰富的社会信息资源库。无论搜索引擎还是电商,从传统行业数据库到商业系统数据仓库,每天都会产生大量的数据,这些数据里面涵盖了一些非常有价值的信息,挖掘出这些价值可以直接或间接为企业和机构带来利润,同时为人类的生活带来更多便利。一直以来,互联网用户都试图利用传统的通用搜索引擎来获取有价值的信息。面对这一海量、异构、半结构化的信息库,传统的通用搜索引擎通过抽取网页中关键字信息,只能给予页面级的排序和检索,往往还需要用户经过多次査询和蹄选才能获取到最终需要的信息。尤其是很多情况下,用户感兴趣的是一些特定的对象而非网页。为此,基于对象的垂直搜索引擎应运而生。
………………
1.2本文的研究工作
本文主要研究如何利用统计主题模型对学术网络包括其中的会议、作者和论文信息进行建模,并挖掘学术网络中的语义关联信息,通过这种挖掘到的潜在语义主题为桥梁,将学术网络模型应用于学术检索,包括专家检索、会议检索、论文检索,可实现根据查询词得到语义相关的专家、会议和论文。具体的研究要点如下:
(1)提出一种新的统计主题模型Author-Conference Topic-Connection(ACTC)。基于学术网络中会议、作者和论文各个对象中隐含的语义信息,将这些异构对象分别映射到相应的语义主题层,从而实现对学术网络对象的统一语义建模,并且挖掘出网络对象中隐含的语义信息以及相互之间的语义关联。
(2)将ACTC模型应用于学术检索,包括专家检索、会议检索、论文检索。ACTC模型能够更有效地挖掘学术网络对象之间的语义关联信息,通过挖掘到的潜在语义主题为桥梁,可实现根据查询词得到语义相关的专家、会议和论文。此外,还与几种常用的统计主题模型和统计语言模型进行了学术检索实验的对比分析,包括统计语言模型 LM、Latent Dirichlet Allocation(LDA)、Author-Topic(AT) Model 以及 Author-Conference-Topic(ACT) Model。
(3)利用ACTC模型构建计算语言学领域的学术网络检索系统ACLMiner。该系统利用ACTC模型为国际上计算语言学研究领域中的学术对象进行统一建模,并挖掘所有论文、专家和会议的语义信息,从而为用户提供权威论文、专家以及会议的语义检索服务。
……………
第二章相关研究工作
2. 1学术网络与对象建模的研究
学术网络作为典型的异构社会网络,其中的学术信息数据正呈现飞速增长。例$口,图2.1描述了一个异构学术网络的例子。它主要包括了作者、会议和论文这些类型不同的对象信息。对于作者,可以通过其主页信息以及其发表的论文、参加的会议信息来进行描述;对于论文,则可以用论文的标题、作者、摘要以及所投的会议等进行描述;对于会议,则可以用该会议所收录的论文来表示。相应地,各种学术网络的应用系统也相继被开发。例如著名的DBLPCDigital Bibliography & Library Project)系统目前收录的文献已经超过了 2 100 000篇,同时DBLP只提供计算机领域的英文文献搜索服务。与之互补的是,由中国人民大学网络与移动数据管理实验室(WAMDM)开发的C-DBLP系统,该系统集成了国内现有权威计算机期刊、会议的中文文献数据,为用户提供以文献作者为中心的检索服务,如今收录的计算机类文献和作者都已超过50000条。此外,还有CiteSecr和Google Scholar等。但这些系统大多数都只是基于一元语言模型来对文档进行建模,检索时并未考虑到学术信息中的语义主题。
……………
2. 2统计主题模型的研究进展
统计主题模型起源于潜在语义索引,是近年来文本挖掘中研究的热点之一。自LSA、PLSA和LDA等模型诞生以来,越来越多的研究工作开始围绕统计主题模型来展开,并用于解决很多文本挖掘、自然语言处理和信息检索等问题。与传统的空间向量模型和语言模型不一样,统计主题模型巧妙地引入了语义主题的概念,从而实现了文本在隐含主题层上的表示,每一个语义主题又可以表示成一个在词语维度上的概率分布。通过对文本中隐含的语义主题进行建模,统计主题模型具有以下两大好处:成功地解决了海量文本挖掘中的降维问题。在海量数据挖掘中最容易遇到的一大挑战是高维度挖掘。当文档釆用传统的词语级空间上的向量表示时,文本信息量越大,词语级的向量空间维度则越大,则容易导致可用数据(即真正表达文本语义的数据信息变得稀疏,很不利于文本分析。这也被称为“维数的灾难”。统计主题模型通过引入语义主题维度,将文档表示成主题维度上的概率分布,而非词语级的空间向量,由于文本集合中隐含的语义主题数量远小于词语数量,从而实现了文档的降维表示。
………………
第三章学术网络对象的语义建模........... 14
3.1引言 ..........14
3.2学术网络的对象建模.......... 16
3.2.1 ACTC模型的提出.......... 17
3.2.2 ACTC 模型.......... 18
3.2.3 ACTC模型的参数估计.......... 20
3.2.4将ACTC模型应用于学术检索 ..........22
3.3实验 ..........23
3.3.1数据集以及预处理..........23
3.3.2 ACTC模型的训练.......... 24
3.3.3学术检索实验.......... 28
3.3小结 ..........31
第四章学术网络检索系统ACLMiner.......... 32
4.1引言 ..........32
4.2学术网络检索系统ACLMiner.......... 33
4.2.1系统框架图 ..........33
4.2.2学术检索的系统展示.......... 35
4.3小结.......... 39
第五章总结和展望.......... 40
5.1总结.......... 40
5.2下一步研究工作.......... 40
第四章学术网络检索系统ACLMiner
4.1引言
上一章主要介绍了本文提出的ACTC模型以及学术网络对象的建模与应用,接下来,我们将利用ACTC模型构建一个计算语言学领域的学术网络检索系统,并提供针对学术网络对象的基于语义的检索服务,包括专家检索、会议检索和论文检索。随着近年来学术网络信息资源的快速增长,尤其是计算语言学领域,它作为新兴的交叉学科研究领域,也取得了长足的发展。国际计算语言学学会(The Association for Computational Linguistics, ACL) [42]也专门建立了国际上计算语言学领域的相关研究论文与会议的语料库ACL Anthology[43]。此外,ACL还根据ACL Anthology中的语料构建了一个学术网络ACL Anthology Network (AAN) _,用于研究学术网络中的作者引用、论文引用等引用关系以及合作者之间的关系,并能为用户提供简单的基于单词匹配的学术查询。
………………
结论
统计主题模型与对象检索尤其是专家检索,均是目前计算语言学领域的重要研究问题。面对海量、异构的学术网络,如何有效地挖掘其中的语义信息并应用于网络对象的检索也正变得尤为重要,其中对学术网络对象进行建模是非常重要的一步。本文则是研究学术网络中的对象建模问题,利用统计主题模型能够挖掘隐含语义主题信息的特点,提出了一种新的统计主题模型,用于更准确地挖掘学术网络中对象的语义信息,将作者、会议与论文对象均映射到各自的语义主题层上,并得到相互之间的语义关联信息,从而应用于学术网络中的对象检索。
…………
参考文献(略)
优秀经济统计毕业论文范文篇四
第一章 绪论
1.1 论文研究的背景
近年来,随着 IT 行业、互联网的快速发展,中国银行业逐步完成了银行业务的电子化、信息化建设。目前,中国银行业的主要业务依托着各自开发的各类业务系统和应用支撑,发挥着重要的作用。在全球化发展的大背景下,中国银行业的金融业务由起初较为单一的资产、负债业务发展成为门类齐全、业务种类的丰富的金融业务。特别是近些年来,随着国际金融危机的蔓延,金融机构的不断增设,银行业间的竞争日趋激烈。如何正确决策银行业的发展方向,如何保证银行业业务发展的安全性,如何保证银行业的健康发展已成为急需解决的问题。统计分析工作在银行内部管理和宏观决策中发挥着重要作用。全面和有效的指导银行正常运转,是统计分析一项重要工作职能。数据库技术是银行各项业务系统使用的一项基础技术。随着数据库技术的发展,银行业对数据库对数据处理以及需求分析越来越高,不仅要求处理出令人满意的结果,还要应用到商业决策。由于,银行早期缺乏系统建设的规划,银行内部系统和应用众多,而又缺少联系,随着管理层对数据需求的不断变化,业务统计人员,很大程度上依靠手工完成数据的收集,汇总。如何从大量的数据中准确,及时的统计数据,为企业提供决策依据呢? OLAP,是有效的解决方案。
.............
1.2 开展数据统计分析工作的基础及存在的问题
一、 银行数据统计的分析现状
银行经营指标数据的统计是一项非常重要的工作,它需要将银行业的各项业务经营指标数据进行收集,整理,并加工成各种反映银行经营运营状况的指标,提供给管理决策层,用于分析机构的运营状况和业务的发展趋势。近年来,随着计算机技术的发展,商业银行开发了大量的统计经营分析系统和应用。从国内情况来看,早些年,中国工商银行的数据统计采用“自下而上”层层汇总的形式。通常是基层银行分支机构(支行一级)收集数据,上报其上级二级分行,再上报至一级分行,最后在总行层级汇总。2002 年以后,中国工商银行开发了 CS2002 应用系统,系统会按日定期对银行内部业务系统的产生数据收集,隔日(T+1)生成全行各级机构的各类业务报告,包括业务状况表、资产负债表、利润表等。可以说中国工商银行的 CS2002 为该行后续的数据集市、数据仓库的建设奠定了良好的基础,但是由于中国工商银行原始数据积累有限,技术及相关人才的匮乏,在数据挖掘、数据分析运用等方面存在很多不足。目前国内商业智能应用尚不成熟,实施商业智能的企业数量极少,即使采用商业智能的企业也仅限于小规模的应用,全面的企业级应用几乎为空白。
……………
第二章 银行小型经营统计分析系统的相关技术概述
2.1 OLAP 技术的概述
1985 年,E.F.Codd 发明了术语“联机事务处理(”On-line Transcation Processing,OLTP),并提出了 12 条定义 OLTP 数据库的标准。他的学术和标准被广泛地接受,并且成为用来管理公司日常操作(事务)数据库的标准。1993 年,Codd 提出了术语“联机分析处理”(On-line Analytical Processing,OLAP),并且提出了 12条定义 OLAP 数据库的标准。这一次,他的标准并没有得到广泛地认可,但术语OLAP 得到了认可,可见它非常适合描述多数制定决策(分析)的数据库。OLAP(On-line Analytical Processing)即联机分析处理,是以海量数据为基础的发杂分析技术。OLAP 能够帮助各级管理人员,从不同的角度、不同的维度,从数据仓库中调用需要分析的数据进行分析和处理,给决策人员提供简单易懂的数据分析结果。从而为管理层和决策层掌握企业和业务发展情况提供有力的参考依据。OLAP 也被称为称为多维数据分析,它的技术的核心是“维”,与传统的OLTP(On-line Transcation Processing)处理应用相同。OLTP 应用主要是作用是用户的事务处理,对响应的时间要求较高。而 OLAP 的应用主要是对用户数据进行分析,对响应时间要求较低。
……………
2.2 数据仓库的概念和特征
2.2.1 传统数据库与数据仓库的差别
随着计算机技术的飞速发展和广泛地应用于各行各业,事务处理型系统已有相当成熟的应用,并有效地解决了企业部门的日常事务。在实际运行中,企业的事务处理型系统积累了大量的业务数据。这些数据中隐含着大量的珍贵信息可应用于管理层制定企业的战略方针和决策依据。因此,企业产生了对事务处理型数据进行分析和挖掘的需求。到这里,我们可以看出存在两种不同的数据处理方式,一种为事务处理型操作也叫操作型处理即 OLTP(联机事务处理),另外一种为分析型处理即 OLAP(联机分析处理)。操作型处理主要完成对数据库的增删改查等操作,系统要求对用户的需求进行快速响应,对数据的安全性以及事务吞吐量要求很高。传统的数据库能够很好满足和适应操作型处理的特点。分析型处理是对历史形成的数据进行查询和统计分析,对系统的数据访问非常大,操作较为复杂,而对响应时间要求较为宽松。由于操作型处理和分析型处理存在较大的差异,传统的数据库无法满足分析型处理的需求。为了解决该问题,数据仓库就应运而生。传统数据库和数据仓库的差异直接体现在其所应用的处理方面——操作型处理和分析性处理的区别。
…………………
第三章 银行小型经营统计分析系统的需求分析...... 22
3.1 农行西藏分行经营统计工作中需要解决的问题.... 22
3.2 农行西藏分行经营统计分析系统的核心需求分析...... 23
3.2.1 资产业务 ...... 23
3.2.2 .负债业务 ...... 23
3.2.3 中间业务 ...... 24
3.2.4 资金头寸管理 .... 25
3.2.5 .绩效考核管理 .... 26
3.3 本章小结........ 26
第四章 系统总体设计........ 27
4.1 数据仓库的设计........ 27
4.1.1 业务数据理解和需求分析 ........ 27
4.1.2 分析主题和元数据 ........ 28
4.1.3 粒度的设计 ........ 30
4.1.4 维度设计 ...... 31
4.2 系统的功能模块设计...... 31
4.2.1 数据采集功能模块 ........ 32
4.5.2 数据计算功能 .... 35
4.5.3 数据转换功能 .... 37
4.5.4 数据展示功能 .... 37
4.3 本章小结........ 38
第五章 银行小型经营统计分析系统的实现........ 39
5.1 银行小型经营统计分析系统架构.... 39
5.2 银行小型经营统计分析系统的核心子系统实现.... 43
5.3 银行小型经营统计分析系统 OLAP 设计 ......... 52
5.4 本章小结........ 54
第六章 系统测试
在银行经营统计分析系统中,OLAP 是通过数据统计分析人员端的浏览器展示给用户的。如前所述,数据统计分析人员,通过前端的网页,选择所需访问的报表和数据后,系统会将用户的操作信息以 HTTP 报文形式传送到服务器上。服务器根据系统内已设置的角色以及用户的权限,将请求提交到 OLAP 上。之后 OLAP 将在数据仓库中保存的多维立方体数据,根据统计分析人员的 要求进行数据的转换和计算。再将数据的计算结果反馈给服务器,并最终返回到统计分析人员的浏览器上,完成一次完整的 OLAP 分析过程。
……………
结论
银行经营统计分析系统开发后,为全行的统计分析工作带来了极大的便利,通过 B/S 架构方式,统计分析人员能够很方便地通过浏览器维护和访问、分析所需的业务经营数据。而且通过系统支持的 OLAP 能够自由地获取所需的各项业务经营指标。使用数据仓库技术后发挥了历史数据的价值,为全行的经营决策提供了较为准确的依据。该套系统上线测试后,主要解决了问题:
1.建立统一的数据披露平台,从而使全行的各项业务数据使用规范化和统一化;
2.建立各二级分行的数据平台,按照机构设置情况,向下钻取并细化业务分区,全面分析全行业务的数据来源;
3.将全行经营 KPI 从各业务系统抽取出来,集成到统一的数据披露平台;
4.有效利用形成的历史数据,为测算模型和趋势分析提供基础;
5.通过联机分析处理和数据挖掘等手段,能够自由地业务经营情况进行相关分析。
通过解决以上问题后,我行经营分析从横向的广度到纵向的渗透性以及分析的效率等各方面均能质的飞跃实现,为全行的业务发展能够提供较为准确、快捷、客观的决策参考依据。
……………
参考文献(略)
优秀经济统计毕业论文范文篇五
第一章 绪 论
1.1 森林生产力研究综述
森林生产力样地监测是森林资源调查的一个重要的组成部分,潜在的对木材生产和碳循环等生态系统服务起到了重要的指示作用;森林生产力也是评估森林固碳能力的重要参数,提高生林生产力也是提高碳汇的主要途径。因此,提高森林生产力成为了控制陆地和大气间二氧化碳交换过程的主要方法 (Beer et al., 2010)。森林作为陆地生态系统主要的碳库,随着世界对全球变暖问题的关注,森林生产力监测和评价亦成为生态学等领域的研究重点之一。同时,有效和准确地获取森林生产力数据,是提高我国森林资源碳汇能力、森林木材资源供给能力以及制定宏观政策的重要基础。森林生产力的研究以国际生物学计划(IBP)作为分界线。IBP 计划之前,只有欧洲少数的科学家对森林生产力进行了有限研究,1882 年最早对森林干物质生产力测定的是德国林学家 Ebermayer。在 IBP 期间(1964-1974),全面开展了全球森林生产力的研究工作,很多专著都详细的探讨了森林生物生产量的研究方法,具体从传统收获法,发展到气体交换法和空气动力方法等,其中《生物圈的第一性生产力》(Lieth&Wittacker,1975)汇编了这十年计划中的研究成果。IBP 计划之后,国内逐渐对森林生物量和生产力开始了研究,在全球变化研究背景下,MBA(人与生物圈计划)和 IGBP(国际地圈与生物圈计划)推动下,发展迅速。20 世纪60 年代,冯宗炜(1999)开始建立生态站连续研究森林群落的生物量和生产力。70 年代初,李文华(1978)提出了运用森林资源清查数据编制全国森林生物产量分布图和模拟生产潜力的设想。80 年代到 90 年代,马钦彦(1989)和刘世荣(1993)利用收集的实测资料分别比较分析了我国油松林的生物量和 NPP(净初级生产力)和全国森林现实生产力地理分布格局。方精云(1996)等建立了森林蓄积量与生物量和生产力的转换方法,估算了我国植被生物生产力。在 90 年代,逐渐出现了大量利用气候相关模型估算我国植被生产力的研究(陈国南,1987; 候光良和游松才,1990)。其中朱志辉(1993)根据我国各类植被和气候资料建立了北京模型;张新时和周广胜(1995,1996)探讨了中国自然植被生产力模型的应用及估算;赵士洞和罗天祥(1997,1998)分析了我国杉木林 NPP 空间格局和水热相关规律。21 世纪初,孙睿(1999)、朴世龙(2001)、陈利军(2002)、陶波(2003)、陈斌(2007)等先后利用遥感技术模拟了中国植被净初级生产力。
…………
1.2 森林生产力样地监测和调查方法
1.2.1 样地大小分类:站点监测和路线监测
站点监测主要是通过建立生态站等固定监测点,选择在主要森林类型、重点区域以及具有代表性的典型地点。前提要求每个监测点样地内部要素具有均一性和一致性。路线监测根据研究需要,选择某一路线或者区域,开展样地调查和监测。NPP 的实测方法主要有生物量调查法和微气象学涡度相关通量观测法(刘敏,2008),具体包括直接收获法,光合作用测定法,二氧化碳通量测定法,pH 值测定法,放射性标记发,叶绿素测定法和原料消耗测定法等(蔡晓明,2002)。其中直接收获法是最常用也是最简单的方法,不过该方法精度取决于两期生物量的准确测算。地面调查:样地和内部样方的具体设置,通过监测仪器,对能够反映林分生物学特性的生态因子和指标进行长期具体测量,从而获得森林生产力的特征数据,具体包括林龄、密度、平均胸径、平均树高、植被的叶面积指数、凋落物等,以及一些环境因子——气温,降水,土壤等,最后通过统计分析和估算,反映出森林生产力的现状和变化趋势。地面调查往往应该用于局部监测,监测点有限,并且耗费大量的人力,时间和财力等成本。随着地理信息技术的发展,为全局的森林生产力监测提供了有效的手段,两者相结合能更准确地监测和估算森林生产力,也是我国监测体系逐渐发展的趋势。遥感技术区别于地面调查,遥感是地理空间信息技术,能够大范围、多尺度、快速且多时相的获取及更新数据,不受地表非均一性的影响。随着遥感技术的定量化发展,许多陆表参数都可以获得,反演精度也逐渐提高。这些参数用来作为输入数据,建立遥感模型,这样就为森林生产力尤其是 NPP 的估测奠定了基础(李贵才,2004)。
……………
第二章 研究方法
2.1 研究目的、内容和技术路线
本文的研究内容:一是运用实地调查的样地实测数据并结合中国植被分布图,探讨基于 GIS 地统计分析和插值方法在估测区域尺度森林生物量和 NPP 上的应用,实现林分尺度向区域尺度的转换;二是估测两广和全国 2010 年森林生物量和 NPP 及其空间分布格局,为区域尺度森林生物量和 NPP 估测提供范例和依据。陆地植被净初级生产力(NPP)指的是绿色植物在单位时间和单位面积上所产生的有机干物质的总量,是植被生长速率的体现,也可反映植被对大气 CO2固定的能力,是生物地球化学碳循环的关键环节(何勇等,2007)。森林生态系统作为最大的陆地生态系统,对吸收CO2等温室气体、减缓气候变化等具有直接的作用。在气候变化研究的大背景下,区域大尺度的森林生产力的研究是目前生态学研究的重要前沿领域。因此,对中国森林生物量、生产力进行区域大尺度上的研究十分必要(高艳妮等,2012)。NPP 的时空变化主要取决于植被、土壤和气候之间的复杂相互作用,并受人类活动和全球环境变化的强烈影响(Schimel et al,1995)。目前对大尺度(区域,国家或全球尺度)森林生态系统净初级生产力动态变化的估计仍有很大的不确定性,对造成当前净初级生产力增加的因素还缺乏明确的认识。因此更为准确地估算净初级生产力、理解它与各种控制因素的相互关系对了解陆地生态系统碳源、碳汇的时空格局、减少日前碳循环研究中的不确定性、正确预测未来气候变化都有十分重要的现实意义(陶波等,2003)。
………………
2.2. 地统计学基本原理
本文通过对森林样点的空间聚集与异常情况的分析,获得直观的森林生物量和 NPP分布趋势情况(图 5-1 样点分布图、图 5-2 到图 5-15 区域森林生物量和 NPP 分布图)。运用 GIS 软件借助中国植被图对原始样地数据进行非林区域剔除,以满足森林 NPP 分布图的专题性。然后将剔除后的样地数据进行建模,通过人工多次选取与经验拟合后,获得初始模型参数。继续经过模型自身结构检验、模拟精度评价、可靠性检验后一系列检验修正后,得到稳定的具有推广意义上的模型。并将模型参数带入 GIS,经过插值得到初始中国森林 NPP 分布图。地统计法(克里格法):克里格法(Kriging)是地统计学的主要内容之一,从统计意义上说,是从变量相关性和变异性出发,在有限区域内对区域化变量的取值进行无偏、最优估计的一种方法;从插值角度讲是对空间分布的数据求线性最优、无偏内插估计一种方法。克里格法的适用条件是区域化变量存在空间相关性。克里格法,基本包括普通克里格方法(对点估计的点克里格法和对块估计的块段克里格法)、泛克里格法、协同克里格法、对数正态克里格法、指示克里格法、折取克里格法等等。随着克里格法与其它学科的渗透,形成了一些边缘学科,发展了一些新的克里金方法。
…………………
第三章 研究数据及处理........11
3.1 数据来源 .......11
3.1.1 森林属性数据 .......11
3.1.2 图形数据 .........11
3.1.3 应用软件 ........113.2 数据处理 .......11
3.3 生物量和 NPP 数值时间尺度转换 .......12
3.3.1 生物量与林龄之间函数关系......12
3.3.2 NPP 数据估算.......13
第四章 两广森林生物量和 NPP 空间格局分析 ......14
4.1 样地数据集的统计分析.......15
4.2 地统计方法插值和验证.......16
4.2.1 协克里金插值结果验证.........16
4.3 基于植被类型的生物量和净生产量估算.........18
4.4 基于地统计学的两广森林生物量.....20
4.5. 小结 ........23
第五章 中国森林生物量和 NPP 空间格局分析 ......24
5.1 基于地统计学的中国各区域森林生物量.........24
5.2 基于地统计学的中国森林生物量和 NPP 空间异质性 .....27
5.2.1 数据预处理 ....27
5.2.2 半变异函数模型计算及模拟.......29
5.3 中国森林 NPP 空间格局分析.....31
第五章 中国森林生物量和 NPP 空间格局分析
5.1 基于地统计学的中国各区域森林生物量和 NPP 空间格局
利用 SPSS 软件,对两对成对样本 t 检验表明(表 5-6):对 1 中,t=1.768,Sig 值=0.078﹥0.05,对 2 中 t=0.746,Sig 值=0.456﹥0.05,两对比较的数值没有显著差异。证明通过此方法插值精度较高,预测值非常接近函数方程估算得到的数值,表明该方法是可行的。从图 5-20 和图 5-21 可看出,两者具有较好的相关性,能够更好的显示出中国森林生物量和 NPP 空间分布趋势。但在局部高数值的样点预测值稍低,这个函数关系的模拟有直接的关系,所以日后应加强对函数关系在局部地区的改善。克里格方法主要注重整体分布趋势而对局部异常有一定的平滑、修匀效应(冯益明等,2004),所以容易在重现了整体分布情况的同时忽略了局部变异,这也是地统计学插值法的固有缺陷。将中国在地域上分为八个区域:分别为东北、华北、西北、西南、华南、华中、华东、港澳台(港澳台数据较少,文章不做具体分析)。通过地统计方法,运用克里格插值得到预测图,比较森林生物量和 NPP 在各个区域的空间分异特征。具体方法同上一章两广森林生物量和 NPP 的计算方法相同,对数据进行预处理,做正态变换,通过变异函数比较,选择最优模型做插值,得到七个区域的森林生物量和 NPP 的空间分布图(图 5-2—图 5-15)。其中,将各图重分类后,颜色统一为相同的数值范围,便于我们观察和比较。
……………
结论
本文在前人研究的基础上,通过搜集样地实测数据,主要研究了两方面内容:一是利用森林生物量和 NPP 与林龄的函数关系实现了时间尺度的转换,并且利用地统计与 GIS的有效结合,实现了点数据到面的空间转换,运用此方法重点对 2010 年两广地区森林生物量和 NPP 分布格局进行了分析。二是运用地统计分析方法,具体对森林生物量和 NPP 数据进行空间自相关分析、半方差模型选择、克里格插值、空间结构分析,探讨全国森林生物量和 NPP 的空间分异特征。具体结果如下:区域尺度森林生物量和净第一性生产力的估算和空间格局分析一直是生态学研究的热点和难点。本文通过运用公式,根据林龄与森林生物量之间的函数关系,实现数据的转换,得到了 2010 年的生物量和 NPP 值。两广地区森林总生物量为 2.23Pg(1Pg=109t) ,平均单位面积生物量为 140.35 t•hm-2,净生产量总值达到了 222.01×106t•a-1。肖志威(2005)利用全国森林资源连续清查数据和气象数据,对中国森林生物量和生产力的数量以及空间分布格局进行了的研究,其估算出两广森林净生产量为 36.8×106t•a-1。王斌等(2009)基于森林资源清查资料的计算两广森林净生产量为 134.83×106t•a-1。唐先明等(2007)基于1km 栅格数据估算两广森林净生产量为 370.744×106t•a-1。前人的结果与本文研究结论有所差异,但本文结果数值处在前人计算结果的范围内,可以认为本文的方法是合适的。但从中可以看出,由于研究手段和研究方法的不同,对我国森林植被净生产量的估算存在较大差异。这种方法可以对数据缺失年份进行简单预测和补充,为森林资源管理提供一种方法。
……………
参考文献(略)
优秀经济统计毕业论文范文篇六
第一章 非编码 DNA 序列研究现状
1.1 非编码 DNA 序列的特点
研究表明,物种的生物复杂性与非编码区域的长度高度相关,越高等的生物体非编码序列所占的比例越大[2]。上图 1.2 是部分物种的非编码序列在基因组中所占比例的示意图(其中横坐标表示生物体,纵坐标表示非编码序列所占的比例),其中人类基因组中非编码序列所占比例高达 98%以上。我们可以把基因组比作是由碱基 a、c、g、t 组成的一本书,那么编码序列就好像是书里面的句子,非编码序列则像是一个个标点符号,我们在研究书的内容时,句子固然很重要,但也不能忽视标点符号的作用,往往一个标点符号的改变会影响整个句子的意思。目前对于编码序列的生物功能研究已取得了很大进展,然而对于非编码序列存在的意义以及它的功能,人们知之甚少,甚至有人把它称为“垃圾基因”、“垃圾”DNA,它们真是垃圾么?其实不然,只是人们暂时还无法用已知的功能来解释真核生物基因组为何存在如此巨大量的看似废品的 DNA。 生物研究发现,非编码 DNA 序列确实具有特定的生物学功能,它们至少包含以下几类:RNA 基因(主要有 rRNA,tRNA)、顺式调控元件(启动子、增强子)、内含子、3′UTR、卫星 DNA、小卫星 DNA、微卫星 DNA 等[3]。此外,基因组大量的非编码 DNA 序列以重复序列的形式存在,尤其是在真核生物基因组当中,脊椎动物更是如此。 例如人类基因组中非编码区中包含了大量的卫星 DNA、小卫星 DNA、微卫星 DNA 等各种重复序列[4]。显然,基因组非编码序列决不会也不可能是无用的累赘,它们必然蕴涵基因表达的重要调控信息,它们的结构、功能和重要性将逐渐被阐明。 然而基因组非编码区数据量庞大,序列类型复杂,分析难度较大。如何揭示非编码区中具有功能的片段是当前所面临的主要问题[5]。由于重复序列表现出强烈的规律性,因此有可能成为研究非编码区的突破点,或许它将成为人们掌握基因组非编码区规律的一个重要途径[6]。
………………
1.2 研究现状
目前大部分的研究主要是围绕非编码序列的转录调控作用展开,也就是寻找转录因子结合位点[8](TFBS)。 TFBS 的生物信息学研究的发展有助于进一步揭示转录调控机制。位置权重矩阵[9](position weight matrix,PWM)是目前比较常用的一种方法,该方法是基于已知的 TFBS 构建矩阵来描述 TFBS 的各个位点碱基的组成。该方法可以快速的识别出 TFBS,但由于背景噪音的影响,往往会识别出假阳性TFBS。基于 PWM 方法,很多方法在其基础之上做了略微改进[10],但仍然存在很多不足的地方。系统发生足迹(phylogenetic footprinting)是通过物种间同源基因组序列的比较以发现功能区[11]的方法。鉴于不断增加的基因组测序数,对非编码区的比较分析基本上已成为检测启动子或调控区时的一类重要方法[12]。尽管以上的方法可以用来初步的分析非编码 DNA 序列,但是,对非编码DNA 序列的研究还没有提出一些公认的有效的研究方法,都还处于摸索阶段。并且基因组非编码区数据量庞大,序列类型复杂,对非编码 DNA 序列的研究需要提出全新的、大胆的想法和研究思路,更需要提出有效的统计分析方法。重复序列是基因组不稳定性的重要原因之一,并且重复序列在基因组上具有很强的规律性。重复序列大小从单一核苷酸到整个基因,有些短的重复序列具有高度的重复性,因此,对重复序列的研究可以加深对基因组整体结构的理解,这种理解不仅可以推动基因组的完全标注,同时可以促进对生物进化的研究[13],这有可能成为研究非编码区的突破点,或许它将成为人们掌握基因组非编码区规律的一个重要途径。
………………
第二章 重复序列的初步统计分析
2.1 基本符号与定义
要想读懂基因组序列这本天书,除了了解句子本身的意思外,我们还需要知道标点符号在整个文章中的具体位置。最简单也是最直接的想法就是在文章中寻找这些重复出现的标点符号,即非编码序列中重复序列的查找与定位。本文以酵母基因组为出发点展开数据分析,并且只考虑最简单的完全重复序列,即序列完全匹配我们才称为重复序列。同时,还发现 TFBS 在非编码区的最大重复次数都比较小,一般都小于 13(见表 2.5),然而对于其他的重复序列则有些高达百次,如表 2.4,大多的重复序列的最大重复次数都是在 15 以内。这也符合重复序列的分布规律,因为单拷贝 DNA 序列存储生物的大量的遗传信息[15],许多调控基因表达的序列位于这个部位,而中度重复序列则分布整个基因组中,一般决定着重复序列排列的多样性,并且单拷贝基因往往点缀在期间。因此,我们认为未知的 TFBS 的最大重复次数应该也比较小,这样就可以将那些最大重复次数较大的重复序列剔除。由此,结合上述两种方法对重复序列分析,将服从几何分布的原假设和最大重复次数较小的重复序列保留下来,并进行相应的生物实验分析,试着找未知的 TFBS。
………………
2.2 重复序列的查找与定位
为了从酵母非编码区中查找与定位重复序列,需要先从酵母原始数据中把所有非编码区挑选出来,然后基于这些非编码区查找重复序列和它在基因组中出现的位置。具体分为以下三个步骤:第一步:根据原始基因组数据提供的编码区域的起始标记信息找出酵母所有的非编码区,以及非编码区的具体位置。由于其数据量庞大,类型复杂,因此只能是通过编写算法让计算机自动把非编码区挑选出来。经计算知酵母基因组共有K =6114 个非编码区,而且每一个非编码区的长度不一。最短的只有几个 bp(base pare,碱基单位),最长的则有 2 万多个 bp,其非编码区长度分布如表 2.1:根据计算结果我们发现重复序列具有以下几个特点:(1)长度为 5 的序列,共有 1024(54 )种重复序列,重复次数较多(从几百次到几万次)(2)长度为6 的重复序列,共 4096(64 )种重复序列,其重复次数比序列长度 5 的要少,(3)序列的长度越长,重复序列的重复次数则相对减少。第三步:重复序列的定位,即确定重复序列在整个基因组中的所有出现位置(重复序列的第一个碱基的位置),我们用( a , b ,c )表示重复序列在基因组中的位置,即表示在第a条染色体,第b 个非编码区和位置c出现了该重复序列。
………………
第二章 重复序列的初步统计分析......4
2.1 基本符号与定义......4
2.2 重复序列的查找与定位......4
2.3 重复序列的初步分析.........6
2.3.1 非编码序列碱基的频数分析.........6
2.3.2 已知 TFBS 的规律分析.... 7
2.3.3 几何分布的拟合优度检验......9
第三章 偶联序列的合成与分析........11
3.1 偶联序列的合成....11
3.1.1 偶联序列........11
3.1.2 偶联序列的数据........12
3.1.3 统计分析........13
3.2 生物结果说明.......15
第四章 结论....16
第三章 偶联序列的合成与分析
3.1 偶联序列的合成
在第二章中已经对重复序列有了一个初步的分析,主要是利用已知的 TFBS的分布规律来预测未知的 TFBS。本章则是基于重复序列的位置分布来寻找偶联序列。然而重复序列的数据形式以及它的位置各式各样,很难给出严格的偶联标准,那么如何分析序列的偶联性呢?本章提出了两种方法分析序列的偶联性,一是从统计独立性方面考虑,即它们的出现是否独立发生,若是独立发生的则说两序列具有偶联性;另一个则是从两序列同时出现的次数方面考虑的。 通过这两种方法将重复序列偶联成大片段,生物系合作方根据经验从中挑选了一些可能具有生物功能的偶联片段进行了实验,并初步证实它们的确实存在生物学功能。根据重复序列的具体位置和重复次数计算结果,我们发现有两个或两个以上的重复序列总是在同一非编码区同时出现,并且它们的位置距离很相近,但也存在部分非编码区中只有其中的一个序列,可能是因为这些序列原本是同一个重复序列,只是经过生物体的突变、插入、删除等过程后使得个别碱基发生了变化[16]。如表 2.5,是几个重复序列的部分位置分布情况,从这些结果中我们很容易发现它们出现的位置都挨着的,我们说这样的序列具有偶联现象。
……………
结论
重复序列在非编码区中广泛存在,它在生物体中扮演着举足轻重的作用。着力于它的研究有助于人们更好的揭示非编码序列在 DNA 中的储存方式及其运作规律,进而了解这部 DNA 序列的“天书”及彻底弄清生命活动的本质。本文主要研究重复序列的分布规律,基于重复序列位置分布的情况来分析。首先,把已知的转录因子结合位点与所有我们找到的重复序列进行对比分析,发现大部分转录因子结合位点包含在这些重复序列中,并且在基因组上出现位置间隔可以用几何分布很好的拟合;其次,在同一个非编码区重复的最大次数和重复序列的长度密切相关;最后,提出了独立性检验的统计方法来分析重复序列的偶联性。基于这几种方法我们筛选出部分重复性序列,生物学家从中挑选了部分序列片段进行了生物实验,并证实到它们确实具有生物学功能。如序列 D59 为转座子特异的转座酶基因启动子,以及推测 D31、D35 序列可能具有稳定 mRNA 的作用。同时,我们相信其他的偶联重复序列具有各种各样的生物功能。但不足的地方是这种方法只能去掉部分重复序列以及长的重复序列不能使用该方法,由于生物实验的局限性,不可能全部都做实验,所以该方法还是具有一定的局限性,如何进一步分析仍是困难的问题。由于大多数基因的开启和关闭是由附近的非编码 DNA 序列控制的,它们就像是基因的“分子”开关,调节基因的活动,因此今后我们将从基因的表达水平方面考虑,对非编码序列或重复序列做进一步的分析。
………………
参考文献(略)
优秀经济统计毕业论文范文篇七
第 1 章 绪 论
1.1 课题研究背景和意义
我国政府自 2008 年成功举办奥运会以来大力推行乘坐公共交通工具出行的政策,得到了公众的积极响应[1]。其中,公交车因其集约化经营的特点,能大大节省能源和空间,且出行方便、价格便宜、污染少,很快成为居民出行的首选方式。但是经济的高速发展也带来了日益严重的交通问题,道路日益拥挤,环境严重污染,交通事故频发。除此之外,我国的公共交通体系也存在着很多不足,其中最主要的就是公交线路的布局不太合理,导致了公交运输效率低下。为了解决上述不足,现代化智能交通系统 ITS(Intelligent Transportation System)应运而生。ITS 产生于本世纪 60 年代末,简而言之,就是运用各种高新技术解决存在的交通问题,最直观的结果就是实时获取公交车辆的运行信息,客流信息则是其中一个重要组成部分[2]。如果在每个站点都能快速准确地获取上下车的人数,并记录下时间和站次,那么就可以把这些数据传送到调度中心进行统计分析,并把统计的结果用多种图表的方式进行显示。这对公交线路和城市公共交通的规划都具有非常重要的意义,并为城市公交车的管理、发展预测、规划决策提供坚实的科学依据。除此之外,这些数据还可以用来监督公共交通的运营情况,便于加强管理。综上,获取实时的客流信息能够帮助我们更好的进行公交线路的规划,实时的对公共交通进行调度管理,并有效考核公交运营的业绩,具有重要的经济效益和社会效益。而结合视觉检测技术进行客流量的检测则是现代公交系统发展的一个新领域。
...........
1.2 客流统计研究现状
1.2.1 立体视觉概述
人类所获取的外界信息中,大约 80%的信息都是由视觉提供的。外界物体是三维的,到了视网膜上面形成的是二维图像,通过视觉系统和大脑的共同作用,人类可以通过对视网膜所成的二维图像进行分析获取其三维空间信息。由此可见,人类的视觉系统不仅可以感受外界信息,而且还可以对获取的信息进行更高级的分析和处理。计算机视觉这门新兴学科的产生就是为了模拟人类的视觉系统。它首先使用摄像机获取景物的图像,并将图像信号转换成数字信号,然后使用计算机对这些数字信号进行分析和处理[3]。换句话说,就是让计算机具备人眼的能力,使它可以从一幅或多幅图像中获取周围环境的信息。人眼获取的图像虽然是二维的,但是却可以轻而易举的获取空间的三维信息,我们也希望计算机可以做到,希望它通过获取的二维图像来获取空间信息,并进一步对客观世界的三维景物和物体进行识别。也即,让摄像机和计算机联合起来以具备人眼的功能。计算机视觉这门学科兴起的时间虽然不长,但是发展却很快。立体视觉是计算机视觉的一个十分重要的组成部分。立体视觉的主要目的是,使用两台不同位置的摄像机模拟人的两只眼睛获取同一场景的两幅图像,然后利用这两幅图像计算场景中每个像素点的视差,进而获得该场景的三维信息。立体视觉的研究开始于 20 世纪 70 年代中期 Marr 和 Poggio 等人[4]提出的一整套视觉计算的理论,这套理论用来描述人类视觉系统的工作过程,以此来探究如何从二维图像中恢复出三维空间。随后,Brown 和 Burschka 等人[5]将立体匹配技术从 1993年到 2003 年间的发展进行了全面的介绍和总结,重点讨论了对遮挡情况的处理方法和立体匹配系统的实时性。2002 年,Scharstein 和 Szeliski[6]把立体匹配过程分成四部分来讨论,分别是计算匹配代价、选择匹配准则、后期优化处理和视差后期校正和完善。这有助于对立体匹配的实现过程有更为系统和清晰的了解,也方便了各种算法之间性能的比较。
………………
第 2 章 立体匹配技术研究与实现
2.1 立体匹配技术概述
一个完整的立体视觉系统由六部分组成,这六部分分别为图像获取(Image Acquisition)、摄像机标定(Camera Calibration)、特征提取(Feature Extraction)、立体匹配 (Stereo Matching) 、 三 维 信 息 恢 复 (3D Reconstruction) 和 后 期 处 理 (Post Processing)[18]。其中,立体匹配是最关键最核心的部分。当空间三维场景被投影为二维图像时,虽然场景中会出现光线的变化、噪声的干扰,景物本身会有几何形状和物理特征的不同,但是在物体所成的二维图像中,这些因素全部都被唯一的灰度值所取代,立体匹配也因此成为了立体视觉中最困难的一个环节。立体匹配研究的内容是,在多幅图像中,获取同一场景中单个物理点投影到不同图像平面上的像素点,然后找出它们的一一对应关系,从而得到景物的视差信息。它的基本方法是,使用两台不同位置的摄像机模拟人的两只眼睛获取同一场景的两幅图像,然后利用这两幅图像计算场景中每个像素点的视差,进而获得该场景的三维信息。
………………
2.2 立体匹配的实现
2.2.1 立体匹配的理论基础
图 2-1 所示为对极几何的原理图。在对极几何中,O1、O2是两个相机的光心,I1、I2为两个像平面。空间中的任意一点 P 在 I1、I2上的成像点为 P1、P2。直线O1O2为基线,P 和基线所确定的平面称为极平面,基线与两个像平面的交点 e1、e2定义为极点。很容易可以看出,e1是 O2在 I1的成像点, e2是 O1在 I2的成像点。极平面与两个像平面的两条交线 l1和 l2称为外极线,其中,l1为 P2的外极线,l2为P1的外极线。极线几何指:像平面 I1上的任一点 P1在像平面 I2上的匹配点 P2必位于极线 l2上,同样,像平面 I2上的任一点 P2在像平面 I1上的匹配点 P1必位于极线 l1上,该约束也被称为外极线约束。
………………
第 3 章 目标提取技术研究与实现.......21
3.1 目标提取技术概述....21
3.2 目标检测常用算法....21
3.2.1 目标检测常用方法 .........21
3.2.2 背景建模和更新常用方法 .........22
3.3 目标分割常用算法....24
3.4 目标定位常用算法....25
3.5 基于立体视觉的目标提取的实现....26
3.5.1 本课题目标提取算法的确定 .....26
3.5.2 实验结果与分析 .......28
3.6 本章小结........31
第 4 章 目标跟踪技术研究与实现.......32
4.1 目标跟踪常用算法....32
4.2 多目标跟踪....33
4.3 本课题目标跟踪的实现........34
4.4 计数实现........43
4.5 本章小结........44
第 5 章 公交客流统计的 DSP 实现与优化......45
5.1 DM6446 介绍 .......45
5.2 程序的移植和优化....47
5.2.1 程序的移植 .........47
5.2.2 程序的优化 .........48
5.3 本课题程序移植和优化的实现........53
5.4 本章小结........57
第 6 章 公交客流统计系统总体实现
6.1 系统实现
本系统的程序开发环境为 CCSv3.3,关于 CCSv3.3 在上面的章节中已经介绍过。执行 CCS 的第一步是建立新的或开启已有的项目,用选定的语言撰写程序代码,完成所有的项目程序编写后,就可以进行编译,产生一个后缀为“.out”的执行文件,再将此文件通过仿真器连接到 DSP 上,对程序进行编译,下载即可以让 DSP 执行程序中所要求的动作。图 6-3 为编译下载示意图。用来进行实验的视频数据在秦皇岛市公交车门正上方采集得到,图像大小为160*120。为测试本文提出的客流计数方法的可靠性,本文选取了三种光照情况下的视频段进行测试,分别为正常光照,较强光照和较弱光照。三种光照下,第一组测试视频序列是人群不拥挤的情况,第二个是一般密度的情况,第三个则是人群比较拥挤的情况。测试结果如表 6-1 所示,三种情况下准确率对比如图 6-2 所示。设上车准确率为 pin,下车准确率为 pout,则总的准确率为 p =(pin+pout)/2。例如第一个测试序列,下车准确率为 (1 3/14)× 100%=93%;上车准确率为 100%,则总的准确率为(100%+93%)/2=97%。
……………
结 论
实时准确的客流量信息,对公共交通的调度和线路的规划都有很重要的意义。本文在分析了现阶段客流统计常用方法之后,针对我国公交运行环境的实际情况,确定了本文的研究内容:结合立体视觉,以运动目标提取和跟踪计数技术为基础,以 DSP 为平台构建基于立体视觉的客流统计系统,实现客流检测。本文完成的主要工作有:
(1) 对几种常用的立体匹配算法进行分析,在对每种算法的优缺点进行比较后,选取动态规划这种全局匹配算法进行立体匹配。实验证明,该算法可以得到满足后续要求的致密视差图。
(2) 结合前面获取的视差图和原始灰度图,通过目标初步检测、目标分割和目标定位完成目标的提取。目标初步检测阶段,通过对三种常用检测方法的对比分析,选用了简单有效的背景差分法,并且在常规的基础上融合进了图像的深度信息。然后利用阈值法进行图像分割,最后利用连通域标记定位对目标进行提取定位。
(3) 在跟踪计数部分,首先对常用的跟踪算法进行了分析,最后选用特征匹配法进行跟踪,并针对特定的实际应用环境的特点对传统算法进行了多方面的改进,最后采用双门线法,实现了目标的计数。
……………
参考文献(略)
优秀经济统计毕业论文范文篇八
第1章绪论
1.1数字通信系统的主要组成
在以往通信中,主要是语音通信,现在人们对于数据通信则有着越来越高的要求,这个要求既包括越来越高的传输速率也包括越来越高的可靠性能。人们对于通信的上述要求恰恰是当下通信设计人员的主要工作目标,尤其是移动通信系统的设计人员,当前最主要的工作就是针对有限的带宽以及相应的信道条件设计出尽可能准确传输信息数据,同时尽可能的提高信号传输的频谱效率的通信系统,而要达到上述要求,信道编码就是最重要的方法。在现代的通信系统中,整个的通信流程通常包括以下几个部分:信源、信源编码、信道编码、调制、信道、解调、信道解码、信源译码、信宿。上述的各个部分有各自的功能,信源属于待传输信息,比如数据、图形、文字等[2]。信源编码的功能是将信源转变成数据序列。由于信息数据传输4信道时不可避免的要碰到噪声以及干扰等,噪声干扰要对所传输数据造成破坏,导致不做信道编码的数据在接收端不能被准确接受,因而需要加入信道编码,以使得传输数据具有纠错或者要求重传的功能。在以往的信道编码中,通常是加入冗余,从而使其具有纠错性能。由于信道条件的限制,比如带宽等,调制需要将信道编码数据转化成适于在信道中传输的符号波形。解调则是调制的逆变换,它将接收符号转化为数据序列,以进行信道解码,最终恢复需要传输的信息。信道解码和信源译码可以分别看作信道编码和信源编码的逆变换。目前随着现代通信技术的迅猛发展,移动通信对于数据的传输速率有着越来越高的要求,而随着移动通信方式使用人数的日益增多,以及数据量越来越高的要求,传统的移动通信的数据传输速率越来越不能够满足人们的要求,移动通信变得越来越拥挤,干扰变得越来越严重,因而对于带宽的利用率提出了越来越高的要求,这也是当下移动通信传输研究的主要前沿。
………………
1.2未来移动通信中存在的问题
数字通信系统用来完成点与点之间的通信,不同的数字通信系统对于通信的速率和准确率有着不同的要求。为了满足通信的速率和准确率要求,数字通信系统中的一个极其重要的部分便是信道,信道本身的属性对通信的速率和准确率产生重要的影响。香农在《信息论》中给出了信道的最大通信速率,通信系统的准确率即差错概率是当下通信系统的唯一性能指标。为了降低通信的错误信息,在通信系统的接收端要采取一定的判决准则,判决准则有:最大后验概率准则(MAP)和最大似然概率准则(ML),在先验等概率的情形之下,最大后验概率准则与最大似然概率准则实际上是等价的。在采用最大后验概率准则和最大似然概率准则进行判决之时,实际上使用了信道的转移概率函数,也就是说信道的概率模型已经确知。在信道建模当中,通常建模为AWGN信道,在AWGN信道当中,信道的转移函数是高斯函数,接收端最终将接收符号判决为发送符号中的某一个,最后的判决准则都是似然比准则,在高斯函数当中,采用似然比之时由于e指数当中含有平方项,使得似然比判决准则简化为两个平方之差的形式,也就是所说的欧氏距离准则,欧氏距离准则实际上就是最大似然准则在AWGN信道当中的等效形式。这种建模方式实际上隐含对于信道的特性完全已知,即对于信道的转移函数是确知的。在以往通信建设比较稀疏的时候,把信道看作AWGN信道是可以的,也就是说信号所受到的破坏主要是噪声,但是现在随着通信设施的不断建设,噪声已经渐渐退化为次要因素。
………………
第2章统计检测译码
2.1对统计检测译码算法的初步分析
既然是相关值,那么在两个并行用户的时候,我们对两个用户根本没有办法区分,因为两个并行用户没有任何表征二者相异的地方(当然两个用户的统计特性不同,当时在这里似乎根本没有办法体现)。在以往的调制发送方式当中,不同的用户本身具有表征其自身特性的特征,譬如CDMA当中,每个用户采用不同的正交码,但是类似CDMA是分割信道容量的做法而不是信道容量共享[16]。Alamouti当中,能够区分两路数据,原因也是在发送的时候按照接收端已知的方式对发送符号进行结合,因而在接收端相当于能够做逆运算。总之,发送端必须给不同的并行用户对应不同的特征,或者按照接收端已知的处理方式处理发送符号,从而接收端可以按照特征检测译码,抑或按照已知的处理方式做逆运算。
……………
2.2 LA码及LS码做预编码与MIMO的配合尝试
2.2.1 Is码的基本原理
要想准确译码,实际上包含着两方面的条件:一是最大限度的的增强自我用户发送序列经过信道之后的接受序列同接收端的估计序列之间的自相关特性,另一方面是要最大可能的消除其他并行传输用户对当前传输用户形成的干扰。上述所谓两方面条件实际上都需要同一个方法来得到解决,那就是釆用尽可能长的发送序列,同时采用相同长度的尽可能长的估计序列,发送序列的足够长与与接受估计序列的足够长就保证了自我能量的极大提升,同时也使其他并行传输用户的干扰因为估计序列的长度导致其趋近于其数学期望的n倍,而实验室在公式推导的过程中早就给出了干扰用户的统计特性,即干扰用户的均值为0,也就是说随着发送序列长度与接收估计序列长度的增加,发送序列同接收估计序列之间的相关系数在不断增大,而其它并行干扰用户发送数据同接收估计序列之间的相关则越来越趋近于零,这也就意味着发送序列与接收估计序列长度越长,统计检测译码测度就越接近于正确测度,同时准确译码的可靠度就越高,当发送序列同接收估计序列的长度无限增大时,译码的准确度也就无限的趋近于1。然而采用无限长的译码长度本身是不可能,在实际的应用中,采用无限长度的发送序列和接收序列进行译码,实际上意味着时延无限大,也意味着永远都无法译码。此外译码采用的是遍历译码,即对所有发送序列的所有可能组合进行一一搜索验证,长度的无限增加也意味着状态组合数的无限增加,也就意味着译码复杂度的无限增加。上述两种情形:时延的无限增加和译码复杂度的无限增加都意味着根本无法译码。
……………
第3章重叠码分复用(OVCDM)联合正交重复码........... 23
3.1 OVCDM的技术原理........... 23
3.2用OVCDM做预编码........... 25
3.2.1对采用OVCDM编码矩阵做预编码的仿真验证........... 29
3.3 OVCDM在衰落信道中........... 33
3.4对于通用方阵结构编码矩阵的性能验证........... 38
3.5 串行级联 OVCDM........... 40
3.5.1串行级联OVCDM的仿真原理........... 40
3.5.2级联矩阵及等效OVCDM矩阵........... 41
3.6本章小结...........45
第4章重叠时分复用(OVTDM)联合正交重复码...........47
4.1 OVTDM 分析 ...........47
4.2最佳组合方式........... 53
4.3串行级联配合正交重复编码........... 54
4.4串行级联结构 ...........57
4.5 串行级联的TURBO结构........... 61
4.6 串行级联结构升余弦成型滤波仿真...........70
4.6.1串行级联结构升余弦成型滤波性能仿真分析........... 70
4.6.2 TPC编码与OVTDM联合仿真分析........... 73
4.7本章小结............ 76
第4章重叠时分复用(OVTDM)联合正交重复码
4.1 OVTDM 分析
在上一章中为了实现多用户并行传输,而并行传输的同时又需要确保每一个并行传输用户传输数据不发生降低,采用的方法是提高OVCDM的编码码率进而提高频谱效率,单用户编码码率的提高就可以为多用户的并行传输提供保障,进而可以通过对所有用户做正交重复,正交重复保证了并行用户之间信号传输时不发生相互干扰,而正交重复本身又可以对每一个传输用户带来补偿,我们知道,随着OVCDM编码码率的不断上升,其误码性能本身不断恶化,但是正交重复编码使得在最终检测的时候可以弥补这一损失。最终放弃OVCDM做预编码然后做正交重复编码的方案,并非因为不可行,而是因为获得高码率的OVCDM编码矩阵如果采用传统的基于自由距离原则搜索的方法,工作量太大,其二即便可以采用己有OVCDM编码矩阵来构造信道高频谱效率的OVCDM编码矩阵,首先性能上没有足够的保障,因为通过现有的OVCDM编码矩阵构造的新编码矩阵并不是最优的矩阵,也就是说并不是自由距离最大的编码矩阵,即便能够保证OVCDM编码矩阵的最优,高阶OVCDM编码矩阵的译码复杂度过高。
……………
结论
针对实验室根据对信源进行严格的数学分析之后的得出的统计检测译码算法,作者对统计检测译码测度的作出了一些分析和尝试性质的仿真验证,仿真验证主要针对的是对发送信号做预编码的情形,同时在做预编码的情形下,在Rayleigh衰落信道中做了一些仿真验证。做预编码的主要目的是将所要进行判决的数据信息完全平均到整个预编码的时间长度上,从仿真性能来看,当釆用LS码以及LA时频码这种具有完全理想的自相关特性和互相关特性的码字作为预编码时,完全可以达到上述的预编码目的。但是根据矩阵相关理论,在LS码的集合中,自相关特性与互相关特性完全理想的码字数量是有限的,因而上述采用这种方式的预编码实际上也是在分割信道容量而不是共享信道容量。上述的尝试都不理想,而为了满足多用户并行传输,同时针对单用户数据传输速度不能降低的问题,实验室给出的方案是提高单用户预编码的码率,同时对每个将要传输的用户数据做正交重复编码,从而在并行传输情形之下,编码码率的提高与做正交重复编码两者折中,单用户的频谱效率与原始情况下完全相同,并没有发生降低。
……………
参考文献(略)
优秀经济统计毕业论文范文篇九
第1章绪论
1.1纠错编码及Turbo码概述
在随后的几十年里,纠错编码领域的学者们结合前人的经验和自己的智慧设计发明了众多编译码方案,并有效应用到各种通信场景中,编码学界空前繁荣,先后出现了汉明码、格雷码、RS码和卷积码等不同的编译码方案。这些方案设计巧妙,其中一些至今仍被使用,但它们的性能与香农限相距甚远,直至Turbo码的发明和LDPC码重新被发现才使纠错编码研究跃上新台阶,二者性能大大超越之前已有的编码方案,十分逼近香农限。1993年,C. Berrou等人在国际通信会议上提出了一种新的信道编码方案,称为Turbo码,它很好地应用了 Shannon信道编码定理中的随机性编、译码条件,从而获得了几乎接近Shannon理论极限的译码性能[2]。Turbo码一经提出,其超乎寻常的性能在编码界引起了轰动,围绕Turbo码的研究也成了通信系统中的一个热点。Turbo码在低信噪比下的优异性能使Turbo码在许多通信系统中都有巨大的应用潜力。除了在深空通信[3]、卫星通信以及多媒体通信等领域的应用以外,第三代移动通信的主流标准TD-SCDMA、WCDMA和CDMA2000和B3G通信系统标准LTE[4]、WiMAX系统均釆用Turbo码编译码技术。
………………
1.2 Turbo码译码性能分析研究现状
自Turbo码发明以来,其译码行为分析和性能分析一直是编码界研究的热点。Turbo码的性能根据其特点可分为两个区域:瀑布区("Waterfall region)和错误平层区(Error floorregion),其中瀑布区对应中低信噪比误码率陆降的区域,而错误平层区对应中高信噪比误码率下降趋于平缓的区域。错误平层区性能分析对于错误平层区的性能分析,现今已有一些比较准确的估计方法。一类方法是基于一致界(Union Bound)来估计 Turbo 码性能,早在 1995~1996 年间,S. Benedetto 和 G. Montorsi利用一致界首次独立于交织器的使用进行性能估计,得到一个平均误码率的解析上界,并指出交织器长度对Turbo码性能的影响[5][6][7]。另一类方法是将转移函数应用到Turbo码性能估计中如文献[9]中D. psalar等人运用此法估计了错误平层区性能,并对如何降低错误平层提出了一些见解。之后,L.C.Perez等人提出重量谱阐述方式,揭示了 Turbo码的交织器会引起谱窄化效应,并指出增大交织器长度可以降低错误平层,这使得自由距离渐近线成为估计Turbo码错误平层区性能的有效手段_。除此之外,还有许多研究试图在一致界的基础上获得效果更好的性能界,但结果都不够理想。这些理论界提供了分析错误平层区性能的有效方法,但是在中低信噪比范围内并不适用,也就说并不适用于瀑布区的性能估计。同时,对于Turbo码为何能取得如此优异的性能、其迭代译码机制内部深层的含义,也有诸多研究工作试图揭示。近年来,围绕建立Turbo码性能的系统分析方法,大致可以分为两类:确定性分析方法和随机分析方法。
…………
第2章Turbo码性能分析方法
2.1 Turbo码编码原理
本章首先介绍Turbo码的编码原理,主要包括编码器的构成以及各个模块具体的功能和工作原理。之后介绍Turbo码迭代译码器的结构以及译码的基本流程。最后重点介绍几类已有的Turbo码性能分析方法,对于几种重要的译码行为及性能分析方法将给出原理和具体使用方法。论文后续的Turbo码译码机制和性能分析工作中将采用这些方法。Turbo码的编码结构实际上是由卷积码发展演进而来,因此它又称为并行级联卷积码(PCCC,Parallel Concatenated Convolutional Code)。但与普通的卷积码相比,Turbo 码编码结构复杂很多,其中新增的交织器等模块以及特殊的编码流程极大地影响了其性能。通常Turbo码编码器包含以下几个模块:多个分量编码器、交织器、穿孔模块以及复接器。Turbo码发明之初所选用的分量编码器是两个结构相同的递归系统卷积(RSC,Recursive Systematic Convolutional)码,随着编码技术的发展,有的Turbo码分量编码器也可釆用其它的编码方案。由于采用递归系统卷积码的Turbo码编码输出小重量的码字概率较低,因此一般Turbo码普遍使用这种卷积码作为分量编码器。
…………
2.2 Turbo码译码器结构与译码流程
Turbo码与大多数其它纠错编码的技术特点区别在于它采用了迭代译码机制,这也是Turbo码能获得优秀的误码性能的原因之一。传统的纠错编码在一次译码完成后就对译码输出序列进行硬判决,直接得到恢复数据,这样做或多或少都会损失有用信息。而在Turbo码迭代译码过程中,某个译码器一次译码输出并不会直接送入判决,而是将有用信息分离出来(外信息)传给其它译码器作为参考(先验信息)。其它译码器亦吸取先验信息并输出外信息,如此循环往复进行软输入软输出(SISO,Soft-In/Soft-Out)的迭代,直至满足停止迭代条件才进行判决。图2-5是一种典型的Turbo码译码器结构示意图。由于迭代译码传递互信息的需要,必须具备多个分量译码器,另外还要有保证互信息序列顺序匹配的交织器和解交织器。具体的译码流程如下:接收机收到信息后,首先将其按照预定的规则分离成三路信息:系统信息:Ks和校验信息》。初始时,将系统信息和校验信息送入第一分量译码器做译码运算,译码完成后将得到的外信息传给交织器处理,交织后的序列将作为第二分量译码器的先验信息此时准备第二分量译码器的译码工作,将交织后的系统信息、校验信息》以及刚产生的先验信息送入该译码器译码,处理得到的外信息做解交织处理,再送往第一分量译码器作为其先验信息如此将先验信息和外信息在译码器之间循环迭代,直至满足停止迭代条件时,将第二分量译码器输出的对数似然比LLR做解交织处理,并判决得到最终的译码结果。
…………
第3章Turbo码迭代译码对数似然比统计建模.......... 19
3.1常用译码算法......... 19
3.2对数似然比分布分析模型......... 22
3.3不同统计模型对对数似然比建模......... 23
3.4混合高斯分布模型的准确度与普适性......... 31
3.4.1不同信息序列比特位的混合高斯模型......... 31
3.4.2不同信道条件下的混合高斯模型......... 33
3.4.3不同信息长度下的混合高斯模型......... 34
3.5本章小结 .........36
第4章基于对数似然比统计建模的Turbo码译码......... 37
4.1迭代译码过程 .........37
4.2 Turbo码收敛门限分析 .........38
4.3基于混合高斯模型的瀑布区误码性能估计......... 40
4.4混合高斯模型参数与信道条件的定量关系......... 41
4.5混合高斯模型与指数性能模型的关系......... 43
4.6本章小结......... 47
第4章基于对数似然比统计建模的Turbo码译码收敛及湯布区性能分析
4. 1迭代译码过程
Turbo码复杂的迭代译码机制为它带来了不同寻常的性能,自Turbo码发明以来,虽然一直有学者研究这种复杂的迭代机制,不管是基于严密繁复数学推演的确定性分析,还是构造巧妙的随机过程输入输出模型,它们都没能清晰明确地剖析出迭代译码的机理。迭代译码机制为何能带来如此优异的性能、其背后深层的物理含义是什么、如何才能严密地推导出译码输出的对数似然比概率密度函数的确切表达式,这些都是研究Turbo码亟需解决的问题。论文虽然不能攻克这些难题,但根据前文分析对数似然比分布的积累和成果,论文从不同的角度出发,从迭代译码输出的结果来分析迭代译码的过程,试图为Turbo码译码机制的研究提供一些新的思路。为了考察对数似然比LLR的分布在迭代过程中是如何变化的,论文固定了其它仿真系统参数,设置不同的迭代次数进行仿真,最后输出的LLR分布如图4-1所示。在第三章中,论文提出Turbo码的LLR分布可以用混合高斯模型来描述,但从图4-1中可以看到,在迭代译码之初,LLR分布并不具备两个峰瓣的特征,而只有一个峰瓣。随着迭代次数的增加,这个峰瓣的中间开始往下陷,逐渐分裂成两部分。这个过程中,靠近原点左瓣逐渐变小,右瓣逐渐增大并往右边扩散,最终形成两个相连的峰瓣分布,也就是论文第三章提出用混合高斯模型建模的分布。文献[46]在分析LLR分布时发现了类似图4-1中图(b)的分布情况,并声称是迭代多次以后,Turbo码译码收敛,故LLR分布发生了倾斜现象,实则此时迭代远未达到收敛,LLR分布才刚进入分裂状态。必须声明的是,第三章和本章用来统计建模的数据全部是迭代30次输出的LLR数据。
………………
结论
Turbo码自发明以来被广泛应用,但对于其性能的研究,只有错误平层区有一些效果良好且论证严谨的方法,而瀑布区的性能分析仍缺乏类似二者兼具的方法。论文从Turbo码译码输出的对数似然比LLR出发,通过对LLR分布进行统计建模,进而利用模型对Turbo码的译码收敛性和瀑布区性能进行分析,主要工作和研究成果总结如下:阐述了 Turbo码编、译码的一些基本原理,整理了 Turbo码译码收敛性和性能分析的一些常用方法,包括分析错误平层区性能的一致界和自由距离渐近线,以及在瀑布区使用的一些确定性分析方法和随机分析方法。其中重点介绍了几种随机分析方法的原理、使用方法及其应用价值,包括EXIT图、密度演进方法、高斯近似方法、尺度定理、指数性能模型以及Abedi统计分析方法。为了引出对数似然比LLR,介绍了经典的Turbo码译码算法,强调了其中LLR的定义和计算。详细阐述了对Turbo码LLR分布进行统计建模的工作:在限制输入全1信息序列条件下,通过对比有理分布模型、瑞利高斯混合分布模型、Gamma高斯混合分布模型以及混合高斯模型对LLR分布进行建模的效果,提出Turbo码LLR分布可以用混合高斯模型来描述。对于混合高斯模型,论文分析了该模型相比于其它模型的优点,并分析了该模型的准确度与普适性。通过在不同的条件下的仿真拟合实验,论文发现,混合高斯模型可以在不同比特位、不同信噪比和不同信息长度之下较为准确地刻画Turbo码对数似然比概率分布。
……………
参考文献(略)
优秀经济统计毕业论文范文篇十
第一章 文献综述
1.1 选题的背景
大型银行、保险公司、证券公司每天的业务都会产生大量数据,利用现有的数据库系统虽然可以高效地进行数据的录入、查询、统计等功能,但是根本无法发现数据背后存在的关联和规律,更无法根据现有的数据预测出未来的发展趋势。缺乏挖掘数据隐藏的知识手段,造成了“数据爆炸但知识贫乏”的现象。金融自由贸易化、信息技术革命、证券化的迅速发展,信息化使得各大银行的业务处理能力明显不足,市场权力转移,买方市场的出现,银行经营重心逐渐转向客户,并向服务型银行转变。为了配合银行业各项新业务的出台,还需经常推出多种全新的应用软件。因此,对于银行信息数据规划和管理的重要性和繁琐度不言而喻。若想通过传统的手工方法来管理银行所需的各种信息化服务,必定要消耗巨大的人力、物力、财力,而其结果却往往收效甚微。随着我国的市场经济不断深化改革,银行之间的竞争愈来愈激烈。为了在竞争中略胜一筹,企业必须将自己的业务发展同市场变化紧密地联系在一起,在此基础上做出正确的经营决策。为此,银行纷纷建立起自家的业务管理统计系统,搜集、存储、整理日常业务中数据,并提高业务处理效率。现有的传统业务管理统计系统是面向业务操作设计的,很大程度上减轻了操作人员的工作强度,但因为该系统主要侧重业务处理方面,不是针对银行的管理需求,传统的业务管理统计系统不能为银行的管理与决策提供良好的支持。为了给管理层人员提供有力的管理与决策支持,银行相续采用新的技术手段,将现有的业务管理统计数据集成到数据仓库中,对业务数据进行筛选、处理,提取出可为业务管理与决策提供有效帮助的信息。
..........
1.2 选题的目的和意义
1.2.1 选题的目的
近年来,国内经济的蓬勃发展为我国商业银行创造了良好的经营环境,我国银行业的各项主要经营指标纷纷跃居世界前列,国内银行业在获取巨额利润的同时也面临着巨大的挑战,因为国内银行业的服务水平与欧美的金融机构相比较存在很大的差距。在构建“最佳银行”战略的指引下,完成整合后的平安银行业驶入发展快车道,迎来新的历史阶段。紧密配合银行发展战略和转型需要,对外建立差异化品牌定位和形象,快速提升品牌知名度,增进专业认可度;对内以品牌为驱动力,促进管理的提升、流程的优化和业务的创新等,创造“不一样”的客户体验,提升品牌竞争力,同时推动“以客户为中心”的战略转型。这其中信息化进程的全面推进尤为重要,如今我国商业银行平均以每月以高达 15%的数据量高速增速,面对如此巨大的增长速率,若还只是采取人工处理的方式是极具难度的,因而大量的数据被描述为数据丰富,但信息贫乏,导致了大量的数据成为了数据坟场。寻找较高层次的数据处理技术,找出模式和规律,以此帮助银行更好地利用数据进行研究和决策成了当务之急。而将这些数据转换成有用的知识和信息,就需要借助强有力的挖掘工具——数据挖掘技术,从而提高平安银行的竞争力。本文选题的目的在于自动生成相关业务部门的各类报表信息,并通过数据挖掘技术实现来帮助管理者制定业务经营决策的目的,使各部门随时了解到相关的业务信息并且可以长期保存和使用。
………………
第二章 平安银行业务信息管理系统的发展现状分析
2.1 数据统计工作在银行日常经营管理中的角色
统计(statistics),英文中作为复数名词指的是统计资料的意思,而用作单数名词则指统计学,是关于社会经济生活中获取经济现象中的数据资料,并通过对该资料的整理与分析,从而描述并推断该经济现象的活动的总称。统计活动具有悠久的历史。英文中,“统计”一词的词根与“国家”词根来源相同,可以说自从有了国家,就有了统计这项实践活动。起初为了管理国家的需要,以及弄清国家的财力、物力与人力,统治者采用统计来搜集数据,作为管理国家的依据。而如今的“统计”已拥有了更多的含义,很难对其做出明确的界定。但通常情况下统计的三个含义是大家公认的:统计资料、统计工作和统计学。统计资料即通过统计活动搜集与整理,并分析和研究的,据以反映社会经济生活中经济现象的数据资料的总称。我们经常听到的“据统计”一词指的就是统计数据资料。统计数据资料和我们的生活、学习、工作息息相关。因为无论国家、企事业单位及个人都需要对有关的统计数据资料进行搜集和分析,以便进行下一步的规划和发展。
………………
2.2 我国银行业务信息管理系统的发展历程
管理信息系统,计算机系统通常用于管理五个主要部分组成:硬件,软件,数据(决策资讯),程序(设计,开发和文档),人(个人,团体或组织)。各部分被用来分析和促进战略和业务活动的其他信息系统,管理信息系统。在学术上,该术语通常用来指个人,团体和组织,如何评估,设计研究,实施,管理和利用系统产生的信息,以提高决策的效率和效益,包括系统称为决策支持系统,专家系统。管理信息系统给企业管理者信息,他们需要据此做出决定。早期的商用电脑,用于跟踪库存,结算,销售,或工资数据等简单操作。随着时间的推移,这些计算机的应用程序变得更加复杂。随着越来越多的数据存储和链接,管理者寻求更大的抽象以及更详细的目标。这将有助于在管理企业的销售、存货和其他数据的应用程序。随着时间的推移,扩大到包括:决策支持系统、资源管理和人力资源管理、企业资源规划(ERP)、企业绩效管理(EPM)、供应链管理(SCM)、客户关系管理(CRM)、项目管理库存储和检索应用程序等。
……………
第三章 基于数据挖掘的平安银行业务管理....16
3.1 数据挖掘及其过程.... 16
3.1.1 数据挖掘内涵........ 16
3.1.2 数据挖掘过程........ 16
3.2 数据挖掘对银行业务信息管理重要性........ 16
3.2.1 银行业务信息管理系统.... 16
3.2.2 数据挖掘在银行业务信息管理系统... 17
3.3 数据挖掘与传统分析方法的区别.... 17
3.4 平安银行业务发展与管理对数据挖掘...... 17
3.5 本章小结........ 20
第四章银行业务管理统计系统的设计......21
4.1 系统逻辑体系架构设计的基本原则...... 21
4.2管理统计系统逻辑架构设计.... 21
4.3管理的统计系统的数据库设计...... 23
4.4管理的统计系统的功能模块设计........ 30
4.5 本章小结........ 31
第五章 总结和展望........32
5.1 全文总结........ 32
5.2 以银行业务数据管理系统为依托...... 33
第四章 基于数据挖掘的平安银行业务管理统计系统的设计
4.1 系统逻辑体系架构设计的基本原则
软件体系架构是设计抽象的第一步,是为了满足更好地理解软件系统,更方便地开发复杂的软件系统的需要。系统的逻辑体系架构用来描述系统各部分的结构、接口及通信的机制。正确的软件体系架构设计是软件系统成功的关键。架构设计过程中需要实现以下几方面的要求:控制软件的复杂性。体系架构设计应预先为软件定义科学的规则与结构。只有这样才能够使软件易于操作和管理,从而降低软件的复杂性。提高重用性。良好的软件架构不仅可以对软件中的不同组建进行分离,而且还能对组建之间的接口进行精确定义,从而提高软件系统中大部分组件的重用性,实现更大范围的软件重用。有利于合作开发。架构设计的结果是进行协作开发的基础。在保证组件的接口定义的情况下,改变组建内部不会影响整个系统的集成,因此可以把软件架构设计中有效分离的组件分配给不同的开发人员。
……………
结论
基于数据挖掘的银行业务管理的统计系统是目前银行数据信息统计系统发展的趋势。采用基于数据挖掘的银行业务管理的统计系统对于银行业数据业务及信息管理等工作的发展具有重要的意义。本文对基于数据挖掘的银行业务管理的统计系统的开发进行了探讨。详细分析了开发基于数据挖掘的银行业务管理的统计系统中使用的相关技术,并讨论了系统开发过程中使用上述相关技术的方法。根据银行业务的特点及采用的技术,设计并开发了基于数据挖掘的银行业务管理的统计系统,本文中详细论述了整个系统的设计和开发过程。作者参与了整个基于数据挖掘的银行业务管理的统计系统的设计及开发过程,主要工作和创新如下:
(1)通过总结分析原有银行数据业务管理系统中存在的问题,并结合当前银行业务发展的需要,提出了基于数据挖掘的银行业务管理的统计系统应当具有的产品特性,为该系统的设计及开发确定了目标。
(2)针对现阶段基于数据挖掘的信息管理系统的发展趋势,分析最新的数据挖掘技术特点,确定了基于数据挖掘的银行业务管理的统计系统的技术路线。通过分析论证,提出了在基于数据挖掘的银行业务管理的统计系统中使用相关数据挖掘技术的完整解决方案。
(3)在深入分析未来银行数据管理系统的发展趋势,对基于数据挖掘的银行业务管理的统计系统提出了新的设计思想。分别从系统逻辑架构、系统功能模块、系统数据库等三个方面对整个系统进行了设计。并且对于系统中如何减少维护开发工作量的问题以及如何更加合理地划分系统结构,提高模块组件的复用性,提高系统的可扩展性等问题,在系统设计阶段分别提出了相应的解决方法。
(4)根据基于数据挖掘的银行业务管理的统计系统的设计方案,总结原有银行数据管理系统的开发实现方法,确定了基于数据挖掘的银行业务管理的统计系统开发实现过程的主要技术路线。经过进一步的分析研究,提出了开发过程中相关关键问题的完整解决方案,最终完成了基于数据挖掘的银行业务管理的统计系统的全部开发工作。
……………
参考文献(略)