首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 140 毫秒
1.
信息论的基本概念是熵与信息量的概念,这些概念都是在Shannon的奠基性工作中引进的。就在这一工作中,Shannon就给出了一个熵的公理化定义。此后在和的工作中又简化了熵的公理化定义。指出对于信息量也给出这样一个公理化定义是有意思  相似文献   

2.
熵、距离测度和相似测度是模糊集理论中的三个重要概念.首先系统地给出了直观模糊集的熵、距离测度和相似测度的公理化定义,并讨论了它们之间的一些基本关系.然后在距离测度公理化定义的基础上产生了一些新的直观模糊集的熵公式.  相似文献   

3.
熵和相似度是模糊集理论中很重要的信息度量工具。本文给出了区间直觉模糊集的区间熵和区间相似度的公理化定义,并给出了几个区间熵公式。说明了当熵公式无法区分区间直觉模糊集的不确定时,利用区间熵的优点。讨论了区间熵和区间相似度的关系,给出了由区间熵转化为区间相似度的方法。  相似文献   

4.
结合犹豫模糊集自身的模糊性和犹豫性特征,研究犹豫模糊集的熵公理化定义和熵公式.先对犹豫模糊值提出了熵公理化定义和熵公式,在此基础上,定义犹豫模糊集的熵公理化定义和熵公式,从而完善犹豫模糊集的熵理论.最后,将提出的犹豫模糊值的熵公理化定义和熵公式与现有文献中的相关定义进行比较,结果表明所提的熵公式既能反映犹豫模糊值的模糊性,又能反映其犹豫性,具有更强的区分犹豫模糊值不确定性的能力.  相似文献   

5.
本文定义了结局为模糊事件的随机试验的熵和信息量,将Shannon熵和信息推广到Fuzzy情形。讨论了模糊事件的熵和信息的基本性质。发现结局为模糊事件的随机试验的熵可分解为随机熵和模糊熵之和。找到了Shannon熵和Do Luca熵之间的联系。  相似文献   

6.
本文在广义模糊软集和犹豫模糊软集的基础上给出广义犹豫模糊软集的概念,并研究广义犹豫模糊软集的不确定性度量。首先在犹豫模糊集包含度的公理化定义基础上,建立犹豫模糊集合的三种包含度公式;然后给出广义犹豫模糊软集包含度的公理化定义,并利用犹豫模糊集合的包含度公式构造广义犹豫模糊软集间的包含度公式,这些公式可以计算参数集不同时两个广义犹豫模糊软集间的包含度。接下来给出广义犹豫模糊软集不确定性度量的公理化定义,并从其包含度出发来构造广义犹豫模糊软集的不确定性度量公式,这种不确定性度量的计算方法同样适用于参数集不同的广义犹豫模糊软集,最后利用广义犹豫模糊软集不确定性度量方法应用到聚类分析实例中,通过实例验证了所提出方法的可行性和有效性。  相似文献   

7.
直觉模糊集的距离测度是两个直觉模糊集差异性大小的度量,许多学者围绕其公理化定义和具体表达公式做了大量的工作,并且被广泛应用在多属性决策、模式识别等许多方面。基于直觉模糊集距离测度的公理化定义,本文对一些学者提出的距离测度公式进行了探讨,并给出了几种一般化构造形式。  相似文献   

8.
将研究对偶犹豫模糊集的熵理论.对偶犹豫模糊集是由隶属度和非隶属度组成的,每部分都含有几个可能的数值.首先,提出基于隶属度,非隶属度,以及犹豫度三个指标的对偶犹豫模糊值(DHFE)的熵公理化定义和熵公式.在此基础上,提出对偶犹豫模糊集(DHFS)的熵公理化定义和熵公式,从而完善对偶犹豫模糊集的熵理论.最后,利用具体的多属性决策实例说明所提熵公式的实用性和有效性.  相似文献   

9.
对现有的模糊集和直观模糊集的相似测度和距离测度的公理化定义进行分析,并做出改进;然后提出区间值直观模糊集的相似测度和距离测度的公理化定义,并各引入它们的一种计算方法;最后给出区间值直观模糊集的相似测度和距离测度在模式识别中的一个应用实例.  相似文献   

10.
根据Shannon信息量,本文提出了离散型随机变量平均信息熵的概念并推导了计算公式,结果表明平均信息熵与调和级数有关.平均信息熵可作为评价信源提供信息量多少的指标.  相似文献   

11.
The cumulative residual entropy (CRE) has been found to be a new measure of information that parallels Shannon entropy, refer to Rao et al. (2004). In this paper we study a generalized cumulative residual information measure based on Verma’s entropy function and a dynamic version of it. The exponential, Pareto and finite range distributions, which are commonly used in reliability modeling, have been characterized using this generalized measure.  相似文献   

12.
水资源配置的多属性特征使得在方案综合评价中依据不同的聚合方法,能够获得不完全一致的方案排序结果。本文从水资源配置方案评价的决策矩阵及方案排序结果中的信息量大小入手,利用信息熵理论和斯皮尔曼等级相关系数提出衡量水资源配置方案综合评价中信息损失的香农斯皮尔曼测度。并构造由2种权重(熵权法权重、证据理论权重)与3种评价模型(简单加权法、模糊优选法、TOPSIS)组合而成的6种综合评价模型。最后,将香农斯皮尔曼测度运用到天津市水资源配置方案综合评价过程中的信息损失的衡量,并与文献中的综合评价模型所得结果进行比较。结果表明,采用证据理论权重-模糊优选评价模型所得评价结果的绝对信息损失和相对信息损失最小。通过水资源配置方案综合评价中的信息损失测度研究,能够使得水资源配置方案综合评价过程更加透明,并为决策部门选取理想的水资源配置方案综合评价方法提供决策支持。  相似文献   

13.
信息熵度量风险的探究   总被引:4,自引:1,他引:3  
本文分析了风险的本质后指出,风险是某一特定行为主体对某一金融投资中损失的不确定性和收益的不确定性的认识。在众多风险度量的方法中,熵函数法有着其独特的度量风险的优势,因此,在本文中重点讨论了熵函数作为风险度量的合理性。同时提出一个新的风险度量模型,剖析其主要的数学特性,阐明该模型可以针对不同行为主体能有效地度量金融风险,并且计算量小,易于操作。  相似文献   

14.
给定一个离散且有限随机变量的信息熵,求其对应的概率分布需要解多元非线性方程,文中提出了一个将n元信息熵方程化为至多(n-1)个一元非线性方程求解的算法,证明了算法的正确性,给出了算法误差估计;运用熵方程求解算法设计了一种基于信息熵的文本数字水印方案.  相似文献   

15.
The measure of uncertainty is adopted as a measure of information. The measures of fuzziness are known as fuzzy information measures. The measure of a quantity of fuzzy information gained from a fuzzy set or fuzzy system is known as fuzzy entropy. Fuzzy entropy has been focused and studied by many researchers in various fields. In this paper, firstly, the axiomatic definition of fuzzy entropy is discussed. Then, neural networks model of fuzzy entropy is proposed, based on the computing capability of neural networks. In the end, two examples are discussed to show the efficiency of the model.  相似文献   

16.
针对复杂系统分析中的数据信息冗余问题,提出一种基于Vague粗糙集信息熵的属性约简算法。首先,对Vague粗糙集相关概念进行拓展,提出Vague粗糙集的扩展信息熵和广义信息熵的模型;其次,对基于信息熵的属性重要性度量和属性约简原理进行研究,进而提出了一种基于Vague粗糙集信息熵的监督式属性约简算法;最后,选取UCI数据库对算法性能进行验证,计算结果表明该算法实用有效。  相似文献   

17.
给出一个定义在开直角梯形内的8维向量场,它的Shannon信息熵函数在这个开直角梯形内连续可微,但在其唯一的最大点处的梯度不等于零向量.  相似文献   

18.
Shannon and Zipf‐Mandelbrot entropies have many applications in many applied sciences, for example, in information theory, biology and economics, etc. In this paper, we consider two refinements of the well‐know Jensen inequality and obtain different bounds for Shannon and Zipf‐Mandelbrot entropies. First of all, we use some convex functions and manipulate the weights and domain of the functions and deduce results for Shannon entropy. We also discuss their particular cases. By using Zipf‐Mandelbrot laws for different parameters in Shannon entropies results, we obtain bounds for Zipf‐Mandelbrot entropy. The idea used in this paper for obtaining the results may stimulate further research in this area, particularly for Zipf‐Mandelbrot entropy.  相似文献   

19.
An entropy is conceived as a functional on the space of probability distributions. It is used as a measure of diversity (variability) of a population. Cross entropy leads to a measure of dissimilarity between populations. In this paper, we provide a new approach to the construction of a measure of dissimilarity between two populations, not depending on the choice of an entropy function, measuring diversity. The approach is based on the principle of majorization which provides an intrinsic method of comparing the diversities of two populations. We obtain a general class of measures of dissimilarity and show some interesting properties of the proposed index. In particular, it is shown that the measure provides a metric on a probability space. The proposed measure of dissimilarity is essentially a measure of relative difference in diversity between two populations. It satisfies an invariance property which is not shared by other measures of dissimilarity which are used in ecological studies. A statistical application of the new method is given.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号