共查询到19条相似文献,搜索用时 140 毫秒
1.
2.
熵、距离测度和相似测度是模糊集理论中的三个重要概念.首先系统地给出了直观模糊集的熵、距离测度和相似测度的公理化定义,并讨论了它们之间的一些基本关系.然后在距离测度公理化定义的基础上产生了一些新的直观模糊集的熵公式. 相似文献
3.
4.
5.
屈荫生 《数学年刊A辑(中文版)》1983,(1)
本文定义了结局为模糊事件的随机试验的熵和信息量,将Shannon熵和信息推广到Fuzzy情形。讨论了模糊事件的熵和信息的基本性质。发现结局为模糊事件的随机试验的熵可分解为随机熵和模糊熵之和。找到了Shannon熵和Do Luca熵之间的联系。 相似文献
6.
本文在广义模糊软集和犹豫模糊软集的基础上给出广义犹豫模糊软集的概念,并研究广义犹豫模糊软集的不确定性度量。首先在犹豫模糊集包含度的公理化定义基础上,建立犹豫模糊集合的三种包含度公式;然后给出广义犹豫模糊软集包含度的公理化定义,并利用犹豫模糊集合的包含度公式构造广义犹豫模糊软集间的包含度公式,这些公式可以计算参数集不同时两个广义犹豫模糊软集间的包含度。接下来给出广义犹豫模糊软集不确定性度量的公理化定义,并从其包含度出发来构造广义犹豫模糊软集的不确定性度量公式,这种不确定性度量的计算方法同样适用于参数集不同的广义犹豫模糊软集,最后利用广义犹豫模糊软集不确定性度量方法应用到聚类分析实例中,通过实例验证了所提出方法的可行性和有效性。 相似文献
7.
直觉模糊集的距离测度是两个直觉模糊集差异性大小的度量,许多学者围绕其公理化定义和具体表达公式做了大量的工作,并且被广泛应用在多属性决策、模式识别等许多方面。基于直觉模糊集距离测度的公理化定义,本文对一些学者提出的距离测度公式进行了探讨,并给出了几种一般化构造形式。 相似文献
8.
将研究对偶犹豫模糊集的熵理论.对偶犹豫模糊集是由隶属度和非隶属度组成的,每部分都含有几个可能的数值.首先,提出基于隶属度,非隶属度,以及犹豫度三个指标的对偶犹豫模糊值(DHFE)的熵公理化定义和熵公式.在此基础上,提出对偶犹豫模糊集(DHFS)的熵公理化定义和熵公式,从而完善对偶犹豫模糊集的熵理论.最后,利用具体的多属性决策实例说明所提熵公式的实用性和有效性. 相似文献
9.
对现有的模糊集和直观模糊集的相似测度和距离测度的公理化定义进行分析,并做出改进;然后提出区间值直观模糊集的相似测度和距离测度的公理化定义,并各引入它们的一种计算方法;最后给出区间值直观模糊集的相似测度和距离测度在模式识别中的一个应用实例. 相似文献
10.
丁勇 《数学的实践与认识》2012,42(18):141-146
根据Shannon信息量,本文提出了离散型随机变量平均信息熵的概念并推导了计算公式,结果表明平均信息熵与调和级数有关.平均信息熵可作为评价信源提供信息量多少的指标. 相似文献
11.
The cumulative residual entropy (CRE) has been found to be a new measure of information that parallels Shannon entropy, refer to Rao et al. (2004). In this paper we study a generalized cumulative residual information measure based on Verma’s entropy function and a dynamic version of it. The exponential, Pareto and finite range distributions, which are commonly used in reliability modeling, have been characterized using this generalized measure. 相似文献
12.
水资源配置的多属性特征使得在方案综合评价中依据不同的聚合方法,能够获得不完全一致的方案排序结果。本文从水资源配置方案评价的决策矩阵及方案排序结果中的信息量大小入手,利用信息熵理论和斯皮尔曼等级相关系数提出衡量水资源配置方案综合评价中信息损失的香农斯皮尔曼测度。并构造由2种权重(熵权法权重、证据理论权重)与3种评价模型(简单加权法、模糊优选法、TOPSIS)组合而成的6种综合评价模型。最后,将香农斯皮尔曼测度运用到天津市水资源配置方案综合评价过程中的信息损失的衡量,并与文献中的综合评价模型所得结果进行比较。结果表明,采用证据理论权重-模糊优选评价模型所得评价结果的绝对信息损失和相对信息损失最小。通过水资源配置方案综合评价中的信息损失测度研究,能够使得水资源配置方案综合评价过程更加透明,并为决策部门选取理想的水资源配置方案综合评价方法提供决策支持。 相似文献
13.
14.
给定一个离散且有限随机变量的信息熵,求其对应的概率分布需要解多元非线性方程,文中提出了一个将n元信息熵方程化为至多(n-1)个一元非线性方程求解的算法,证明了算法的正确性,给出了算法误差估计;运用熵方程求解算法设计了一种基于信息熵的文本数字水印方案. 相似文献
15.
The measure of uncertainty is adopted as a measure of information. The measures of fuzziness are known as fuzzy information measures. The measure of a quantity of fuzzy information gained from a fuzzy set or fuzzy system is known as fuzzy entropy. Fuzzy entropy has been focused and studied by many researchers in various fields. In this paper, firstly, the axiomatic definition of fuzzy entropy is discussed. Then, neural networks model of fuzzy entropy is proposed, based on the computing capability of neural networks. In the end, two examples are discussed to show the efficiency of the model. 相似文献
16.
针对复杂系统分析中的数据信息冗余问题,提出一种基于Vague粗糙集信息熵的属性约简算法。首先,对Vague粗糙集相关概念进行拓展,提出Vague粗糙集的扩展信息熵和广义信息熵的模型;其次,对基于信息熵的属性重要性度量和属性约简原理进行研究,进而提出了一种基于Vague粗糙集信息熵的监督式属性约简算法;最后,选取UCI数据库对算法性能进行验证,计算结果表明该算法实用有效。 相似文献
17.
18.
Muhammad Adil Khan Đilda Pečaric Josip Pečarić 《Mathematical Methods in the Applied Sciences》2017,40(18):7316-7322
Shannon and Zipf‐Mandelbrot entropies have many applications in many applied sciences, for example, in information theory, biology and economics, etc. In this paper, we consider two refinements of the well‐know Jensen inequality and obtain different bounds for Shannon and Zipf‐Mandelbrot entropies. First of all, we use some convex functions and manipulate the weights and domain of the functions and deduce results for Shannon entropy. We also discuss their particular cases. By using Zipf‐Mandelbrot laws for different parameters in Shannon entropies results, we obtain bounds for Zipf‐Mandelbrot entropy. The idea used in this paper for obtaining the results may stimulate further research in this area, particularly for Zipf‐Mandelbrot entropy. 相似文献
19.
Khursheed Alam Calvin L. Williams 《Annals of the Institute of Statistical Mathematics》1993,45(2):383-399
An entropy is conceived as a functional on the space of probability distributions. It is used as a measure of diversity (variability) of a population. Cross entropy leads to a measure of dissimilarity between populations. In this paper, we provide a new approach to the construction of a measure of dissimilarity between two populations, not depending on the choice of an entropy function, measuring diversity. The approach is based on the principle of majorization which provides an intrinsic method of comparing the diversities of two populations. We obtain a general class of measures of dissimilarity and show some interesting properties of the proposed index. In particular, it is shown that the measure provides a metric on a probability space. The proposed measure of dissimilarity is essentially a measure of relative difference in diversity between two populations. It satisfies an invariance property which is not shared by other measures of dissimilarity which are used in ecological studies. A statistical application of the new method is given. 相似文献