共查询到18条相似文献,搜索用时 265 毫秒
1.
2.
优化参数配置是优化应用服务器性能的重要方面;基于传统参数调节的优化策略耗时耗力缺乏系统性和规律性;利用模块化思想针对目标决策函数对应用服务器参数进行分类,可构建条件属性约简模型;基于属性约简的应用服务器优化算法,可去除对于目标决策函数相对不重要的参数,并获得相对重要的参数,从而达到锁定目标重点调节,快速提高系统性能的目的;现有的约简模型优化算法多基于经典粗糙集理论,在等价关系的基础上构造分类,容易造成大量的信息破坏和流失;文章通过拓展等价关系到一般二元关系,利用广义粗糙集理论改良了基于模块化思想和属性约简模型的应用服务器优化算法,通过定义辨识函数对条件属性进行约简,再结合依赖度计算,得到最终目标参数。 相似文献
3.
4.
5.
6.
高坚 《工程物理研究院科技年报》2004,(1):342-342
现代空战需要飞行员及时而有效地传递战场敌我双方的关键战术信息,以便在空战态势瞬息万变的情况下快速作出正确的决策。但是,在未来高技术条件下,由于高强度的电子干扰等因素的存在,使空战中的不确定信息剧增,从而影响空战的决策。波兰数学家Z.Pawlak于1982年提出的粗糙集(RoughSet)理论,是一种处理不确定和不精确问题的新型数学工具。其最显著的特点是,它无需提供问题处理所需的数据集之外的任何先验信息,如统计学中的概率分布、模糊集理论中的隶属函数等,因此便于对实际问题的不确定性作出较客观的描述或处理。本文将粗糙集理论引入空战信息提取中,提出了一种提取空战关键信息和战术规则的属性约简算法,以便对空战过程中的冗余信息进行约简,提高决策实时性。 相似文献
7.
矿井突水是影响矿井安全生产的重要因素之一,如果矿井发生突水,能够快速、准确地判别突水水源类型是治理矿井突水灾害保证生产安全的重要环节,因此,建立一个能够快速识别矿井突水水源的模型具有重要的意义。水化学分析法作为在传统的矿井突水水源类型识别方法里应用最为广泛的识别方法,通过获得相应的pH值、离子浓度、电导率等参数,然后利用这些参数来建立突水水源的类型识别模型对矿井突水的类型进行判别。针对这种传统矿井突水水源识别方法在判别时间上耗时长和识别准确率低等不足,鉴于LIF技术具有分析速度快、灵敏度高等优点,提出了将线性判别分析(LDA)算法作为弱分类器的自适应提升(AdaBoost)算法用于激光诱导荧光(LIF)光谱识别矿井突水水源的新方法。用于实验的九种水样(每种水样各取50个样本)由淮南地区某矿的老空水、灰岩水以及按不同比例混合的老空水与灰岩水的七种混合水构成。将405 nm激光器发射的激光打入被测水体并采集荧光光谱数据,然后对采集到450组荧光光谱数据进行分析,取其中360组光谱数据(每种水样各40组)用作训练集,取剩余90组光谱数据用作测试集。分别选取三种算法针对水样的激光诱导荧光光谱的分类进行了建模并将三种结果进行对比。首先利用决策树算法对光谱进行分类识别,在节点个数为8时决策树对测试集的分类效果最好,分类准确率达到91.11%。然后针对决策树算法分类效果的不足,利用决策树算法作为弱分类器的AdaBoost算法,当选取节点个数为9的决策树作为弱分类器的时,对训练集的分类准确率为97.78%。最后针对基于决策树的AdaBoost算法的泛化性能不足和为了获得更好的分类效果,提出了基于LDA算法作为弱分类器的AdaBoost算法,在设置迭代次数为150后对水样光谱数据分类准确率可以达到100%。通过实验结果可以发现,集成学习算法的分类能力比传统的分类算法对水样的光谱的分类识别能力更强,相较于同为九个节点的决策树算法,采用节点数为9的决策树作为弱学习器的AdaBoost算法对测试集的分类准确率从88.89%提升到了97.78%,对训练集的分类准确率从99.72%提升到了100%;然后可以发现相对于使用决策树作为弱分类器的AdaBoost算法,采用LDA算法作为AdaBoost算法的弱分类器对水样的光谱的测试集的分类准确率从97.78%提升到了100%,对训练集的分类准确率达到100%,具有更好的识别效果,并且具有更好的泛化性能。实验结果证明采用Adaboost-LDA算法为激光荧光光谱的模式分类用于矿井突水水源的判别和预警是可行且有效的。 相似文献
8.
基于决策树的异常高频心电图识别 总被引:1,自引:0,他引:1
运用决策树技术对高频心电图进行分类和识别. 采用Bagging和Boosting方法,分类准确率得到一定程度的提高,从76.3%分别升至79.8%和77.5%. 采用代价敏感决策树,异常心电图的识别率得到明显提高, 达到75.0%,但是分类准确率大幅度下降为53.2%,正常心电图的识别率急剧恶化,从93.2%降为42.7%. 通过实例选择优化训练集,重新构建决策树,分类准确率和异常心电图的识别率均得到明显提高,分别升至84.4%和73.2%. 与BP神经网络、RBF神经网络、支持向量机的分类实验结果相比,基于优化训练集建立的决策树性能最好. 从该树提取相应的诊断规则,可以提高诊断的准确度. 相似文献
9.
10.
恒星光谱分类是研究恒星的基础性工作之一,常用的光谱分类是基于20世纪70年代Morgan和Keenan建立起来的并逐步完善的MK分类系统。然而基于MK规则的交互式决策分类系统对处理海量天文光谱数据存在着一定的困难。目前光谱巡天一般采用的自动化分类则是模版匹配方法而忽略对谱线特征的测量。怎样自动、客观地提取海量光谱中的分类特征并应用这些特征进行分类可以对天体的物理化学性质的统计分析至关重要。针对此问题,通过机器学习和计算光谱的谱线指数结合的方法,提取光谱特征,并通过大数据分析定量地确定对光谱特征谱线的分类判据(数值化),确定每一类光谱具有物理意义的特征谱线的强度分布。首先对LAMOST DR4恒星光谱测量其谱线指数作为输入,光谱的分类标记采用官方发布的分类结果。使用XGBoost算法进行自动分类及特征排序,从而获得已知或未知的对于分类决策最为敏感的谱线。首先,选取高信噪比(S/N>30)、被LAMOST标记为B,A,F和M的恒星光谱数据,总计约414万个。然后,对光谱数据计算谱线指数从而使其得到降维处理,过滤冗余信息。其次,将处理后的恒星光谱数据随机划分为训练集和测试集,通过适当调整算法参数,用训练集得到所需要的分类决策树模型,用测试集测试其稳定性和可用性,以防止出现过拟合,同时使用算法自带函数进行提取分类特征。最后,输出并整理实验中算法所得的决策树模型,并挑选其概率比较大的分支作为最终的决策树模型。通过实验,可以发现在固定参数下,XGBoost所得的模型有一定的自适应性,较少受数据集影响,总体准确率可达88.5%;同时其所输出的分类决策树与已知的特征较为吻合,而且可以获得基于大数据的、数值化的特征谱线对应分类的范围,为完善基于特征的分类提供定量的规则。 相似文献
11.
12.
频繁模式是频繁出现在数据集中的模式,在数据挖掘中起着非常重要的作用。针对恒星光谱分类任务,在频繁模式的基础上,提出一种基于分类模式树的恒星光谱分类规则挖掘方法。首先根据数据库中恒星光谱各属性出现的频率不同,其在分类中的重要程度也不同的特征,提出一种新的树型结构——分类模式树,给出了相关概念及其构造方法SSCPTC,然后,将恒星光谱的特征信息映射到分类模式树上,通过采用自顶向下和自底向上两种模式相结合的方法对分类模式树进行遍历,实现分类规则的提取,同时引入模式有用度的概念来调整分类规则的数量、提高分类模式树的构造效率;最后采用国家天文台提供的SDSS恒星光谱作为实验数据,验证了该方法的正确性,而且具有较高的分类正确率。 相似文献
13.
Jazmín S. De la Cruz-García Juan Bory-Reyes Aldo Ramirez-Arellano 《Entropy (Basel, Switzerland)》2022,24(5)
Decision trees are decision support data mining tools that create, as the name suggests, a tree-like model. The classical C4.5 decision tree, based on the Shannon entropy, is a simple algorithm to calculate the gain ratio and then split the attributes based on this entropy measure. Tsallis and Renyi entropies (instead of Shannon) can be employed to generate a decision tree with better results. In practice, the entropic index parameter of these entropies is tuned to outperform the classical decision trees. However, this process is carried out by testing a range of values for a given database, which is time-consuming and unfeasible for massive data. This paper introduces a decision tree based on a two-parameter fractional Tsallis entropy. We propose a constructionist approach to the representation of databases as complex networks that enable us an efficient computation of the parameters of this entropy using the box-covering algorithm and renormalization of the complex network. The experimental results support the conclusion that the two-parameter fractional Tsallis entropy is a more sensitive measure than parametric Renyi, Tsallis, and Gini index precedents for a decision tree classifier. 相似文献
14.
15.
为了克服现有的WSN节点故障诊断方法所具有的难以实现在线诊断和诊断精度仍然不够高的缺点,设计了一种基于Sarsa算法和改进蚁群算法的WSN节点在线故障诊断方法。首先,建立了监测区域的网络模型和WSN节点故障诊断模型,然后,采用主成分分析法对节点故障样本数据进行降维,从而提高诊断效率,将样本数据作为层次,将故障诊断类作为各层节点建立层次树,采用改进的Sarsa算法求取各层节点的Q值,并将其用于初始化蚁群算法中路径的信息素,最后,提出了一种改进的蚁群算法求取从第一层出发的蚁群到各层节点之间的路径,将各层中信息素最大的节点作为最终的故障诊断类别。在Matlab环境下进行仿真实验,结果证明文中方法能有效实现WSN节点故障诊断,且与其它方法相比,具有故障诊断精确度高且能在线故障的优点,是一种有效的节点故障诊断方法。 相似文献
16.
Feature selection is one of the core contents of rough set theory and application. Since the reduction ability and classification performance of many feature selection algorithms based on rough set theory and its extensions are not ideal, this paper proposes a feature selection algorithm that combines the information theory view and algebraic view in the neighborhood decision system. First, the neighborhood relationship in the neighborhood rough set model is used to retain the classification information of continuous data, to study some uncertainty measures of neighborhood information entropy. Second, to fully reflect the decision ability and classification performance of the neighborhood system, the neighborhood credibility and neighborhood coverage are defined and introduced into the neighborhood joint entropy. Third, a feature selection algorithm based on neighborhood joint entropy is designed, which improves the disadvantage that most feature selection algorithms only consider information theory definition or algebraic definition. Finally, experiments and statistical analyses on nine data sets prove that the algorithm can effectively select the optimal feature subset, and the selection result can maintain or improve the classification performance of the data set. 相似文献
17.