首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 500 毫秒
1.
针对多天线GPS/SINS组合测姿中存在的精度不够和难以实现的问题,研究了一种新的GPS/SINS组合测姿模型。利用GPS载波相位高精度相对定位技术,在传统“速度+位置”松组合的基础上,加入了基于基线向量误差的姿态量测方程,提出了一种精度较高并且较易实现的GPS/SINS组合测姿模型。基于某飞行仿真航迹对模型的测姿性能进行了数值仿真,并与传统测姿模型进行了对比分析。仿真结果表明,与传统模型相比,新的测姿模型可以显著提高导航系统测姿精度和滤波收敛速度,偏航角、俯仰角测量精度可达0.02°,滚动角测量精度可达0.1°,可为飞行器的高精度组合测姿提供一定的参考价值。  相似文献   

2.
为了准确获取空间目标跟踪、视觉导航等领域中目标的三维姿态,进行了目标三维姿态单目视觉测量方法研究.提取图像目标的典型特征点构造出直角三角形,并通过其边长比例先验信息以及弱透视成像模型推导出目标三维姿态的单目解算算法.与传统测姿方法相比,该算法在相机焦距等内参量未知条件下依然可解算姿态,增大了测姿应用范围;与传统迭代测姿方法相比,避免了循环迭代求解过程,无需设置迭代初值,提高了解算效率.数值仿真试验结果表明目标在离相机1~3km成像时姿态测量误差低于1.5°;实际图像序列测量结果表明目标俯仰角和偏航角测量结果拟合残差小于1°,翻滚角拟合残差小于2°.实验验证了算法的正确性和稳定性,表明该算法在内参量未知条件下能有效测量中远距离成像目标三维姿态.  相似文献   

3.
汪启跃  王中宇 《应用光学》2017,38(2):250-255
鉴于实时高精度航天器位姿测量不仅是航天器实时监控和跟踪的重要技术保证,同时也是实时调整和补偿航天器姿态的主要依据,提出一种基于单目视觉的航天器实时位姿测量方法,利用高精度旋转平台几何摄像机的方式对被测目标进行位姿解算。该方法不需要对被测目标进行几何约束,同时也不用进行转站测量,因而可以进行动态实时的在线位姿检测。航天器位姿实验结果表明:该单目视觉测量方法姿态测量误差小于0.05°,位置测量误差小于0.02 m,满足实际工程0.1°和0.05 m的精度需求。  相似文献   

4.
针对航空、航天等领域大型装备组装对接过程中的大尺度空间物体实时的位姿测量需求,对现有基于面阵成像器件摄影测量系统的二维测角功能进行分解与重构,提出一种基于正交柱面成像的位姿测量新方法。该方法充分发挥线阵CCD器件一维角度分辨率高、采集速度快、处理简便等优势,以正交柱面成像光路简化了相机结构,并采用非参数标定方法校正了柱面成像畸变。针对空间物体姿态测量的坐标同步问题,研究了基于扩展卡尔曼预测的实时识别跟踪方法,实现了多个目标并行测量,并通过基于Rodrigues参数的姿态解算模型实现了实时姿态测量。实验结果表明,该测量方法得到的空间点三维坐标测量精度优于0.5mm,空间物体姿态解算在偏航、横滚、俯仰三个方向的最大测量误差分别为0.20°,0.12°,0.23°,具有较高的姿态测量精度。  相似文献   

5.
为了克服图像传感器在位姿测量中存在响应速度与精度相互制约以及相应图像处理算法复杂的缺陷,提出一种基于单个位置敏感探测器的目标空间位姿测量方法.首先建立以位置敏感探测器光敏面中心为原点的传感器坐标系并在该坐标系下定义空间姿态角,然后将合作目标上8个循环交替点亮的红外LED光源作为探测对象,特征发光点经过会聚镜头成像于探测器光敏面上,经信号处理得到各点二维像坐标,并结合光源相对位置关系最终解算得到目标在传感器坐标系下的空间位置和姿态.在对系统稳定性进行验证后完成了位置平移与角度旋转的测量实验.实验结果表明:提出的方法在视场角为16.3°的范围内探测距离可达10m,沿深度方向的位置测量绝对误差最大为36.2mm,其他方向位置测量平均绝对误差最大为7.1mm,角度测量绝对误差优于2°.该方法解算过程简单、实时性强,测量更新频率为100Hz,可以满足位姿检测的高速要求.  相似文献   

6.
为了实现室内运动目标位姿的高精度测量,建立了一套激光投影成像式位姿测量系统.该系统利用两两共线且交叉排列在同一平面上的点激光投射器作为合作目标捷联在运动目标上,通过与光斑接收幕墙的配合共同组成运动目标位姿测量基线放大系统,利用高速摄像机实时记录幕墙上投影光斑的位置,利用摄像机标定结果求解投影光斑的世界坐标,利用投影光斑之间构成的单位向量建立运动目标位姿解算模型.最后,根据测量原理推导了图像坐标提取、摄像机外部参数标定、光束直线度与目标位姿解算结果之间的误差传递函数.实验结果表明,当摄像机的视场范围为14 000mm×7 000mm时,测量系统的姿态角测量精度为1′(1δ),位置测量精度为5mm,且误差大小与目标位姿测量误差传递函数理论计算值一致,验证了本文提出的目标位姿测量方法与测量误差传递模型的准确性,能够满足目标位姿测量高精度的要求.  相似文献   

7.
由IMU或电子罗盘组成的无人机航姿测量系统易受载体有害加速度或周围局部磁场干扰导致姿态角解算不准确。针对该问题提出将自适应扩展卡尔曼滤波算法应用于该系统。在卡尔曼滤波算法中提出引入分段函数构造自适应测量噪声方差阵。相比于传统噪声方差阵的阈值判断方法,该方法提高了传感器信息的利用率,进一步减小了外界干扰对系统姿态估计的影响,最终提高了姿态角的解算精度。最后针对该方法进行了仿真分析和无磁转台实验验证,仿真和实验结果表明,该方法能有效提高无人机航姿测量系统的抗干扰能力,具有一定的应用价值。  相似文献   

8.
马敏  许中冲  常辰飞 《应用声学》2016,24(6):161-163, 167
针对小型四旋翼无人机姿态解算数据精度低、缺少余度控制、易发散等问题,提出一种基于GPS、三轴陀螺仪加速度计、三轴磁力计的随机加权自适应滤波算法估计无人机姿态。建立四旋翼无人机姿态旋转矩阵,搭建加速度计和磁力计获取无人机姿态信息的模型,以及采用四元数解算法的陀螺仪定姿解算模型。采用随机加权自适应估计法,依据多元函数求极值定理,在保证总体均方差最小的情况下导出最优随机加权因子,进而解算出姿态角信息,提高四旋翼无人机姿态解算滤波精度与稳定性。仿真与试验结果表明:随机加权自适应滤波与平均值滤波算法相比解算精度更高,输出结果更平稳,且无人机各项预期功能均能正常实现,能够满足四旋翼无人机自主飞行的需要。  相似文献   

9.
四旋翼飞行器的运动控制关键在于对飞行过程中的实时姿态角控制。目前实时姿态角信息还不能直接测量出来。为了能利用已有的传感器数据解算出更准确的姿态角,通过物理实验详细分析了四旋翼飞行器姿态角的解算和滤波算法。首先,通过联立欧拉方向余弦矩阵与四元数矩阵,得到用四元数表达的姿态角表达式。然后,结合加速度计和磁强计实时测量的数据,分别采用互补滤波和卡尔曼滤波两种方法来补偿四元数结果,分别分析如何选取最佳参数,并对比分析了两种滤波方式的优缺点。在一定精度要求范围内,这两种滤波方式都能获得更加准确的姿态角,但是互补滤波相对卡尔曼滤波有一定的解算时延。因此在精度要求一般的系统中,这两种滤波方式都可以用来求解姿态角,卡尔曼滤波方法则更适于对实时性要求更高的系统。  相似文献   

10.
《光学学报》2021,41(6):157-165
针对在轨服务任务如何在近距离处获取空间非合作目标的相对位置和姿态的难题,提出一种三目立体视觉测量方法。首先利用三台呈等边三角形布置的大视场可见光相机获取图像;然后采用所提方法对特征点进行匹配;接着采用RANSAC方法解算被测目标在世界坐标系下的位姿参数;最后通过对非合作卫星模型的静止、位置移动和姿态转动进行实验。实验结果表明,静止状态下的相对位置精度优于2.2 mm,相对角度测量精度优于0.3°;当模型位置移动时,绝对位置精度优于3 mm;当模型姿态转动时,相对位置精度优于5.6 mm,相对角度测量精度优于1.7°,说明所提方法可以改善双目立体视觉技术在测量角度大的区域易出现测量盲区、特征点定位误匹配和测量视场有限的不足。  相似文献   

11.
针对狭长区域模块间存在视野遮挡、对接区域尺寸微小等问题,提出了一种多传感器组合位姿测量方法。该方法采用了布置在模块前后的轮廓仪与激光位移传感器联合获取模块上特征平面点云数据,利用平面拟合与空间几何投影的方法解算出章动角的旋转与位置的平移偏差,结合固定在目标上倾角仪提供的水平角信息解算出进动角与自转角的旋转偏差,研制了自动对接平台样机,实现了对接区域相对位姿的间接测量。实验结果表明,系统的位置与姿态测量精度分别优于40 μm、0.02°,且测量稳定性与效益较人工测量有明显提高,证明了所提方法的有效性,满足对设备模块间的高精度位姿测量需求。  相似文献   

12.
3D扫描仪以精度高、速度快、自动处理、稳定性好等优势在场景三维重建、智能制造、自动驾驶、虚拟现实等领域得到了广泛的应用。目前3D扫描仪设备多是安装在三脚架上,容易因为地面不平使得扫描仪的转轴和重力方向产生夹角,最终导致拍摄出的全景图和点云倾斜,成为影响三维重建精度的关键难题。针对该问题,提出一种借助惯性测量单元标定3D扫描仪倾角的方法。该方法利用惯性测量单元输出的加速度信息,通过一个面阵相机建立惯性测量单元和3D扫描仪的联系,将惯性测量单元的加速度信息转到扫描仪的转轴上。利用该信息计算出扫描仪转轴与重力方向的夹角,并将该倾角补偿到生成的全景图和点云中,校正倾斜模型。通过实验对校正前后计算的角度进行对比,实验结果证明倾角测量误差可以控制在0.5°以内。并且经过标定后,精度至少提升20%,验证了整个标定方法的可靠性和准确性。  相似文献   

13.
目前,靶场姿态测量以多台套交会测量为主,对于单站姿态测量尚没有较好的解决方案。为了解决该问题,以投影轴对称目标为例,提出了一种基于中轴线像长匹配的单站姿态测量方法。将透视投影拓展为2种等效形式,将体现目标姿态状态的中轴线向像面透视投影,可获得中轴线的投影像长或在等效物面的等效物长,根据目标中轴线的先验长度、相机内外参数及成像信息,经像长匹配即可获取目标的偏航角和俯仰角;实际工程试验验证了该算法的可行性,偏航角精度为1.7°,俯仰角精度约1°,满足靶场单站测姿需求;并对姿态测量模型关键因素进行了误差分析。该方法可适用于非投影轴对称目标。  相似文献   

14.
光电校靶采用捷联惯导系统,需将惯导轴线用光电自准直系统表征捷联,用于对设备轴线的测量。光电自准直系统所表征的轴线与惯导轴线的一致性是影响校靶精度的重要因素,为提高光电校靶系统测量精度和效率,提出了一种惯导轴线的光电表征和校准方法。该方法是在分析测量结果偏差与一致性关系的基础上,采用实验数据拟合的方式得到自准直系统光轴与惯导轴之间的角度偏差值,用于系统修正,从而实现高精度校准。通过试验,将传统光机校正法和光电校准法结合使用,可大幅度提高系统校正效率,同时得到惯导与光轴一致性精度在15″以内。试验结果表明,与传统光学平晶引出的光机校正法相比,该方法的表征准确度和校准精度更高,适用于高精度惯性测量系统。  相似文献   

15.
为了测量弹丸水面落点的位置, 建立了基于CCD相机动态像面的测量模型。该模型通过CCD相机辅助采集相关点位的图像信息, 对水面落点的位置函数以及误差进行了研究。首先, 利用空间几何获得靶船上三定点相对于测量船的方位、俯仰信息。接着, 结合t时刻观测图像上定点的像面坐标, 运用底片常数模型建立像面坐标和角度信息两套参量之间的关系函数, 从而得到目标落点的方位、俯仰信息, 再利用异面交会法计算出目标落点位置。最后, 分析了目标落点位置的误差来源(质心误差, 位置误差)、误差以及各误差源与位置坐标之间的关系。实验结果表明:在测量船位置精度达到0.05 m, 图像质心定位精度达到0.5 pixel时, 在最小交会误差的情况下, 目标落点的位置测量误差分别为2.8, 4.9, 4.3 m。  相似文献   

16.
根据靶面上人为设置的多个标识点之间的几何关系随靶面姿态的变化而变化的特性,设计出一种快速准确的光束-靶面入射角测量算法,满足光束到靶入射角测量的任务需求。在提取靶面已知特征点的基础上,采用光学传感器的内参数,测量出光束到靶入射角,此算法以非接触的方式完成光束到靶入射角的测量。为了验证算法的有效性和实用性,开展了仿真实验,结果表明该方法具有较高稳定性和可靠性。  相似文献   

17.
采用时域有限差分法,并结合导体边缘奇异性处理技术,在不降低计算效率的情况下,保证了计算精度,得到了高功率电磁脉冲辐照下X波段4单元微带天线阵的响应。计算结果表明:馈电点最大响应电压峰值由天线阵各阵元接收的入射脉冲在馈电点叠加引起,且天线阵中主要存在与馈电点激励天线阵不同模式的波。响应电压峰值随着入射脉冲波矢量与正z轴夹角的减小而增大,随着入射脉冲波矢量xOy平面投影与正x轴夹角的增大而增大,频谱随着上述两个夹角的增大均向低频转移。  相似文献   

18.
宋丽梅  吕昆昆  杨燕罡 《应用光学》2020,41(6):1166-1173
为了实现汽车座椅上三维人体姿态的高精度实时测量,基于现有二维人体关节点和三维人体关节点测量方法,提出了一种融合深度学习与外极线约束的三维人体姿态测量方法。该方法将二维人体关节点深度网络提取方法和双目测量系统相结合,采用双通道多阶段迭代网络分别提取左右相机图像中人体二维关节点,结合关节点位置的Brief特征和外极线约束,利用双目相机标定结果将匹配二维关节点信息转换到三维空间中,最终得到三维人体姿态。实验结果表明,文中提出方法在自采测试集中的检测精度可达到98%。通过得到三维关节点计算所得关键位姿角度的偏差小于10°。该文所提出的方法能够满足实际汽车座椅设计的数据采集要求。  相似文献   

19.
潜望式观瞄系统的瞄准轴系误差分析与调校   总被引:1,自引:1,他引:0       下载免费PDF全文
杨海成  王章利 《应用光学》2013,34(2):193-197
瞄准轴系影响到潜望式观瞄系统的测角精度。根据潜望式观瞄系统的典型光机结构,分析引起瞄准轴系误差的来源,采用矢量反射和旋转原理建立数学模型,给出方位轴、俯仰轴、瞄准轴和反射面误差对瞄准轴系的影响关系。同时,确定了与之相应的调校技术方案,明确了调校过程中的每一项控制要点,给出了联调与检测方法。通过实际产品调试验证,瞄准轴系精度可达0.1 mrad。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号