首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   6篇
  免费   0篇
  国内免费   5篇
力学   2篇
物理学   1篇
综合类   8篇
  2023年   1篇
  2018年   1篇
  2016年   2篇
  2013年   1篇
  2012年   3篇
  2011年   1篇
  2005年   2篇
排序方式: 共有11条查询结果,搜索用时 31 毫秒
1.
This paper focuses on the visual servo control of an uncalibrated robotic arm with an eye-in-hand camera. Without a prior knowledge of the kinematics of the robotic arm or camera calibration, the proposed hybrid Jacobian controller can track a moving object using visual feedback and joint-space velocity feedback. The proposed hybrid control method is a combination of the uncalibrated visual servoing and approximate Jacobian feedback control. First, the Jacobian matrix from joint-space to image-space is estimated by recursive least-squares (RLS) algorithm, and then the approximate Jacobian feedback controller is designed by using visual feedback and joint-space velocity feedback. The performances of the proposed control methods are illustrated by computer simulations.  相似文献   
2.
窄巷非校准相位延迟(UPD)产品的质量和可用性是影响精密单点定位模糊度固定(PPPAR)效率的重要因素.采用全球108个国际GPS服务(International GPS Service,IGS)测站观测数据,计算了基于全球参考站网的窄巷UPD产品,分析了窄巷UPD产品的变化特性,其单日变化量最大可达0.6周.通过分析UPD改正后的模糊度残差,论证了UPD产品和用户端模糊度均受到因未被恰当模型化而造成的残余误差的影响,且UPD的时变特性与各参考站残余系统误差有关.最后,采用4个用户站进行PPPAR实验分析UPD产品的可用性,以模糊度固定失败率、固定错误率和首次固定时间为评估指标,结果表明,全球参考站网窄巷UPD产品的最佳使用时限不大于30 min.  相似文献   
3.
为了研究机器人无标定视觉伺服离散仿真,本文在介绍了机器人无标定视觉伺服控制的基础上,基于Simulink软件,首次建立了一种具有图像雅可比矩阵伪逆在线估计的无标定视觉伺服系统离散仿真模型,并以此完成了二关节机器人、Puma560机器人无标定视觉伺服系统离散仿真模型的建立.文中对固定图像目标定位跟踪的仿真结果表明,提出的无标定视觉伺服系统Simulink离散仿真模型是正确的.这对无标定视觉伺服系统控制算法的研究具有积极意义.  相似文献   
4.
针对未标定相机的位姿估计问题,提出了一种焦距和位姿同时迭代的高精度位姿估计算法。现有的未标定相机的位姿估计算法是焦距和相机位姿单独求解,焦距估计精度较差。提出的算法首先通过现有算法得到相机焦距和位姿的初始参数;然后在正交迭代的基础上推导了焦距和位姿最小化函数,将焦距和位姿同时作为初始值进行迭代计算;最后得到高精度的焦距和位姿参数。仿真实验表明提出的算法在点数为10,噪声标准差为2的情况下,角度相对误差小于1%,平移相对误差小于4%,焦距相对误差小于3%;真实实验表明提出的算法与棋盘标定方法的精度相当。与现有算法相比,能够对未标定相机进行高精度的焦距和位姿估计。  相似文献   
5.
In this paper,a method with an eye-in-hand configuration is developed to hit targets during visual tracking for the TLS (Tele-Light Saber) game.It is not necessary to calibrate camera parameters and predict the trajectory of the moving object.Firstly,the expression of the image Jacobian matrix for the eye-in-hand configuration is proposed,and then an update law is designed to estimate the image Jacobian online.Furthermore,a control scheme is presented and the Lyapunov method is employed to prove asymptotic convergence of image errors.No assumption for the moving objects is needed.Finally,both simulation and experimental results are shown to support the approach in this paper.  相似文献   
6.
为实现仅用一幅二维图像,在系统参数未知且可变条件下,在真正的三维欧氏空间重构三维场景,其解决的首要关键问题是研究合适的编码结构光照明方法.文章采用伪随机彩色空间编码的可靠模型算法设计该主动视觉系统的多种编码投影模板,探索实现三维场景表面高分辨率伪随机彩色空间编码的特征化新技术,该编码窗口唯一性能唯一辨识待重构场景表面上每一特征点,解决场景重构特征点的匹配瓶颈难题,其不标定三维欧氏重构结果证实该文设计方法具有有效性.  相似文献   
7.
张恒  缪泓 《实验力学》2012,27(2):171-177
提出一种形貌测量方法,从未标定序列图中同时提取出特征点的三维坐标和摄像机的运动矩阵,实现对目标物体的三维测量。首先用齐次坐标表达了空间点的投影变换矩阵,并根据该矩阵推导出投影比例式,运用投影深度和投影矩阵之间的循环相关性进行迭代运算,得到比普通双目视觉更加精确的深度数据。其次对分解得到的摄像机运动矩阵和空间点坐标施加度量约束。运用基于因式分解的归一化算法,恢复出欧氏空间里的摄像机运动矩阵和空间点坐标。基于这种方法,实现了曲面标记点的坐标测量,得到了三维形貌数据,误差小于0.16mm。  相似文献   
8.
机器人无标定视觉伺服控制研究进展   总被引:11,自引:1,他引:10  
陶波  龚泽宇  丁汉 《力学学报》2016,48(4):767-783
视觉伺服控制是机器人系统重要的控制手段. 相比传统的在标定条件下使用的视觉伺服系统,无标定视觉伺服系统具有更高的灵活性与适应性,是机器人伺服控制系统未来重要的发展方向和研究热点. 本文从目标函数选择、控制器设计、运动轨迹规划三方面综述了无标定视觉伺服控制系统近年来的主要研究进展. 首先根据目标函数的形式,分析了基于位置的视觉伺服、基于图像的视觉伺服以及混合视觉伺服各自的特点与应用;在控制器设计方面,根据是否在设计过程中考虑机器人的非线性动力学特性,分别介绍了考虑机器人运动学与考虑机器人动力学的无标定视觉伺服控制器的设计,重点突出了雅克比矩阵的构造与估计方法;针对无标定视觉伺服系统运动轨迹可能存在的问题,从空间轨迹优化与障碍规避的角度,阐述了已有的可行解决方案. 最后,基于当前的研究进展展望了无标定视觉伺服的未来研究方向.   相似文献   
9.
针对机器人无标定视觉伺服技术中图像雅可比矩阵在线估计存在计算复杂的问题,提出了一种结合BP神经网络和模糊控制策略的机器人控制技术。本文以多自由度智能调节系统为例,提出其视觉伺服控制架构,根据工业场景数据集训练BP神经网络,采用本文所提算法进行法兰对中实验,帮助解决核电站蒸汽发生器人孔螺栓咬死问题。在方法层面,首先,利用BP神经网络建立图像特征信息与机器人多自由度运动之间的映射关系,之后,提出模糊控制方法根据图像特征偏差进行机器人位姿的精确调整。实验结果表明,本文提出的算法能够有效应用于无标定视觉伺服控制,最终法兰平均对中误差在±1mm内,平均耗时43秒,满足应用需求,具有较高的工作效率。  相似文献   
10.
本文在理论推导的基础上,针对手眼系统无标定视觉伺服,提出一种信息融合方法.由超声测距得到机械手末端与目标间的距离,在基于伪逆估计的信息融合无标定视觉伺服完成平面视觉伺服的同时,向目标靠近,实现单摄像机系统在三维空间的视觉伺服.仿真研究验证了文中提出的信息融合方法的有效性.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号