预览加载中,请您耐心等待几秒...
1/9
2/9
3/9
4/9
5/9
6/9
7/9
8/9
9/9

在线预览结束,喜欢就下载吧,查找使用更方便

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号CN109540105A(43)申请公布日2019.03.29(21)申请号201710848798.9(22)申请日2017.09.22(71)申请人北京印刷学院地址100000北京市大兴区兴华大街(二段)1号(72)发明人高振清徐炜东(51)Int.Cl.G01C11/02(2006.01)G01C11/04(2006.01)B07C5/342(2006.01)权利要求书1页说明书4页附图3页(54)发明名称一种基于双目视觉的快递包裹抓取装置和抓取方法(57)摘要本发明公开了一种基于双目视觉的快递包裹抓取方法和装置,方法包括建立坐标系、图像预处理、角点检测、轮廓提取、确定机器人抓取位姿;快递包裹抓取装置,装置支架的顶端安装有双目摄像机,在双目摄像机的下方设置有笼车,笼车的一侧设置有六轴机械臂,六轴机械臂上安装有机械抓手。本发明的有益技术效果是:操作对象为快递包裹,形状基本近似于长方体,装置的主要功能包括图像中的关键点识别、包裹轮廓识别、抓取机器人末端抓取位姿计算、抓取轨迹控制等,实现了功能一体化,节省工作空间,保证操作精度,提升工作的智能化水平,后续可与更大范围的快递分拣系统集成应用。CN109540105ACN109540105A权利要求书1/1页1.一种基于双目视觉的快递包裹抓取方法,其特征在于,该方法包括如下步骤:1)建立坐标系:对双目摄像机进行标定,建立相机坐标系、世界坐标系和机械臂坐标系,并明确各坐标系之间的关系,完成双目摄像机内外参数的标定;2)图像预处理:对图像进行包括二值化、轮廓提取的操作预处理;3)角点检测:采用harris算子对图像进行角点检测,完成特征点提取;4)轮廓提取:采用链码方法以检测到角点为起点寻找一个封闭的四边形,并得到封闭四边形四个角的平面坐标,完成轮廓提取。5)确定机器人抓取位姿:根据双目摄像机的内外参数,将提取的平面轮廓转化为空间位置和姿态数据,作为机器人抓取的目标。2.一种基于双目视觉的快递包裹抓取装置,其特征在于,该装置具有一个支架,所述支架的顶端安装有双目摄像机,在所述双目摄像机的下方设置有笼车,在所述笼车的一侧设置有六轴机械臂,所述六轴机械臂上安装有机械抓手。2CN109540105A说明书1/4页一种基于双目视觉的快递包裹抓取装置和抓取方法技术领域[0001]本发明涉及一种快递包裹抓取装置和抓取方法,尤其涉及一种基于双目视觉的快递包裹抓取装置和抓取方法。背景技术[0002]抓取动作是工业机器人应用中的一个常见任务。传统定位方法必须经过精确的人工定位后,按照“示教式”程序一步一步实现标准位姿工件的抓取和放置,但很多情况下工件位姿无法预知,没有规律可循。这就对机器人物体识别的智能化程度提出了需求。基于视觉识别的机器人模仿人的视觉,可以实现对目标物体的识别,获得场景深度信息,近年来得到了很快的发展。[0003]机械臂的视觉识别指的是用摄像机模拟人眼来控制机械臂的动作。随着机器人人工智能化的程度的提升和图像处理的高速发展,计算机图像处理技术与工业机器人技术的交互利用日益频繁且技术日趋成熟[1]。法国AldebaranRobotics公司研制出的机器人NAO配有多种传感器,可通过边缘检测以及颜色分割完成对目标的识别[2]。BurgetF等人通过图像处理技术来获得目标物体的三维信息,然后制定相应的抓取姿态对目标物体进行抓取[3]。日本本田公司研制的仿生机器人基于视觉识别与定位技术,成功完成端茶倒水的任务[4]。另外,日本Fanuc公司、瑞士的ABB公司和德国KUKA公司都推出了“拣选”系统[5]。日本的Murakami利用CCD相机传感技术,研制出机器人跟踪控制系统[6]。澳大利亚Western大学用CCD相机配合六自由度机器人开发出三维码垛机器人实现三维空间的码垛,瑞士SIG利用代视觉识别的并联机器人,应用与流水输送线上的搬运[7]。上海大学何永义教授的团队研发的家具服务轮式机器人,通过三目摄像头,实现对物体的识别抓取等功能[8];华中科技大学提出基于视觉引导和超声被测距的手眼机器人系统实现了对运动目标的跟踪和抓取[9]。[0004][1]焦恩章,杜荣工业机器人分拣技术的实现【J】组合机床与自动化加工技术。2010[0005][2]MullerJ,FreseU,RoferT.Grabamug-ObjectdetectionandgraspmotionplanningwiththeNaorobot[C]//Ieee-RasInternationalConferenceonHumanoidRobots.IEEE,2012:349-356.[0006][3]DalibardS,bastien,ElKhouryA,eta