<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.1//EN" "http://www.w3.org/TR/xhtml11/DTD/xhtml11.dtd">
<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
<title>Johnny Wang | Robotics，Computer Vision</title>
<link href="css.css" rel="stylesheet" type="text/css" />
</head>

<body>
<div id="main">

	
		<div id="top-nav">
		
			<b>汪自强</b>  <small>|Robotics Researcher</small>

			<a href="https://armstrongwall.github.io/resume_en/"><img border="0"  height="5px"/> [English Version]</a>
	
		</div>

	
		<div id="header">
		
			<img src="images/header.png" alt="" width="770"/>
			
		</div>
		

	
		<div id="navigation" style="position: fixed">

			
			main menu
			
			<hr />
			
<a href="#Home" class="navigation">Home</a>
<a href="#Projects" class="navigation">Project Highlights</a>
<a href="#Publications" class="navigation">Publications</a>
<a href="#Rewards" class="navigation">Rewards</a>
		</div>
		

		<div id="content">
		
			<a name="Home"></a><h1>Welcome</h1>


    <p align="justify"> 
<img border="0" src="images/wzq.jpg" align="left" style="padding-right: 20px;padding-bottom: 20px"/>
八年智能机器人学研究和从业经历，研究生和工作期间主要专注在<b>机器人多传感器融合状态估计，同步建图与定位(SLAM)</b>等方面. 2018年于同济大学获得控制科学与工程硕士学位，本科自动化。旋即加入驭势科技从事机器人定位系统工作。
</p><p> 
在此展示一些我撰写的论文、演示视频、开源程序和数据集等.
</p><p> 
<b>Links: </b>
<a href="https://github.com/ArmstrongWall"><img border="0" src="images/gh.png" height="13px"/> GitHub</a>
			<b>，微信电话同号</b>
			<a href="mailto:jajuengel@gmail.com">15021930981</a>

<br/>
<b>E-mail: </b>
<a href="mailto:jajuengel@gmail.com">1531651@tongji.edu.cn</a>
<br/>






</p>



<br /><br />
<br /><br />
<a name="Publications"></a><h1>Publications</h1>

<p>
	<img border="0" src="pdf_img/engel2015_stereo_lsdslam.png" align="left" width="80px" style="padding-right: 10px;padding-bottom: 10px"/>
	<b>1.Direct Sparse Stereo Visual-Inertial Global Odometry</b> (Ziqiang Wang, Dingkun Zhou, Ziqiang Zheng), <i>No open,under review by ICRA 2021,处于投稿审阅状态</i>
	<br />
	<a href="https://gitee.com/wang-zi-qiang/SupDVIGO"><img border="0" src="images/pdf.png" height="13px"/> [部分实验结果与公式推导]</a>
    <a href="https://www.bilibili.com/video/BV1Bz4y1y7uR/"><img border="0" src="images/yt.png" height="13px"/> [KITTI评价视频]</a>
    <a href="https://www.bilibili.com/video/BV1Zi4y1L7b8/"><img border="0" src="images/yt.png" height="13px"/> [EuRoC评价视频]</a>
    <a href="https://www.bilibili.com/video/BV1XD4y1Q7WS/"><img border="0" src="images/yt.png" height="13px"/> [自建数据集评价视频]</a>
</p>

<p>
	<img border="0" src="pdf_img/engel17phd.png" align="left" width="80px" style="padding-right: 10px;padding-bottom: 10px"/>
	<b>2.Direct Sparse Visual-Inertial Odometry with Stereo Cameras</b> (Ziqiang Wang, Chengcheng Guo), <i>IROS 2019 VINS-Workshop</i>
	<br />
	<a href="https://udel.edu/~ghuang/iros19-vins-workshop/"><img border="0" src="images/pdf.png" height="13px"/> [Workshop主页]</a>
	<a href="https://udel.edu/~ghuang/iros19-vins-workshop/papers/07.pdf"><img border="0" src="images/pdf.png" height="13px"/> [公开论文链接]</a>
	<a href="https://www.bilibili.com/video/BV1cA41177XY/"><img border="0" src="images/yt.png" height="13px"/> [视频]</a>
</p>


<p align=justify">
	<img border="0" src="pdf_img/engel2016dso.jpg" align="left" width="80px" style="padding-right: 10px;padding-bottom: 0px"/>
	<b>3.Wheeled Robots Path Planing and Tracking System Based on Monocular Visual SLAM</b> (Ziqiang Wang, Hegen Xu, Youwen Wan), 2018.
	<br />
	<a href="https://arxiv.org/abs/1807.06303"><img border="0" src="images/pdf.png" height="13px"/> [公开论文链接]</a>
	<a href="https://www.bilibili.com/video/BV1Xi4y1L77K/"><img border="0" src="images/yt.png" height="13px"/> [视频]</a>
	<a href="https://github.com/ArmstrongWall/lsd-slam"><img border="0" src="images/gh.png" height="13px"/> [code]</a>
</p>

<p>
	<img border="0" src="pdf_img/stumberg16exploration.png" align="left" width="80px" style="padding-right: 10px;padding-bottom: 20px"/>
	<b>4.Research and Implementation of Robot Path Planning Based on VSLAM</b> (Ziqiang Wang, Hegen Xu, Youwen Wan), In <i>International Conference on Electrical Engineering, Control and Robotics (EECR)</i>, 2017.
	<br />
	<a href="https://doi.org/10.1051/matecconf/201816006004"><img border="0" src="images/pdf.png" height="13px"/> [公开论文链接]</a>
</p>
<br /><br />
<br /><br />

			<a name="Projects"></a><h1>Project Highlights</h1>

<h2>1.DVIGO:直接法全局里程计(2020)</h2>
<p align="justify">鲁棒和准确的定位在自动驾驶和机器人应用中起着关键作用。为了利用不同传感器的互补特性，
	我们提出了一种将局部传感器(立体摄像机，IMU)和全局传感器(磁强计，GNSS)紧密耦合的新方法。
	我们通过滑动窗口共同优化所有的模型参数。视觉部分将静态立体视觉的约束加入到动态多视图立体视觉的光度Bundle Adjustment中。
	关键帧之间IMU的预积分信息，磁强计和GNSS测量都插入到活动窗口中，作为所有关键帧之间的附加约束。
	通过这些，我们的方法可以实现全局无漂移和局部精确的状态估计。在EuRoc、KITTI和Kaist-Urban三个主流数据集上评价结果优于港科大的VINS-Fusion。
	以天宝BD982厘米级定位器作为基准，在自建的室外道路数据集平移均方根误差为0.195米。
	文章和演示视频可见<a href="#Publications">Publications</a>[1]。如下图所示：
	<br />
	<img border="0" src="images/fig6.jpg" align="middle"  width="500px" style="padding-right: 20px;padding-bottom: 20px"/>
	<br />
	上图是里程计在KITTI上定位效果图，蓝色是我们的方法纯VIO里程计估计轨迹。绿色是VINS-Fusion的纯VIO，黄色是我们方法融合GPS，紫色是VINS-Fusion融合GPS。我们的定位误差明显小于VINS-Fusion
</p>

<h2>2.Stereo-VI-DSO:双目直接稀疏视觉惯性里程计(2019)</h2>
<p align="justify"><b>Stereo-VI-DSO</b> 是我主导开发的紧耦合视觉-惯性里程计(VIO)，以双目相机和IMU作为定位源，采用联合高斯牛顿优化滑窗内的所有参数
	包括所有关键帧的位姿、IMU的速度和bias、图像亮度参数以及所选像素的深度值。系统的视觉部分是将单帧静态误差的约束加入到多帧动态多视光束平差(BA)中，
	但与基于特征点的系统不同，它直接将光度误差最小化，故称为直接法。双目的固定基线可校正尺度漂移。系统的惯性部分利用预积分法在关键帧之间积累IMU信息，
	并将其作为关键帧之间的附加约束插入到优化中。此外，我们还介绍了一个基于虚幻引擎4开发的仿真平台，它可以输出大部分用于自动驾驶领域的传感器的原始数据。
	我们在真实数据和仿真数据的基础上对该方法进行了评价，定性和定量的实验结果表明，该算法在跟踪精度和鲁棒性方面均优于Stereo-DSO。
	文章和演示视频可见<a href="#Publications">Publications</a>[1]。如下图所示：
	<br />
	<img border="0" src="images/s-vi-dso.png" align="middle"  width="500px" style="padding-right: 20px;padding-bottom: 20px"/>
	<br />
	上图是里程计的三维重建效果图，蓝色是里程计估计轨迹。右上角是实际道路路网。下图是来自仿真平台数据集的示例图像:运动强、光照低，对里程估计有很大的挑战。
</p>


<h2>3.基于LSD-SLAM的机器人路径规划和轨迹跟踪系统(2017-18)</h2>
<p align="justify">
	该项目使用机器视觉实现了一个高效的机器人系统集成。
	重点研究了机器人的视觉定位并制备环境地图；使用A*算法路径规划，进而完成机器人轨迹跟踪控制。
	首先使用<b>LSD-SLAM</b>直接法视觉里程计解决定位问题，并计算环境中主要障碍物的三维位置。采用占有栅格地图进行地形描述，将三维空间点投影到机器人运动平面，据此计算各栅格的可通行程度。
	依靠地形信息，使用了优化的A*算法进行路径规划。最后根据定位和规划控制机器人完成轨迹跟踪。还开发了轨迹跟踪机器人原型机，仿真和实验结果都验证了本文方法的有效性与可靠性。
	文章和演示视频可见<a href="#Publications">Publications</a>[2][3]。如下图所示：
	<br />
	<img border="0" src="images/wheel.png" align="middle"  width="500px" style="padding-right: 20px;padding-bottom: 20px"/>
	<br />
	左图环境地形图，黄色代表不可通行区域，绿色是可通行的。右图是机器人原型机。
</p>
<br />
<br />

<h2>4.基于Gmapping和ROS的建图机器人(2015-16)</h2>
<p align="justify">
	将二维激光雷达RPLIDAR安装在四全向轮叉车机器人上，使用ROS的Gmapping完成建图与定位功能。ROS的slam_gmapping节点将订阅LaserScan节点以获取激光扫描数据，
	然后调用Rao-Blackwellized粒子滤波器的增量构建栅格地图，同时发布消息map节点以完成建图和输出机器人定位数据到tf节点。Gmapping是2007年德国弗莱堡大学的Giorgio教授发表开源的2D激光SLAM算法，
	在SLAM领域早期具有较大开创意义且被广泛运用。四全向轮叉车机器人用于仓储环境的货物运输。
	如图3所示：
	<br />
	<img border="0" src="images/gmapping.png" align="middle"  width="500px" style="padding-right: 20px;padding-bottom: 20px"/>
	<br />
	左图二维的Lidar里程计地图，中图是叉车机器人图纸，右图实体。
</p>


<a name="Rewards"></a><h1>Rewards</h1>

			<p>
				<b>1.“飞思卡尔杯”全国大学生智能汽车竞赛，国家级一等奖，摄像头组全国总决赛第四名, 2013.</b>
				<a href="https://v.youku.com/v_show/id_XMzA4NzgzODg4MA==.html?spm=a2hzp.8244740.0.0"><img border="0" src="images/yt.png" height="13px"/> [video]</a>
				<br />
				<img border="0" src="images/rw3.jpg" align="middle"  width="400px" >
			</p>

			<br />

<p>
	<b>2.“华为杯”中国研究生数学建模竞赛，国家级二等奖，选题为“地下物流系统的构建”, 2017.</b>
	<br />
	<img border="0" src="images/rw1.jpg" align="middle"  width="400px" >
</p>



			<br />
<p>
	<b>3.“瑞萨杯”全国大学生电子设计竞赛，省级二等奖, 2013.</b>
	<br />
</p>

			<p align=justify">
				<b>4. Robomaster机甲大师赛，省级三等奖, 2016.</b>

				<a href="https://v.youku.com/v_show/id_XMzA4Nzg1NjE4OA==.html?spm=a2hzp.8244740.0.0"><img border="0" src="images/yt.png" height="13px"/> [video]</a>
				<br /><img border="0" src="images/rw2.jpg" align="middle"  width="400px" >
			</p>

		</div>

		<div id="footer">

			<hr />

	Copyright 2019 | JohnnyWang | All Rights Reserved

		</div>


	
</div>

</body>

</html>
