Excellence in Research and Innovation for Humanity

International Science Index


Select areas to restrict search in scientific publication database:
10006850
Visual Search Based Indoor Localization in Low Light via RGB-D Camera
Abstract:
Most of traditional visual indoor navigation algorithms and methods only consider the localization in ordinary daytime, while we focus on the indoor re-localization in low light in the paper. As RGB images are degraded in low light, less discriminative infrared and depth image pairs are taken, as the input, by RGB-D cameras, the most similar candidates, as the output, are searched from databases which is built in the bag-of-word framework. Epipolar constraints can be used to relocalize the query infrared and depth image sequence. We evaluate our method in two datasets captured by Kinect2. The results demonstrate very promising re-localization results for indoor navigation system in low light environments.
Digital Article Identifier (DAI):

References:

[1] Lowry, S., Sunderhauf, N., Newman, P., Leonard, J. J., Cox, D., Corke, P., Milford, M. J., Visual Place Recognition: A Survey, IEEE Transactions on Robotics, 2015, 31(1): 1–19.
[2] Williams B., Cummins M., Neira J., Newman P., Reid I., Tardos J. D., A comparison of loop closing techniques in monocular SLAM, Robotics and Autonomous Systems, vol. 57, no. 12, pp. 1188C1197, 2009
[3] Lee D, Kim H, Myung H., 2D image feature-based real-time RGB-D 3D SLAM, Robot Intelligence Technology and Applications, 2012: 485-492.
[4] Mur-Artal R, Montiel J. M. M., Tardos J D., ORB-SLAM: a versatile and accurate monocular SLAM system, IEEE Transactions on Robotics, 2015, 31(5): 1147-1163.
[5] Endres, F., Hess, J., Engelhard, N., Sturm, J., Cremers, D., Burgard, W., An Evaluation of the RGB-D SLAM System, ICRA, 2012.
[6] Engel J, Schops T, Cremers D., LSD-SLAM: Large-scale direct monocular SLAM, ECCV, 2014.
[7] Salas-Moreno, R,, Newcombe, R., Strasdat, H., et al., Slam++: Simultaneous localisation and mapping at the level of objects, CVPR, 2013.
[8] Labbe M, Michaud F., Appearance-based loop closure detection for online large-scale and long-term operation, IEEE Transactions on Robotics, 2013, 29(3): 734-745.
[9] Labbe M, Michaud F., Online global loop closure detection for large-scale multi-session graph-based slam, IEEE Intelligent Robots and Systems (IROS), 2014.
[10] Labb M., Michaud F., Memory management for real-time appearance-based loop closure detection, IEEE Intelligent Robots and Systems (IROS), 2011.
[11] Rublee, E., Rabaud, V., Konolige, K., et al., ORB: an efficient alternative to SIFT or SURF, IEEE International Conference on Computer Vision, 2011.
[12] Zhong, Y., Intrinsic shape signatures: A shape descriptor for 3D object recognition, IEEE International Conference on Computer Vision Workshops, 2009.
[13] Glvez-Lpez, D., Tardos, J. D., Bags of binary words for fast place recognition in image sequences(J). IEEE Transactions on Robotics, 2012, 28(5): 1188-1197.
Vol:12 No:10 2018Vol:12 No:09 2018Vol:12 No:08 2018Vol:12 No:07 2018Vol:12 No:06 2018Vol:12 No:05 2018Vol:12 No:04 2018Vol:12 No:03 2018Vol:12 No:02 2018Vol:12 No:01 2018
Vol:11 No:12 2017Vol:11 No:11 2017Vol:11 No:10 2017Vol:11 No:09 2017Vol:11 No:08 2017Vol:11 No:07 2017Vol:11 No:06 2017Vol:11 No:05 2017Vol:11 No:04 2017Vol:11 No:03 2017Vol:11 No:02 2017Vol:11 No:01 2017
Vol:10 No:12 2016Vol:10 No:11 2016Vol:10 No:10 2016Vol:10 No:09 2016Vol:10 No:08 2016Vol:10 No:07 2016Vol:10 No:06 2016Vol:10 No:05 2016Vol:10 No:04 2016Vol:10 No:03 2016Vol:10 No:02 2016Vol:10 No:01 2016
Vol:9 No:12 2015Vol:9 No:11 2015Vol:9 No:10 2015Vol:9 No:09 2015Vol:9 No:08 2015Vol:9 No:07 2015Vol:9 No:06 2015Vol:9 No:05 2015Vol:9 No:04 2015Vol:9 No:03 2015Vol:9 No:02 2015Vol:9 No:01 2015
Vol:8 No:12 2014Vol:8 No:11 2014Vol:8 No:10 2014Vol:8 No:09 2014Vol:8 No:08 2014Vol:8 No:07 2014Vol:8 No:06 2014Vol:8 No:05 2014Vol:8 No:04 2014Vol:8 No:03 2014Vol:8 No:02 2014Vol:8 No:01 2014
Vol:7 No:12 2013Vol:7 No:11 2013Vol:7 No:10 2013Vol:7 No:09 2013Vol:7 No:08 2013Vol:7 No:07 2013Vol:7 No:06 2013Vol:7 No:05 2013Vol:7 No:04 2013Vol:7 No:03 2013Vol:7 No:02 2013Vol:7 No:01 2013
Vol:6 No:12 2012Vol:6 No:11 2012Vol:6 No:10 2012Vol:6 No:09 2012Vol:6 No:08 2012Vol:6 No:07 2012Vol:6 No:06 2012Vol:6 No:05 2012Vol:6 No:04 2012Vol:6 No:03 2012Vol:6 No:02 2012Vol:6 No:01 2012
Vol:5 No:12 2011Vol:5 No:11 2011Vol:5 No:10 2011Vol:5 No:09 2011Vol:5 No:08 2011Vol:5 No:07 2011Vol:5 No:06 2011Vol:5 No:05 2011Vol:5 No:04 2011Vol:5 No:03 2011Vol:5 No:02 2011Vol:5 No:01 2011
Vol:4 No:12 2010Vol:4 No:11 2010Vol:4 No:10 2010Vol:4 No:09 2010Vol:4 No:08 2010Vol:4 No:07 2010Vol:4 No:06 2010Vol:4 No:05 2010Vol:4 No:04 2010Vol:4 No:03 2010Vol:4 No:02 2010Vol:4 No:01 2010
Vol:3 No:12 2009Vol:3 No:11 2009Vol:3 No:10 2009Vol:3 No:09 2009Vol:3 No:08 2009Vol:3 No:07 2009Vol:3 No:06 2009Vol:3 No:05 2009Vol:3 No:04 2009Vol:3 No:03 2009Vol:3 No:02 2009Vol:3 No:01 2009
Vol:2 No:12 2008Vol:2 No:11 2008Vol:2 No:10 2008Vol:2 No:09 2008Vol:2 No:08 2008Vol:2 No:07 2008Vol:2 No:06 2008Vol:2 No:05 2008Vol:2 No:04 2008Vol:2 No:03 2008Vol:2 No:02 2008Vol:2 No:01 2008
Vol:1 No:12 2007Vol:1 No:11 2007Vol:1 No:10 2007Vol:1 No:09 2007Vol:1 No:08 2007Vol:1 No:07 2007Vol:1 No:06 2007Vol:1 No:05 2007Vol:1 No:04 2007Vol:1 No:03 2007Vol:1 No:02 2007Vol:1 No:01 2007