夜视驾驶中地形障碍深度距离知觉的研究综述
A Review on the Depth and Distance Perception of Terrain Obstacles in Night Vision Driving
DOI: 10.12677/AP.2023.136304, PDF, HTML, XML, 下载: 218  浏览: 318 
作者: 祝 莹:浙江理工大学心理系,浙江 杭州
关键词: 深度知觉距离知觉夜间驾驶地形障碍Depth Perception Distance Perception Night Driving Terrain Obstacles
摘要: 随着夜视技术的发展,夜间驾驶中对地形障碍的距离知觉研究逐渐增多。研究者们致力于帮助驾驶员对不同地形障碍进行更准确的探测,降低地形障碍造成的潜在事故风险、提升驾驶的安全性。本文通过对夜视驾驶中地形障碍深度距离知觉地研究现状、研究范式进行整理,探讨个体在夜视设备辅助条件下对地形障碍深度知觉的准确性与其影响因素现状。基于研究现状提出研究展望,为未来夜视驾驶中地形障碍的深度知觉领域的研究提供参考。
Abstract: With the development of night vision technology, more and more researches have been conducted on distance perception of terrain obstacles during night driving. Researchers aim to help drivers more accurately detect different terrain obstacles, reduce the potential risk of accidents, and improve driving safety. By sorting out the research status and paradigm of depth perception of terrain obstacles in night vision driving, this paper discusses the accuracy and optimization status of depth perception of terrain obstacles under the assistance of night vision equipment. Based on the current research situation, the research prospect is proposed to provide a reference for the future research on depth perception of terrain obstacles in night vision driving.
文章引用:祝莹 (2023). 夜视驾驶中地形障碍深度距离知觉的研究综述. 心理学进展, 13(6), 2466-2472. https://doi.org/10.12677/AP.2023.136304

1. 引言

夜间的自然光主要由月光、星光、大气辉光等组成(胡迈,2015),与明亮的白天不同,夜间的光照微弱、照度极低。不同气象条件下的夜间照度大约在1 × 10−4 lux~3 × 10−1 lux (Cronin et al., 2014)之间,因此,夜间的光照环境也被称为微光环境。为了提升夜间行军的能见度,最早在20世纪60年代,夜视设备(Night Vision Devices)开始被引入地面部队(Parush et al., 2011)。夜视设备从光源特性上分为主动式和被动式(蔡滨等,2015),其中主动式夜视仪主要指激光夜视仪;被动式夜视仪主要指微光夜视仪和红外夜视仪(史训豪,2019),微光夜视仪的工作原理是把微弱的光放大,红外夜视仪的工作原理则是将红外线转成可见光(Manton, 2000)。在夜视设备尤其是被动式夜视仪的辅助之下,驾驶员通过经过增强的视频画面获取驾驶状态信息,无需额外补光就能在夜间驾驶车辆。不仅军队夜间活动、作战能力大大提升(Piccione & Ferrett, 1998),随着夜视技术的发展与普及,部分民用车辆也开始搭载夜视系统。然而,尽管夜视设备为驾驶员提供了相对安全、隐蔽、灵活的驾驶条件,发生事故的风险也随之而来。

现有的夜视设备存在图像质量不高、视野范围较小等缺陷(熊端琴,郭小朝,2005;许为,1991),所提供道路画面与白天仍然相去甚远。这些局限性可能会损害驾驶员对距离(DeLucia & Task, 1995; Hadani, 1991)、空间(Reising & Martin, 1995)和速度(Baker, 1999; Suh et al., 2006)等驾驶状态中信息的获取和感知。其中,对地形障碍的距离感知问题是当前夜间驾驶中最为关键的问题。大量军队事故报告显示,在使用夜视设备的夜间演习中,大部分事故的来源于驾驶员未充分知觉到地形与道路的危险(Niall et al., 1999; Ruffner et al., 1997),继而导致碰撞或坠落。研究者对相关驾驶员的采访表明,驾驶员对地面凹陷的深度、障碍物的距离等的距离知觉能力上的不足是事故的主要成因(Best et al., 1998)。综上所述,改善夜间驾驶安全性的关键在于:通过优化夜视设备来提升驾驶员在使用夜视仪过程中,对地形障碍距离知觉的准确性。

本研究从夜视仪驾驶中的地形事故频发这一现实问题出发,总结前人研究的研究结果及实验范式,探索使用夜视设备感知特殊地形障碍时个体的距离知觉特性。

2. 相关概念

2.1. 距离知觉

距离知觉(Distance Perception),或称为深度知觉(Depth Perception)指的是个体利用各种空间信息对目标距离进行估计。距离知觉既包括观察者对不同客体两两之间的距离(即物物距离)的感知,也包括观察者对自身与客体之间的距离(即物我距离)的感知(Ooi & He, 2007)。具体而言,个体对障碍物的远近及水平距离的感知,属于物我距离知觉;个体对障碍物本身的高度或宽度的感知,属于物物距离知觉。距离知觉是驾驶中至关重要的知觉之一,错误的距离知觉可能会造成严重的安全事故,因此提升距离知觉的准确性是驾驶研究中的重要痛点之一。

2.2. 地形障碍及其类型

地形障碍根据障碍与水平地面的高度差,可将地形障碍分为正障碍(Positive Obstacle)与负障碍(Negative Obstacle) (Chang et al., 1999)。正障碍指高于水平地面、位于路面以上的障碍物,如:石块、植物、行人或其他车辆等;负障碍则是指地面以下的障碍,如:坑洞、沟渠、洼地等。

首先,两种障碍的可见性通常存在差异。高于地表的正障碍更加直观、可见;负障碍则更容易较难被看到。例如,从远处看,驾驶员很难判断是有一个轻微的洼地可以通过,还是有一个很深的战壕不能通过(Rankin et al., 2007)。此外,负障碍的可见部分还会随着车辆与目标的距离缩短而迅速缩小(Matthies & Rankin, 2003)。这一差异可能导致了夜视条件下发现的负障碍关联事故数量远大于正障碍。

其次,在判断车辆是否能够顺利通过时,驾驶员对两种地形障碍主要评估的焦点也有所不同。研究表明,几何特征是地形障碍的主要特征,因此过往研究聚焦于对地形障碍几何特征的分析(Rankin et al., 2007)。由于车辆能够倾斜的最大坡度有限,因此,通过正障碍时驾驶员主要评估其相对于水平地面高度。相应的,当觉察到负障碍时,驾驶员则需要考虑所加车辆的轮胎能够通过的最大距离,即障碍的宽度来防止坠落事故。因此,驾驶员在使用夜视设备观察障碍时的距离感知准确性,很大程度上影响他们的决策及其后果。

3. 研究现状

夜视条件下的驾驶属于非直接目视的驾驶,是距离知觉研究中重要研究情境。尽管夜视仪改善了夜间驾驶的可见性,它所带来的负面影响也可能是致命的。譬如据调查,1980至2000年的美国报告了382起与佩戴夜视镜有关的事故。由于技术限制,夜视仪能够提供的图像质量与白昼条件下驾驶员获得的路况信息仍有较大差距。此外,夜视仪使用中存在的工效学问题会损害驾驶安全性,甚至危及驾驶员的生命。因此在广泛应用夜视镜的同时,发现并解决佩带夜视镜给驾驶带来的问题、改善夜视驾驶的距离知觉是至关重要的。

对于夜间驾驶中地形障碍深度知觉问题,研究者们在实验和调查中主要对夜视驾驶中距离知觉的影响因素和距离知觉准确性现状进行了探讨,具体总结如下。

3.1. 夜视驾驶中的距离知觉的影响因素

以往研究者主要从夜视设备图像的特征以及驾驶任务中的多设备间协调展开探讨了夜视驾驶中距离知觉的影响因素。具体而言,影响夜视驾驶距离知觉的因素主要包括:视场大小、图像质量以及夜视设备与其他驾驶设备的兼容性。

首先,在视场大小方面(Toet et al., 2008; Rankin et al., 2011),研究发现较小的视场会导致外周信息减少、态势感知下降,同时视野有限会增加驾驶员的压力和疲劳。详细地说,驾驶员的夜间观察能力受到夜视仪视场大小的限制,不合理的视场大小必然会影响驾驶安全性。一方面,若视场过小,会减少驾驶员可获得的外周视野信息,导致驾驶员的态势感知下降;另一方面,在视野受限的情况下,驾驶员可能会加快扫描速度,因而产生更大的压力与疲劳。

其次,在夜视设备图像质量方面(Bateman et al., 2011; Pazuchanics, 2006),研究发现夜视图像的对比度、亮度、分辨率等特征会影响驾驶员的深度线索、立体视觉以及空间定位障碍,继而影响驾驶员对深度距离的觉知。此外,增加视场会降低夜视仪成像的分辨率。也就是说,尽管大视场能看到更多物体,但小视场却能探索更长的距离。

最后,夜视设备与其他驾驶设备的兼容性方面(赵晓枫等,2017;Dima et al., 2004),研究者发现驾驶舱照明和夜视仪兼容性会影响驾驶员观察仪表盘过程中的再调焦与光适应。驾驶员佩戴夜视镜驾驶时,注视点需要频繁地在舱外目标和舱内仪表之间交替变换,这种转换要求驾驶员必须对夜视镜的物镜再调焦,才能对舱内仪表做出有效判断,使驾驶员产生较差的绩效表现、增加操作的复杂性和视觉疲劳。

夜视设备的出现尽管对夜间驾驶由于技术限制,夜视仪能够提供的图像质量与白昼条件下驾驶员获得的路况信息仍有较大差距。此外,夜视仪使用中存在的工效学问题会损害驾驶安全性,甚至危及驾驶员的生命。因此在广泛应用夜视镜的同时,发现并解决佩带夜视镜给驾驶带来的问题是至关重要的。

3.2. 夜视驾驶中的地形障碍距离知觉准确性研究

与光线充足的白天不同,在夜视辅助的驾驶中,驾驶员不得不进行非直接目视的驾驶,即一边观看屏幕显示得视频一边进行驾驶操作。已有研究表明,通过屏幕(及视频)进行深度知觉判断比肉眼观察的知觉判断准确性更差。具体而言,驾驶员在白天条件下判断视频中的距离时,更倾向于对其进行低估(Flannagan & Mefford, 2017; Norman et al., 2020),即在屏幕显示条件下出现了感知距离的压缩。

类似的,早期研究发现驾驶员使用夜视仪观察时,倾向于高估自身与的目标物体的距离(Brickner, 1989)。然而,后续大部分研究却发现夜视设备使参与者低估了与物体的距离(DeLucia & Task, 1995; Hadani, 1991; Niall et al., 1999),且估计的误差值随观察距离线性增加(Reising & Martin, 1995)。还需考虑的是,夜视设备提供的强化处理后的视频图像清晰度远达不到白天的摄像机的水准(Manton, 2000),这可能更不利于观察者的感知。然而,总体而言探讨夜间驾驶中地形障碍的距离知觉研究仍然较少,大部分研究者以夜视和探测技术的优化为焦点(Karunasekera et al., 2017; Morawiec et al., 2008),缺乏基础的实验研究。

3.3. 地形障碍距离知觉研究范式

在过往研究中,距离知觉的测量方法基本按照“呈现-复制”的思路进行。首先给被试呈现一个目标物,被试对目标进行感知后,再要求被试将他们主观知觉到距离通过行为或认知复制出来,转化为可测量的距离。因此在研究者往往在实验中主要控制障碍物的设置方式与知觉距离的测量方式,就这两方面具体论述如下。

3.3.1. 障碍物的设置

综合对土壤摩擦力的考虑,研究者发现对于以24公里每小时的车速行驶的军用车辆而言,停车距离约为11.9米(Rankin et al., 2007)。同时,也有研究者建议了更保守的停车距离为17.8米(Chang et al., 1999)。综合参考当前大部分研究主要测试的为15米内的夜视仪知觉准确性(Rankin et al., 2011)。

对负障碍而言,一个略宽于车轮直径(约0.5米)的凹陷足以在中等速度下造成车辆损坏(Rankin et al., 2007)。也就是说,大于0.5米的负障碍已对驾驶安全极具有威胁性。因此,当前大部分研究主要使用实地现存的负障碍,距离宽度大小约在0.5~1.5米之间(Sinai et al., 1998)。对正障碍而言,研究者主要采用低高度水平0.15~0.45米之间(Chang et al., 1999)的石块或0.5~2米左右(Rankin et al., 2011)高的树木模拟驾驶中道路常见的正障碍。

3.3.2. 知觉距离的测量

测量知觉距离的主要范式可根据复制方式分为知觉范式与行为范式(Loomis et al., 1992)。

行为范式为观察者通过肢体行为如行走、投掷等方式将知觉转化为行动,以便于测量。由于地形障碍包含不同方向上距离知觉(如山坡的高度、沟渠的宽度等),因此难以通过行走或投掷的方式复制。

知觉范式主要包括主观报告法与知觉匹配法。主观报告法,即观察者直接通过口头报告知觉到的距离,尽管相当便捷、可靠性却较低(Napieralski et al., 2011)。观察者对距离单位的不熟悉,导致口头报告法更易产生误差,视觉匹配法则具有相对更高的准确性(Sinai et al., 1998)。

综上,可行性与准确性较高的实验范式为视觉匹配法,即参与者通过调节调整一个匹配目标物的位置来复制先前所观察到的距离。

4. 讨论与展望

本文通过文献梳理,对夜视驾驶中的地形障碍距离知觉的研究现状与研究范式进行探讨,主要得出以下结果:

首先,在影响因素研究中,以往研究表明夜视设备的图像质量、视场大小以及与其他驾驶设备的兼容性影响了夜间驾驶中的距离知觉。其中,图像质量的分辨率、亮度和对比度有较大的可研究空间,未来研究可以对夜视驾驶上述方面具体的参数设置进行实验研究,探讨何种水平的图像参数有利于最佳夜视驾驶的距离知觉效果,进一步优化夜视驾驶的图像质量,改善驾驶员观察的视觉效果。其次,图像质量的分辨率与视场大小存在相互限制的作用,因此,未来研究应对如何平衡两者的关系进行实验研究。此外,如何提升夜视设备与其他驾驶设备的兼容性也是实用价值较高、值得探讨的问题。在通过改善夜视设备提升驾驶员对地形障碍距离知觉准确性的同时若导致驾驶员对仪表盘的感知减弱,同样可能产生负面影响。

其次,在地形障碍的距离知觉准确性研究中,以往研究聚焦于夜视设备显示效果的提升,对不同地形深度知觉准确性探讨较少,并且大部分停留于对正障碍的研究。然而,已有相当一部分研究指出,判断负障碍是夜视仪驾驶中的最大的事故来源,很大程度上导致了事故的发生并影响其后果严重程度。因此,未来探讨驾驶员对道路中地形危险的深度知觉准确性时,还需考虑地形障碍的不同类型,分别对正障碍和负障碍进行考察,尤其应注重对负障碍地形的研究的补充,继而应用于改善夜间驾驶中忽视负障碍导致车辆陷落的问题。此外,夜间视频条件下观察者对距离的感知准确性如何仍不明确。有必要分别考察个体在白天与微光情境中对地形障碍的距离知觉,以对比夜间与白天的屏幕显示中的距离知觉差异。对于实验任务范式,应当以视觉匹配法为主,合理地设置障碍物以考察观察者对自身与客体之间的距离感知。

最后,虽然事故报告揭示了地形障碍在夜间驾驶中的危险性,但由于这些夜视演练的开展时间已较为久远。与此相比,当前夜视技术有所发展,情况可能有所不同,更需通过实验进一步进行探究。因此,未来研究首先需要对当前夜视技术背景下的工效学问题进行确证。通过现场实验研究考察在使用前沿夜视设备进行驾驶活动的过程中,距离知觉的准确性现状以及影响因素。在了解现状的情况下,再尝试对夜视设备提出可行的优化方向。

综上所述,本文总结以往研究中对夜视条件下的地形障碍深度知觉的准确性现状及影响因素。尽管前人研究对此问题有一定的探讨,但仍存在不少研究空缺与亟待探讨的问题。随着夜视技术的发展,夜视设备的成像效果也在不断更迭,继而影响驾驶员的距离知觉,因此未来的研究应该多加使用或模拟出前沿夜视设备的图像显示,在真实的情境中考察对地形障碍的距离知觉,以应用于实际的产品优化中。

参考文献

[1] 蔡滨, 曹巍, 李斐如, 付康(2015). 军用车辆夜间驾驶装备发展现状与展望. 四川兵工学报, 36(6), 29-32.
[2] 胡迈(2015). 微光夜视环境中自然微光环境模拟. 长春理工大学学报(自然科学版), 38(1), 29-33.
[3] 史训豪(2019). 夜视仪在单兵观瞄系统中的应用. 科技风, (28), 18-19.
[4] 熊端琴, 郭小朝(2005). 航空夜视镜人机工效学问题研究进展. 中华航空航天医学杂志, 16(4), 312-315.
[5] 许为(1991). 航空夜视镜的人机工效学问题. 国际航空, (12), 52-53, 42.
[6] 赵晓枫, 刘长青, 蔡伟, 乔滨, 周亮(2017). 夜视车载平显视场人机工效分析. 科学技术与工程, 17(35), 23-31.
[7] Baker, R. G. V. (1999). On the Quantum Mechanics of Optic Flow and Its Application to Driving in Uncertain Environments. Transportation Research Part F: Traffic Psychology and Behaviour, 2, 27-53.
https://doi.org/10.1016/S1369-8478(99)00005-4
[8] Bateman, S., Doucette, A., Xiao, R., Gutwin, C., & Cockburn, A. (2011). Effects of View, Input Device, and Track Width on Video Game Driving. In Proceedings of Graphics Interface 2011. Association for Computing Machinery.
[9] Best, P. S., Collins, D. J., Piccione, D., & Ferrett, D. (1998). Evaluating Thermal and Image Intensification Night Vision Devices for the Ground Environment: Human Factors and Usability Issues. In Proceedings of the IEEE 1998 National Aerospace and Electronics Conference. NAECON 1998. Celebrating 50 Years (Cat. No.98CH36185). IEEE.
https://doi.org/10.1109/NAECON.1998.710130
[10] Brickner, M. S. (1989). Helicopter Flights with Night-Vision Goggles: Human Factors Aspects. National Aeronautics and Space Administration (NASA).
[11] Chang, T., Legowik, S., & Abrams, M. N. (1999). Concealment and Obstacle Detection for Autonomous Driving. In The International Association of Science & Technology for Development—Robotics & Applications99 Conference. IASTED/Acta Press.
[12] Cronin, T. W., Johnsen, S., Marshall, N. J., & Warrant, E. J. (2014). Visual Ecology. Princeton University Press.
https://doi.org/10.23943/princeton/9780691151847.001.0001
[13] DeLucia, P. R., & Task, H. L. (1995). Depth and Collision Judgment Using Night Vision Goggles. The International Journal of Aviation Psychology, 5, 371-386.
https://doi.org/10.1207/s15327108ijap0504_3
[14] Dima, C. S., Vandapel, N., & Hebert, M. (2004). Classifier Fusion for Outdoor Obstacle Detection. In IEEE International Conference on Robotics and Automation, 2004. Proceedings. ICRA’04. 2004. IEEE.
https://doi.org/10.1109/ROBOT.2004.1307225
[15] Flannagan, M. J., & Mefford, M. L. (2017). Distance Perception with a Camera-Based Rear Vision System in Actual Driving. In Driving Assessment 2005: Proceedings of the 3rd International Driving Symposium on Human Factors in Driver Assessment, Training, and Vehicle Design). The University of Michigan Transportation Research Institute.
https://doi.org/10.17077/drivingassessment.1143
[16] Hadani, I. (1991). Corneal Lens Goggles and Visual Space Perception. Applied Optics, 30, 4136-4147.
https://doi.org/10.1364/AO.30.004136
[17] Karunasekera, H., Zhang, H., Xi, T., & Wang, H. (2017). Stereo Vision Based Negative Obstacle Detection. In 2017 13th IEEE International Conference on Control & Automation (ICCA). IEEE.
https://doi.org/10.1109/ICCA.2017.8003168
[18] Loomis, J. M., Da Silva, J. A., Fujita, N., & Fukusima, S. S. (1992). Visual Space Perception and Visually Directed Action. Journal of Experimental Psychology: Human Perception and Performance, 18, 906-921.
https://doi.org/10.1037//0096-1523.18.4.906
[19] Manton, A. G. (2000). Night Vision Goggles, Human Factors Aspects—A Questionnaire Survey of Helicopter Aircrew. BMJ Military Health, 146, 22-27.
https://doi.org/10.1136/jramc-146-01-05
[20] Matthies, L., & Rankin, A. (2003). Negative obstacle Detection by Thermal Signature. In Proceedings 2003 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2003) (Cat. No.03CH37453). IEEE.
https://doi.org/10.1109/IROS.2003.1250744
[21] Morawiec, G., Niall, K. K., & Scullion, K. (2008). Distance Estimation and Simulation Training. In Tenth International Conference on Computer Modeling and Simulation (uksim 2008). IEEE.
https://doi.org/10.1109/UKSIM.2008.66
[22] Napieralski, P. E., Altenhoff, B. M., Bertrand, J. W., Long, L. O., Babu, S. V., Pagano, C. C., Kern, J., & Davis, T. A. (2011). Near-Field Distance Perception in Real and Virtual Environments Using Both Verbal and Action Responses. ACM Transactions on Applied Perception, 8, 1-19.
https://doi.org/10.1145/2010325.2010328
[23] Niall, K. K., Reising, J. D., & Martin, E. L. (1999). Distance Estimation with Night Vision Goggles: A Little Feedback Goes a Long Way. Human Factors: The Journal of the Human Factors and Ergonomics Society, 41, 495-506.
https://doi.org/10.1518/001872099779611012
[24] Norman, J. F., Dukes, J. M., Shapiro, H. K., & Peterson, A. E. (2020). The Visual Perception of Large-Scale Distances Outdoors. Perception, 49, 968-977.
https://doi.org/10.1177/0301006620948503
[25] Ooi, T. L., & He, Z. J. (2007). A Distance Judgment Function Based on Space Perception Mechanisms: Revisiting Gilinsky’s (1951) Equation. Psychological Review, 114, 441-454.
https://doi.org/10.1037/0033-295X.114.2.441
[26] Parush, A., Gauthier, M. S., Arseneau, L., & Tang, D. (2011). The Human Factors of Night Vision Goggles. Reviews of Human Factors and Ergonomics, 7, 238-279.
https://doi.org/10.1177/1557234X11410392
[27] Pazuchanics, L. S. (2006). The Effects of Camera Perspective and Field of View on Performance in Teleoperated Navigation. Proceedings of the Human Factors and Ergonomics Society Annual Meeting, 50, 1528-1532.
https://doi.org/10.1177/154193120605001603
[28] Piccione, D., & Ferrett, D. A. (1998). Driving Miss Bradley: Performance Measurement to Support Thermal Driving. In J. G. Verly (Ed.), Enhanced and Synthetic Vision 1998 (Vol. 3364). SPIE.
https://doi.org/10.1117/12.317471
[29] Rankin, A. L., Huertas, A., & Matthies, L. H. (2007). Night-Time Negative Obstacle Detection for off-Road Autonomous Navigation. In G. R. Gerhart, D. W. Gage, & C. M. Shoemaker (Eds.), Unmanned Systems Technology IX (Vol. 6561). SPIE.
https://doi.org/10.1117/12.720513
[30] Rankin, A., Huertas, A., Matthies, L., Bajracharya, M., Assad, C., Brennan, S. et al. (2011). Unmanned Ground Vehicle Perception Using Thermal Infrared Cameras. In D. W. Gage, C. M. Shoemaker, R. E. Karlsen, & G. R. Gerhart (Eds.), Unmanned Systems Technology XIII (Vol. 8045). SPIE.
https://doi.org/10.1117/12.884349
[31] Reising, J. D., & Martin, E. L. (1995). Distance Estimation Training with Night Vision Goggles under Low Illumination. Armstrong Laboratory.
[32] Ruffner, J., Piccione, D., & Woodward, K. (1997). Development of a Night Driving Training Aid Concept. U.S. Army Simulation, Training and Instrumentation Command.
[33] Sinai, M. J., Ooi, T. L., & He, Z. J. (1998). Terrain Influences the Accurate Judgement of Distance. Nature, 395, 497-500.
https://doi.org/10.1038/26747
[34] Suh, W., Park, P. Y.-J., Park, C. H., & Chon, K. S. (2006). Relationship between Speed, Lateral Placement, and Drivers’ Eye Movement at Two-Lane Rural Highways. Journal of Transportation Engineering, 132, 649-653.
https://doi.org/10.1061/(ASCE)0733-947X(2006)132:8(649)
[35] Toet, A., Jansen, S. E., & Delleman, N. J. (2008). Effects of Field-of-View Restriction on Manoeuvring in a 3-D Environment. Ergonomics, 51, 385-394.
https://doi.org/10.1080/00140130701628329