文章快速检索     高级检索
  重庆邮电大学学报(自然科学版)  2018, Vol. 30 Issue (6): 819-826  DOI: 10.3979/j.issn.1673-825X.2018.06.013
0

引用本文 

徐聪, 全恩懋, 梁华刚. 多特征融合的交通标识视认性评测方法[J]. 重庆邮电大学学报(自然科学版), 2018, 30(6): 819-826. DOI: 10.3979/j.issn.1673-825X.2018.06.013.
XU Cong, QUAN Enmao, LIANG Huagang. Evaluation method of traffic signs recognition based on multi-feature fusion[J]. Journal of Chongqing University of Posts and Telecommunications (Natural Science Edition), 2018, 30(6): 819-826. DOI: 10.3979/j.issn.1673-825X.2018.06.013.

基金项目

国家自然科学基金(61203374);教育部人文社科西部项目(15XJC760004);重庆市教委科学技术研究项目(KJ120512);重庆市社科重点项目(16SKGH025)

通信作者

全恩懋 86357458@qq.com

作者简介

徐聪(1979—),男,重庆人,副教授,硕士,从事信息可视化设计、人机交互设计研究。E-mail: xucong@cqupt.edu.cn; 全恩懋,(1979—),男,重庆人,高级工程师,博士,从事智能交通与信息系统工程研究。E-mail: 86357458@qq.com; 梁华刚,(1980—),男,陕西人,副教授,博士,从事图像处理与机器视觉研究。E-mail: 1563018987@qq.com

文章历史

收稿日期: 2018-05-19
修订日期: 2018-11-10
多特征融合的交通标识视认性评测方法
徐聪1, 全恩懋2, 梁华刚2     
1. 重庆邮电大学,重庆 400065;
2. 长安大学,西安 710064
摘要: 针对目前交通标识视认性评测方法误差过大的缺点,提出了一种高精度交通标识视认性评测方法。该方法根据道路环境中不同因素对交通标识视认性的影响,计算了标志牌图像中的颜色特征、亮度特征、复杂度特征,并考虑标志牌背景的影响,计算了标志牌和背景之间的颜色对比特征、亮度对比特征和复杂度对比特征,综合考虑以上6种特征及特征相互之间的影响,利用自顶向下(top-down)和自底向上(bottom-up)视觉模型建立多特征融合的交通标识视认性评测模型。通过模型实现了对识别出的标志牌进行视认性评测,反馈模型推测的视认性值。通过实验对多特征融合的视认性评测模型的有效性及模型精度进行了评测。结果表明,该模型能够高精度推测标志牌视认性值,且达标率在89%以上。
关键词: 交通标识    视认性    多特征融合    颜色对比特征    
Evaluation method of traffic signs recognition based on multi-feature fusion
XU Cong1 , QUAN Enmao2 , LIANG Huagang2     
1. Chongqing University of Posts and Telecommunications, Chongqing 400065, P. R. China;
2. Chang'An University, Xi'an 710064, P. R. China
Foundation Items: The National Natural Science Foundation of China(61203374); The Ministry of Education of China Humanities and Social Sciences West Project(15XJC760004); The Chongqing Education Commission Science and Technology Research Project (KJ120512); The Chongqing Social Science Key Project (16SKGH025)
Abstract: This paper proposes a high precision method for evaluating the visibility of traffic signs to reduce the large deviation of the result caused by the current methods. Due to the influence of different factors in the road environment on the visibility of traffic signs, the color features, brightness characteristics, and complexity features in the signboard images are determined, and the influence of the background of the signboard is taken into consideration to obtain the color contrast feature, brightness contrast features and complexity contrast feature, comprehensively consider the above 6 characteristics and the influence of the features on each other, then using top-down and bottom-up visual models to establish multi-feature fusion traffic sign visibility evaluation models. The visibility of the identified signboard is evaluated by the model, and the visibility value estimated by the model is fed back. Finally, the effectiveness and model accuracy of the multi-feature fusion visual evaluation model were evaluated by experiments. And the final experiment shows that the model can predict the visibility of the signage with high accuracy, and the compliance rate is above 89%.
Keywords: traffic signs    visibility    multi-features fusion    color contrast characteristics    
0 引言

为确保道路信息的有效传达,人们针对交通标识的视认性问题展开了研究[1-5]。影响交通标识辨别的因素众多[6-7],主要分为标识与背景自身因素[8-10]、标识与背景的对比因素[11]。标识与背景的自身因素方面,文献[12]证明了背景的复杂度对视认性有很大的影响,对此提出了基于背景复杂度对比的红绿灯的视认性的评测方法;Siegmann等[13]利用标志牌的亮度特征提出视认性的评测方法, 提出利用颜色直方图来表示标识牌;Maerz等[14]通过分析不同标识牌对应的标志领域的亮度值,基于RGB各成分来推断视认性的方法。标识与背景的对比方面,K Doman等[15]提出了通过累积标志一系列瞬时视认性,估计其累积视认性,使在动态场景下,背景环境随时间变化也能够准确估计标志牌视认性。

虽然学者们对视认性评测方法进行了研究,但方法仍存在不足。目前方法多出于通过单个特征对视认性进行推断,缺乏对更多影响因素的考虑。若考虑复合因素对视认性推断的影响,需考虑分析特征的选取和其结果对视认性精度的影响。

本文提出多特征融合的交通标识的视认性的评测方法。在静态实验的基础上,选取将6种图像特征对视认性进行评测,特征包括:标志牌的表面亮度特征、颜色特征以及标志牌复杂度特征、标志牌与背景的亮度对比特征、颜色对比特征、复杂度对比特征进行融合,提出多特征融合的视认性评测模型。

1 交通标识视认性评测方法 1.1 基于图像特征的视认性评价模型

在认知神经科学领域,选择性注意是人类感知系统从外部环境获取信息的重要生理机制。人眼在视觉图像辨认的过程中,通过视觉刺激进行一系列快速的眼球跳动来改变注意点位置,视觉刺激不仅来自于对象本身,还受观察者大脑的影响[16]。在视觉注意机制中,这两类因素分别称为自顶向下(top-down)和自底向上(bottom-up)信息处理模型[17]。其中自顶向下模型的视觉注意点的定位和转移取决于先验知识即任务目标,而自底向上模型视觉注意点的定位和转移纯粹取决于视觉刺激本身,且两者存在相互作用[18],即若模型引入适当的先验知识和充分利用图像信息的话,能够更好地促进计算机视觉的探索。

以交通标识为对象,利用自顶向下处理模型以交通标识为任务目标,自底向上处理模型充分利用标识对象和背景的对比特征,进行视认性评测。将视认性评测值V与交通标识表面特证a、标志与背景的对比特征b公式化,表示为

$ \mathit{\boldsymbol{V}} = {F_a}\left( \mathit{\boldsymbol{a}} \right) + {F_b}\left( \mathit{\boldsymbol{b}} \right) \times {F_{a \times b}}\left( {\mathit{\boldsymbol{a}},\mathit{\boldsymbol{b}}} \right) $ (1)

(1) 式中,等号右边3项分别表示对视认性值V的影响,第1项是标志与背景的对比特征;第2项是标志表面特征;第3项是两者的相互作用(交差项)。

求解以a1a2a3b1b2b3等为变量组成的P维多项式(P≥2)以获取视认性值。当P=2时,可表示为

$ \mathit{\boldsymbol{V}} = {{\mathit{\boldsymbol{\tilde f}}}^{\rm{T}}}\mathit{\boldsymbol{W\tilde f}} $ (2)

(2) 式中:$ \mathit{\boldsymbol{\tilde f}} $=(a1, a2, a3, b1, b2, b3, 1)TW是以各项的系数为元素的7×7阶的下三角行列式。将(2)式的右边展开,令$ \mathit{\boldsymbol{\tilde a}} $=(a1, a2, a3, 1)T$ \mathit{\boldsymbol{\tilde b}} $=(b1, b2, b3, 1)T, 则得到

$ {\mathit{\boldsymbol{a}}^{\rm{T}}}{\mathit{\boldsymbol{W}}_a}\mathit{\boldsymbol{\tilde a}} + {\mathit{\boldsymbol{b}}^{\rm{T}}}{\mathit{\boldsymbol{W}}_b}\mathit{\boldsymbol{\tilde b}} + {\mathit{\boldsymbol{a}}^{\rm{T}}}{\mathit{\boldsymbol{W}}_{a \times b}}\mathit{\boldsymbol{\tilde b}} $ (3)

(3) 式即为求取视认性评测值V的多特征融合模型,WaWbWa×b是各项的系数行列式。为求得系数矩阵W,本文通过学习数据,利用线性回归[19]和最小二乘法对W矩阵进行求取。

1.2 CIELab颜色空间

CIELab也被称作是均匀的颜色空间,是指人的感官随着空间数值的变化而均匀变化,采用对色坐标系,分别用L*a*b*三坐标轴来定义。所以在L*a*b*空间中任意颜色的相对感知差,可通过把颜色近似为三维空间中的一个点,并计算颜色之间的欧几里得距离来处理。在L*a*b*空间中的欧几里得距离是ΔE,取L*a*b*空间中的2个颜色(L1*a1*b1*)和(L2*a2*b2*),则ΔEab*表示为

$ \begin{array}{*{20}{c}} {\Delta E_{ab}^ * = }\\ {\sqrt {{{\left( {L_2^ * - L_1^ * } \right)}^2} + {{\left( {a_2^ * - a_1^ * } \right)}^2} + {{\left( {b_2^ * - b_1^ * } \right)}^2}} } \end{array} $ (4)

由于RGB(red, green, blue)和CIELab之间没有直接的转换公式,则必须利用通道XYZ颜色空间作为中间层[20]XYZ空间到CIELab之间的转换为

$ \begin{array}{*{20}{c}} {{L^ * } = 116f\left( {Y/{Y_n}} \right),}\\ {{a^ * } = 500\left[ {f\left( {X/{X_n}} \right) - Y/{Y_n}} \right],}\\ {{b^ * } = 100\left[ {f\left( {Y/{Y_n}} \right) - f\left( {Z/{Z_n}} \right)} \right]} \end{array} $ (5)

(5) 式中,对函数f,当t>(6/29)3f(t)=t1/3,否则$ f\left( t \right) = \frac{1}{3}{\left( {6/29} \right)^2}t + 4/29 $。这是为了防止t=0处的无限斜率。(5)式中,XnYnZn是参照白点的CIE-XYZ 3色刺激值,一般XnYnZn取1,而RGB空间到XYZ空间如(6)式。

$ \left[ {\begin{array}{*{20}{c}} X\\ Y\\ Z \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {0.4124}&{0.3576}&{0.1805}\\ {0.2126}&{0.7152}&{0.0722}\\ {0.0193}&{0.1192}&{0.9505} \end{array}} \right] \cdot \left[ {\begin{array}{*{20}{c}} R\\ G\\ B \end{array}} \right] $ (6)
1.3 标志牌表面特征求取

交通标识的表面特征是影响视认性评测的重要组成因素,特别是标志牌的亮度、颜色和复杂度(信息量)特征。作为先验知识,驾驶员在驾驶资格证考试中必须先对已有的常见的交通标示牌进行学习记忆,在后续的驾驶中,每当遇见标志牌时就会在大脑中进行匹配来识别内容。与印象中的标志牌越相似,则视认性越高。基于上述分析,以标准交通标识作为模版进行分析。

选取k种交通标识,设相对应的模版标志为Sk,测试图像中的标志牌亮度特征、颜色特征、图案复杂度特征与模版标志牌S-Sk间的相似程度,并分别表示为a1a2a3,如(7)—(9)式。

$ {a_1} = {K_1} - \left| {\Delta {{\bar L}^{ * \left( {{S_k}} \right)}}} \right| $ (7)
$ {a_2} = {K_2} - \sqrt {{{\left( {\Delta {{\bar a}^{ * \left( {{s_k}} \right)}}} \right)}^2} - {{\left( {\Delta {{\bar b}^{ * \left( {{s_k}} \right)}}} \right)}^2}} $ (8)
$ {a_3} = \left| {\Delta \bar E} \right| $ (9)

(7)—(8)式中, ΔL*(Sk),Δa*(Sk),Δb*(Sk)为基于CIELAB色空間的S-Sk间的L*a*b*的平均差,即$ \Delta {\bar L^{{*^{\left( {{S_k}} \right)}}}} = \frac{{\sum {\left| {L_{\rm{s}}^ * - L_{{\rm{sk}}}^ * } \right|} }}{N} $,Δa*(Sk),Δb*(Sk)同理;ΔE为通过Sobel算子计算得到的S-Sk间边缘强度的平均差。可见,K1K2是(7)式和(8)式右边第2项理论上的最大值,即视觉识别的最大亮度差。

1.4 标志牌与背景的对比特征求取

常见的对比特征的计算是将目标外的领域全部当作背景来进行处理的,与背景对比的亮度对比特征X1、颜色对比特征X2、复杂度对比特征X3特征如(10)—(12)式。

$ {X_1} = \left| {{Y_{\rm{s}}} - {Y_{\rm{b}}}} \right| $ (10)
$ {X_2} = \sqrt {{{\left( {{R_{\rm{s}}} - {R_{\rm{b}}}} \right)}^2} + {{\left( {{G_{\rm{s}}} - {G_{\rm{b}}}} \right)}^2} + {{\left( {{B_{\rm{s}}} - {B_{\rm{b}}}} \right)}^2}} $ (11)
$ {X_3} = \left| {{E_{\rm{s}}} - {E_{\rm{b}}}} \right| $ (12)

(10)—(12)式中:YsYb分别为标志和背景区域的平均灰度亮度值;RsGsBs为标志区域的平均RGB值,RbGbBb为背景区域的平均RGB值;EsEb分别为标志和背景区域的平均边缘强度,标志牌边缘强度同背景边缘强度差异性越大,标志牌越容易辨别。标志牌边缘强度同背景边缘强度差异性越小,标志牌越难以辨别,甚至被认为是背景的一部分。文献[21]在车载相机的实验中证明了背景复杂度对比特征的有效性。

但在实际情况下,道路标志的周围存在具有不同图像特征的区域,可以认为离标志越近且领域越大,对标志的影响也越大。为提高视认性评测值的准确率,采用基于CIELAB彩色空间的K-means聚类图像分割方法分割背景。

K-means算法的基本思想:以空间中k个点为中心进行聚类, 对最靠近他们的对象归类。通过迭代的方法,逐次更新各聚类中心的值,直至得到最好的聚类结果[22]

假设把样本集分为n个类别,令标志区域为s,仅对背景区域做下列操作,算法描述如下。

1) 适当选择k个对象作为n个类的初始聚类中心;

2) 对于剩下的对象根据聚类中心的相似度,求其到n个中心的距离,将其分类给与其最相似的聚类;

3) 更新该类的中心值;

4) 重复2),3)步骤直到标准测度函数收敛。

对包含标志图的图像背景区域进行K-means划分,将背景区域聚类成3类,聚类初始中心点在标志区域外随机选取,除标志区域,其他区域均为聚类对象。通过以上步骤,得到如图 1b所示图像,其中,背景部分包含多个不同区域。

图 1 K-means聚类分割结果图 Figure 1 K-means clustering segmentation result graph

若设背景区域为B,则有类bnB(n表示类别数)。那么标志与背景类S-bn间的亮度对比特征b1(bn)、颜色对比特征b2(bn)、复杂度对比特征b3(bn)可由(13)—(15)式得到。

$ b_1^{\left( {{b_n}} \right)} = \left| {\Delta {{\bar L}^{ * \left( {{b_n}} \right)}}} \right| $ (13)
$ b_2^{\left( {{b_n}} \right)} = \sqrt {{{\left( {\Delta {{\bar a}^{ * \left( {{b_n}} \right)}}} \right)}^2} - {{\left( {\Delta {{\bar b}^{ * \left( {{b_n}} \right)}}} \right)}^2}} $ (14)
$ b_3^{\left( {{b_n}} \right)} = \left| {\Delta {{\bar E}^{\left( {{b_n}} \right)}}} \right| $ (15)

(13)—(15)式中:ΔL*(bn),Δa*(bn),Δb*(bn)为基于CIELAB色空間的S-bn间的L*a*b*的平均差;ΔE(bn)为通过Sobel算子计算得到的S-bn边缘强度的平均差。

2 视认性评价标准值获取

问卷调查常被用于测量调查者的态度、认知等潜在特征[22-23],为了证明上述交通标识视认性评价模型的有效性,通过建立视认性的标准值来进行对比分析。本文采用静态实验方法,不考虑行车状态对视认性的影响,视认性的标准值通过问卷调查法求取。本文采用文献[24]中一种模糊形式李克特矢量表。将模糊语言变量设定为总和为100%的百分比形式的条件选项,被测试者可针对设置的每个模糊语言变量选择切实心理状态所占的百分比数。

U表示一个论域,令{L1, L2, L3, …, Lk}为论域U上的K个等距尺度变量,模糊样本{X1, X2, X3, …, Xn},且每个样本Xi(i=1, 2, …, n)相对于变量Lj(j=1, 2, …, k)的隶属度为mij,其中,$ \sum\limits_{j = 1}^k {{m_{ij = 1}}} $。令MjLj的组中点, 若$ F\bar x = \frac{1}{n}\sum\limits_{j = 1}^k {\sum\limits_{i = 1}^k {{m_{ij}}{M_j} \in {L_j}} } $,则将模糊样本{X1, X2, X3, …, Xn}的模糊样本均值定义为

$ F\bar x = {L_k} $ (16)

选取5名测试者对某个标识牌图像进行识别,语义选项设定为5个区间,分别为无法分辨、不清楚、稍微清楚、清晰、非常清晰。统计测试者的心理状态,统计比例结果如表 1所示。

表 1 5位测试人员对应于各选项的隶属度选择 Table 1 Five testers correspond to the membership degree choice of each option

将视认性程度在[0, 1]上等分为5份,且令Mj为区分度区间的中点值{0.073,0.292,0.511,0.730,0.949},对100张交通标识的视认性值进行统计。

3 实验

视认性测评实验中,利用Matlab对视认性评测模型进行推断。选取500幅白天不同光照条件下550×550的标志周边图像,其中圆形标志牌占120×120个像素点。将标志周边图像均分为50组。将图像数据分为用来训练学习和进行测试的2组,选用其中9组图像进行线性回归求取式未知系数,10组作为测试组,40组数据反复操作。最后,利用视认性标准评价值求取各个方法视认性评测值的绝对误差(mean absolute error,MAE)和标准偏差(standard deviation,SD),判断各方法的视认性评测精度。

3.1 实验结果与分析

为降低实验偶然性,对实验进行100次,每次均随机抽取训练数据和验证数据,统计最后的实验结果如图 2所示。图 2中,横坐标为实验统计次数,图 2a图 2b图 2c图 2d分别为亮度特征和对比度特征、颜色特征和对比度特征、复杂度特征和复杂对比度特征以及本文方法的视认性标准值与标准值的比较图。采用不同的方法对100幅图像进行视认性评测,在不同的评测误差范围下对满足该误差标准的图像数目进行统计,结果如表 2所示。

图 2 推断值和标准值对比 Figure 2 Comparison of the inferred value and the standard value
表 2 本文融合方法与单一特征融合方法误差分布对比 Table 2 Comparison of error distribution between this paper fusion method and single feature fusion method

图 2可以看出,本文方法相比亮度特征、亮度对比特征、颜色特征、颜色对比特征、信息复杂度特征和信息复杂度对比特征拟合程度更高。视认性标准值在0.3~0.5时本文方法偶然出现较大误差,均在标准值以上, 显然与图 2c中信息复杂度特征相似,说明在此范围内信息复杂度特征作用较大。标准值在0.4~0.6时本文方法得到的视认性值比标准值低,且变化较为平缓,同图 2b中颜色对比特征相似。而当视认性值在0.7~0.85时视认性值比标准值高,图 2a中亮度特征占据主导地位。

表 2可以看出,本文方法与视认性标准值误差在0.06以下占据较大,为67%。可见,87%的数据误差均在0.12以下,误差在0.27以上较少,结合图 2d知误差较大的部分视认性标准值在0.3~0.5。单独特征中,颜色对比特征和复杂度对比特征表现最差,较大部分的误差在0.3以上。显然误差较大时,标志牌的视认性低,很难做出准确结果。亮度特征的所有误差均在0.27以内,表现较好。亮度对比特征误差分布也较为均匀,误差在0.15以下的达到74%。颜色特征较为特殊,由颜色特征得到的视认性值大多数误差分布在0.18~0.21,达到75%。以0.15的误差为标准,本文方法89%的样本均达到要求,而其他方法中表现最好的颜色特征也仅达到74%。

3.2 对比试验

上述试验验证了本文提出的视认性模型的有效性,为了进一步验证多特征融合视认性评测模型的准确性,将模型公式(3)分为3部分进行验证。分别利用标志牌表面特征(方法1)、标志与背景的对比特征(方法2)、不含交叉项的特征共同作用(方法3)以及含标志牌表面特征和标志与背景的对比特征的交叉项(本文方法)方法进行实验。通过计算得到4种模型, 对视认性标准值求取平均绝对误差和标准偏差进行比较,结果如表 3所示。

表 3 视认性评测精度比较 Table 3 Comparison of the visual identity assessment's accuracy

表 3可知,对于方法1—方法3中3种成分获取的视认性值无论在绝对误差还是在标准偏差上均比本文方法差,且4种模型误差关系为方法1>方法2>方法3>方法4,显然本文方法综合了其他方法的优点,比其他方法能更精确地推断视认性值。

为增加本文实验的说服性,同文献[13, 21, 25-26]的标志牌视认性评价方式进行了对比,实验结果如表 4所示。

表 4 对比实验 Table 4 Comparison of the experiment

表 4可以明显看出,本文方法的MAE和SD均为最小值,且融合了主要影响视认性的图像特征的本文方法明显优于其余的对比方法。实验证明了多特征融合的视认性评测模型的有效性,并且模型具有精度高的特点。同表 3进行对比,可以看出本文将特征进行融合的方式极大提高了视认性值的精度,表 4中将亮度特征、颜色特征和复杂度特征3种特征进行融合的结果也优于文献中的方法,说明了特征融合方式的有效性。

4 结束语

本文综合考虑交通标识与背景的亮度特征、亮度对比特征、颜色特征、颜色对比特征、复杂度特征和复杂度对比特征共6种特征,及特征相互之间的影响,建立特征融合的交通标识视认性评测模型,并利用最小二乘法求取模型参数,优化了视认性模型,实验验证部分证明了本文方法的有效性,该方法可以对标志牌视认性值进行高精度推断。

在实验中发现,本文方法对视认性值在0.3~0.5时仍有部分样本的推断视认性值存在较大误差,且有部分样本的误差在0.3以上,对此部分的优化是本文方法下一步研究的重点。

参考文献
[1]
戴权, 王芳, 倪安宁. 认知过程中交通标志视认有效性影响因素分析[J]. 中国安全科学学报, 2009, 19(12): 57-60.
DAI Quan, WANG Fang, NI Anning. Influence Factors of Traffic Sign Comprehension Effectiveness in Cognitive Process[J]. China Safety Science Journal, 2009, 19(12): 57-60. DOI:10.3969/j.issn.1003-3033.2009.12.009
[2]
PU Y T, CHEN F, PAN X D et al. The legibility of LED traffic guide signs in urban tunnels[C]//4th International Conference on Transportation Information and Safety (ICTIS).[S.l.]: Conference Publication, 2017: 1111-1116.
[3]
CHRYSLER S T, CARLSON P J, BRIMLEY B. Effects of Full Matrix Color Changeable Message Signs on Legibility and Roadway Hazard Visibility[J]. Transportation research record, 2017(2617): 9-18.
[4]
LIRA E R, FYNN E, COELHO P.An Architecture for Traffic Sign Management in Smart Cities[C]//International Conference on Advanced Information Networking and Applications. Crans-Montana, SWITZERLAND: IEEE, 2016: 580-587.
[5]
魏永超, 陈锋, 庄夏, 等. 基于不变角度轮廓线的三维目标识别[J]. 四川大学学报:自然科学版, 2017, 54(4): 759-763.
WEI Yongchao, CHEN Feng, ZHUANG xia, et al. 3D Target Recognition Based on Invariant Angle Contour[J]. Journal of Sichuan University:Natural Science Edition, 2017, 54(4): 759-763.
[6]
黄小芳, 贾志绚, 卓亚娟. LED交通标志的视认性试验研究与分析[J]. 中国安全科学学报, 2017, 27(4): 37-42.
HUANG Xiaofang, JIA Zhixuan, ZHUO Yajuan. Experimental research on legibility of LED traffic signs[J]. China Safety Science Journal, 2017, 27(4): 37-42.
[7]
MEEKER D T, PIETRUCHA M T, GARVEY P M. Proportion-Based Format System for Freeway and Expressway Guide Signs[J]. Journal of Transportation Engineering, 2010, 136(3): 267-275. DOI:10.1061/(ASCE)0733-947X(2010)136:3(267)
[8]
CHEN Y C, FANG C Y, LEE M W.Luminance Contrast study of LED Traffic signs[C]//CIE Conference on Lighting Quality and Energy Efficiency.Melbourne Australia: [s.n.], 2016: 283-286.
[9]
刘浪, 白彬, 燕南, 等. 基于驾驶员视认性的山区双车道公路交叉口停车视距计算[J]. 重庆交通大学学报:自然科学版, 2017, 36(5): 98-103.
LIU Lang, BAI Bin, YAN Nan, et al. Calculation on Stopping Sight Distance of Two-Lane Mountainous Highway Intersection Based on Driver's Visual Characteristics[J]. Journal of Chongqing Jiaotong University: Natural Science Edition, 2017, 36(5): 98-103.
[10]
CARLSON P J. Can Traffic Signs Be Too Bright on Low-Volume Roads?[J]. Transportation Research Record Journal of the Transportation Research Board, 2015(2472): 101-108.
[11]
CHAO C W, HUANG C H, TSAL T W. The Age Effects of Traffic Signs on Visual Performance[J]. Life Science Journal, 2013, 10(1): 297-302.
[12]
FUMIKA K, YOSHITO M, TOMOKAZU T, et al. Traffic Signal Light Visibility Quantification Method For Assisting Driver[J]. Journal of the Institute of Electrical Engineers, 2010, 130(6): 1034-1041.
[13]
SIEGMANN P, LAFUENTE-ARROYO S, MALDONADO-BASCÓN S, et al. Automatic evaluation of traffic sign visibility using SVM recognition methods[C]//Proceedings of 5th WSEAS International Conference on Signal Processing, Computational Geometry & Artificial Vision. Stevens Point, Wisconsin, US: ACM, 2005: 170-175.
[14]
MAERZ N H, NIU Q.Automated mobile highway sign retro reflectivity measurement[EB/OL].[2018-04-11]. http://www.docin.com/p-1535096326.html.
[15]
DOMAN K, DEGUCHI D, TAKAHASHI T, et al. Estimation of traffic sign visibility considering temporal environmental changes for smart driver assistance[J]. Intelligent Vehicles Symposium, 2011, 32(14): 667-672.
[16]
田晶晶, 李世武, 孙文财, 等. 高速公路隧道环境对驾驶员注视特性的影响[J]. 江苏大学学报:自然科学版, 2016, 37(3): 264-267.
TIAN Jingjing, LI Shiwu, SUN Wencai, et al. Effect of freeway tunnel environment on driver vision characteristics[J]. Journal of Jiangsu University: Natural Science Editions, 2016, 37(3): 264-267.
[17]
王大明. 自顶向下视觉注意机制的进展[J]. 硅谷, 2010(01): 50.
WANG Daming. Progress of top-down visual attention mechanism[J]. Silicon Valley, 2010(01): 50. DOI:10.3969/j.issn.1671-7597.2010.01.037
[18]
OGAWA T, KOMATSU H. Target selection in area V4 during a multidimensional visual search task[J]. Journal on Neuroscience, 2004, 24(28): 6371-6382. DOI:10.1523/JNEUROSCI.0569-04.2004
[19]
洪亮, 江新忠. 基于多项式回归法的显示器色彩空间转换模型研究[J]. 河南工程学院学报:自然科学版, 2013, 25(3): 61-64.
HONG Liang, JIANG Xinzhong. Research On The Display Color Space Conversion Model Based On Polynomial Regression Method[J]. Journal of Henan Institute of Engineering: Natural Science Edition, 2013, 25(3): 61-64. DOI:10.3969/j.issn.1674-330X.2013.03.014
[20]
樊亚宁. 彩色数转模工作中的色彩管理[J]. 数字与缩微影像, 2016(2): 19-21.
FAN Yaning. Color Management In The Color Digital-analog Conversion Work[J]. Digital & Micrographic Imaging, 2016(2): 19-21. DOI:10.3969/j.issn.1672-495X.2016.02.006
[21]
The conspicuity of traffic signs in complex backgrounds, CIE 137-2000[J]. Color Research & Application, 2015, 25(5): 386-386.
[22]
韩岩, 李晓. 加速大数据聚类K-means算法的改进[J]. 计算机工程与设计, 2015, 25(5): 1317-1320.
HAN Yan, LI Xiao. Improved Accelerating Large Data K-means Clustering Algorithm[J]. Computer Engineering and Design, 2015, 25(5): 386-386.
[23]
宋加旺, 徐正国. Copula-FITSGARCH模型及其在中国资本市场的应用研究[J]. 统计与决策, 2007(2): 124-127.
SONG Jiawang, XU Zhengguo. The Research of Copula-FITSGARCH Model and Its Application In China's Capital Market[J]. Statistics & Decision, 2007(2): 124-127. DOI:10.3969/j.issn.1002-6487.2007.02.047
[24]
王忠玉, 吴柏林. 模糊数据问卷调查表的设计及应用[J]. 经济研究导刊, 2012(14): 174-178.
WANG Zhongyu, WU Bolin. Design And Application of Questionnaire For Fuzzy Data Survey[J]. Economic Research Guide, 2012(14): 174-178. DOI:10.3969/j.issn.1673-291X.2012.14.073
[25]
SIMON L, TAREL J P, BREMOND R. Alerting the drivers about road signs with poor visual saliency[C]// Intelligent Vehicles Symposium. Xi'an, China: IEEE, 2009: 48-53.
[26]
桂零, 袁黎, 蔡明杰. 基于人类工效学的指路标志视认性研究[J]. 交通运输研究, 2016, 2(5): 33-38.
GUI Ling, YUAN Li, CAI Mingjie. Recognition of Guide Sign Based on Ergonomics[J]. Transport Research, 2016, 2(5): 33-38.