3D 臉 形 辨 識

 
隨著科技的快速發展,利用人類的生物資訊來作為辨識也變得越來越可行,一般常使用的生物資訊包含有人臉、指紋、掌紋、聲紋及虹膜等資訊,而其中又以使用人臉辨識的方法最為直觀。我們利用相機拍攝人類臉部的影像,並以此一影像和人臉資料庫中的所有人臉影像做比對,最後可以找出最近似的人的人臉影像,以達成辨識的功能。由於現代相機的解析度大為提昇,少則數十萬像素,多則數百萬像素,往往一張人臉影像所包含的資料量都很龐大,使得影像在做比對時需要花費很多時間,例如一張100’100個像素的人臉影像,則必須完成一萬次的比對運算,如此一來系統將無法達到即時性,使得實用性大為降低。為了改善此一問題,降低影像資料量是一個重要的工作,透過影像處理的技術,先從人臉影像中抽取出具代表意義的特徵向量資訊,並以此特徵向量來當作為辨識的依據,如此將可降低比對所花費的時間。
到目前為止,對於影像中特徵向量的抽取方法,已有一些不錯的數值技術被完成,例如PCA[1, 2, 3]、LDA[4, 5]及ICA[6, 7, 8]等方法,這一些方法主要是將人臉影像轉換成為一組基底影像的線性組合,因此可以將人臉影像表示如方程式(1)所示,



其中 為影像的灰階值, , 和 是第i, j個基底影像,而不同的方法所找出的一組基底影像也不同,透過基底的轉換運算,我們將可以得到相對應於基底的係數,這一些係數所組成的向量既是代表此人臉影像的特徵向量值,如方程式(1)中的 , , …, ,重寫特徵向量成向量的形式,則特徵向量X可表示如下:



由於上述的這些方法有一相同特性,就是第一個基底具有人臉影像的最主要成分,其次是第二個基底,依此類推最後的一個基底則是最少資訊的基底,因此可以取前P 個較具意義的基底的線性組合來近似於原始的人臉影像,重寫方程式(1)和(2),則可得到:




由於 ,因此特徵向量Y的個數遠小於原始影像像素的個數,因此達到降低比對個數的目的。
在另一面,由於上述的這些方法主要處理的對象是根據相機所拍攝的二維的人臉影像,但是由於人類的臉部是一個包含有三維空間的資訊,所以隨著外在光源位置及人臉姿勢的不同,所呈現出來的影像灰階值亦不同,因此利用上述的這些方法來抽取影像中灰階值的特徵向量將會很容易被外在光源位置及人臉姿勢所影響,導致錯誤的辨認,因此如果我們能夠重建人臉的三維資訊(深度),則我們就能夠利用此三維的人臉模型建構出任何姿勢以及不同外在光源位置下的人臉二維影像,如此將會有助於提昇辨識的準確,此外亦可以將深度的資訊作為辨識的依據以增加辨識的準確度,補償因降低比對資料量近似時所產生的誤差。
利用二維影像來重建三維的模型,一直是影像處理技術中相當熱門的問題[9, 10],而且也是一個相當困難的問題,最常見的兩種方法分別是利用電腦視覺技術的計算及利用影像中物體表面灰階值變化的方法計算。利用電腦視覺技術主要是利用幾何成像及三角形對稱原理來計算求出影像中物體的深度資訊,這種方法至少需要兩張不同角度所拍攝的影像,但是此方法有一先天上的缺點,就是無法知道空間上任一點在此兩張影像中的分別投影對應點,這是因為它是一個多對一的投影關係,以致於空間上的一些點有可能投影到影像中的同一點,如此一來將無法準確的計算出影像中物體的深度資訊。其次則是利用影像中物體的灰階值變化程度來計算深度 (Shape From Shading, SFS),此一方法沒有如上述對應點的問題,因此計算上容易實現,並且再加上人臉表面的深度變化平滑,更適合此種方法的計算,因此我們在此也是利用這種方法來完成人臉三維模型的重建。
圖(1)為一個例子的計算結果,我們利用三張不同位置光源所拍攝的影像來重建三維的人臉平面,分別如圖(1)中的(a)、(b)及(c)三張影像,而圖(1)中的第二列中的三張影像,則分別是計算之後的法線向量的三個分量,而p與q分別是相對應於圖(1)中的(d)及(e)兩張影像,最後所求得的人臉平面如圖(2)所示。



圖(1). 原始二維影像及人臉平面上的三個法線分量


圖(2). 重建三維的人臉平面
DSP控制架構
  目前六軸運動平台的控制皆是透過一台工業電腦,在求新求變的企圖心下,我們將採用目前發展極為成熟的DSP晶片(TMS320C24X)來取代控制的工業電腦。

  在DSP晶片堭N包括有六軸平台的Inverse,工作空間,路徑規劃...等等。透過RS232的通訊介面與虛擬場景溝通,透過六個Channel的AD/DA Converter與六軸平傳遞資料。

Reference:
[1]. L. Sirovitch and M. Kirby, "Low-dimensional procedure for the characterization of human faces", J. Optical Soc. of America A, vol. 2, pp. 519-524, 1987.
[2]. M. Turk and A. Pentland, "Eigenfaces for recognition", J. of Cognitive Neuroscience, vol. 3, no. 1, 1991.
[3]. M. Turk and A. Pentland, "Face recognition using eigenfaces", in Proc. IEEE Conf. on Comp. Vision and Patt. Recog., pp. 586-591, 1991.
[4]. R. Duda and P. Hart, Pattern Classification and Scene Analysis, Wiley, New York, 1973.
[5]. R. A. Fisher, "The use of multiple measures in taxonomic problems", Ann. Eugenics, vol. 7, pp. 179-188, 1936.
[6]. Zhao Jiali; Wen Jinwei; Luo Siwei, "Face recognition: a facial action reconstruction and ICA representation approach," Info-tech and Info-net, 2001. Proceedings. ICII 2001 - Beijing. 2001 International Conferences on., vol. 3, pp. 456 -461, 2001.
[7]. Kyung-Yung Choi; Takaya, K., "Facial feature extraction from a video sequence using independent component analysis (ICA)," Communications, Computers and signal Processing, 2001. PACRIM. 2001 IEEE Pacific Rim Conference on., vol. 1, pp. 259 -262, 2001.
[8]. A. X. Guan and H.H. Szu, "A local face statistics recognition methodology beyond ICA and/or PCA," Neural Networks, 1999. IJCNN '99. International Joint Conference on., vol. 2, pp. 1016 -1021, 1999.
[9]. A. S. Georghiades, P. N. Belhumeur and D. J. Kriegman, "From Few to Many: Illumination Cone Models for Face Recognition under Variable Lighting and Pose," IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 23, no. 6, June 2001.
[10]. S. Y. Cho and T. W. S. Chow, "Neural Computation Approach for Developing 3-D Shape Reconstruction Model," IEEE Tran. On Neural Networks, Vol. 12, No. 5, Sep. 2001.