14
2011 14 屆科際整合管理研討會 June 25, pp125-138 - 125 - 結合經驗模態分解法與類神經網路在股價預測之應用 Integrating Empirical Mode Decomposition and Artificial Neural Network for Stock Price Forecasting 葉清江Ching-Chiang Yeh 1 齊德彰Der-Jang Chi 2 郭定峪Ting-Yu Kuo 3 摘要 本研究結合經驗模態分解法及類神經網路,藉由經驗模態分解法(empirical mode de- composition, EMD) 將資料分解為數個本質模態函數(intrinsic mode functions, IMF),分解 出的訊號以一天預測一天的方式與類神經網路(neural network, NN)結合,分析股價的時 間序列資料,由於台灣的股價變動有漲跌幅限制,使得股價只能在於有限的幅度中改變, 因此股價間有很強的相關性,前一期的股價能解釋大部分的本期股價,本研究提出新的方 法分析訊號來評估,預測的結果可以做為未來估算股價的依據或指標。研究結果顯示,台 股股價在結合 EMD BPN 之預測模型使用的五項評估指標 MAPE RMSE MAD DSCD 方面,皆優於單一 BPN 預測模型之結果,因此,得知經由 EMD 將原始資料去除雜訊 和分析相位特性後,可有效改善 BPN 模型預測之準確性。 關鍵字:財務時間序列、經驗模態分解法、類神經網路 Abstract The combination of empirical mode decomposition and neural networks, empirical mode decomposition method by the data decomposition into several intrinsic mode functions, the de- composition of the signal to one day predict the way the day combined with neural network to analyze stock time-series data; changes are due to Taiwan's stock price limits, causing the share price is limited only to change the rate, so stock prices have a strong correlation between the former shares one can explain most of the current stock price; This study proposes a new me- thod to analyze the signals to assess, predict the results can be used as the basis of estimated fu- ture stock price or index. The results showed that the combination of EMD with the Taiwan Stock BPN prediction model uses the five evaluation indicators MAPE, RMSE, MAD, DS, CD, the single BPN prediction model are better than the results, therefore, that the original by EMD Analysis of data to remove noise and phase characteristics, it can effectively improve the accu- racy of BPN model prediction. Keywords: Financial time series, Neural network, Empirical mode decomposition 1 台北商業技術學院企業管理系暨商學研究所副教授 2 文化大學商學院會計學系暨研究所副教授 3 文化大學商學院會計學系暨研究所研究生(聯絡地址:台北市士林區華岡路 55 號,聯絡電話: 0926619382 E-mail:[email protected])

結合經驗模態分解法與類神經網路在股價預測之應用 · 股股價在結合emd 與bpn 之預測模型使用的五項評估指標mape、rmse、mad、ds、 cd 方面,皆優於單一bpn

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

  • 2011 第 14 屆科際整合管理研討會 June 25, pp125-138

    - 125 -

    結合經驗模態分解法與類神經網路在股價預測之應用

    Integrating Empirical Mode Decomposition and Artificial Neural Network for Stock Price Forecasting

    葉清江Ching-Chiang Yeh1

    齊德彰Der-Jang Chi2

    郭定峪Ting-Yu Kuo3

    摘要

    本研究結合經驗模態分解法及類神經網路,藉由經驗模態分解法(empirical mode de-composition, EMD) 將資料分解為數個本質模態函數(intrinsic mode functions, IMF),分解出的訊號以一天預測一天的方式與類神經網路(neural network, NN)結合,分析股價的時間序列資料,由於台灣的股價變動有漲跌幅限制,使得股價只能在於有限的幅度中改變,

    因此股價間有很強的相關性,前一期的股價能解釋大部分的本期股價,本研究提出新的方

    法分析訊號來評估,預測的結果可以做為未來估算股價的依據或指標。研究結果顯示,台

    股股價在結合 EMD 與 BPN 之預測模型使用的五項評估指標 MAPE、RMSE、MAD、DS、CD 方面,皆優於單一 BPN 預測模型之結果,因此,得知經由 EMD 將原始資料去除雜訊和分析相位特性後,可有效改善 BPN 模型預測之準確性。

    關鍵字:財務時間序列、經驗模態分解法、類神經網路

    Abstract

    The combination of empirical mode decomposition and neural networks, empirical mode decomposition method by the data decomposition into several intrinsic mode functions, the de-composition of the signal to one day predict the way the day combined with neural network to analyze stock time-series data; changes are due to Taiwan's stock price limits, causing the share price is limited only to change the rate, so stock prices have a strong correlation between the former shares one can explain most of the current stock price; This study proposes a new me-thod to analyze the signals to assess, predict the results can be used as the basis of estimated fu-ture stock price or index. The results showed that the combination of EMD with the Taiwan Stock BPN prediction model uses the five evaluation indicators MAPE, RMSE, MAD, DS, CD, the single BPN prediction model are better than the results, therefore, that the original by EMD Analysis of data to remove noise and phase characteristics, it can effectively improve the accu-racy of BPN model prediction.

    Keywords: Financial time series, Neural network, Empirical mode decomposition

    1台北商業技術學院企業管理系暨商學研究所副教授 2文化大學商學院會計學系暨研究所副教授 3文化大學商學院會計學系暨研究所研究生(聯絡地址:台北市士林區華岡路 55 號,聯絡電話:

    0926619382 ,E-mail:[email protected])

  • 2011 第 14 屆科際整合管理研討會

    - 126 -

    壹、緒論

    由於金融市場逐漸國際化與自由化經濟蓬勃發展,使得股票市場熱絡加上國民所得的

    提高理財投資蔚為風氣,我國金融市場熱絡程度甚至成為一般民眾對於經濟景氣或投資的

    參考指標。根據行政院金融監督管理委員會證期貨局統計,截至 2009 年 7 月底止,上市公司共有 726 家市值合計高達 178931.2 億,上櫃公司有 548 家市值合計 14718.1 億,由此可知股票市場在台灣是一項重要的投資工具。股票市場是複雜的系統其特徵可以連續的

    記錄,由所得到的時間序列來分析描述,大部分股價的研究多專注於社會現象的解釋,然

    近年來數據分析的方法於研究結果與分析的過程中,有著越來越重要的關鍵地位,各種濾

    除雜訊的方法不斷地被學者們所提出,為了令投資相關使用人員能確切地分析股價的變化,

    必須將雜訊的影響給降低;股價能否更可靠的預測是值得研究的,而預測(prediction)目的在於提供企業管理階層與投資大眾做決策時所需要的資訊。

    過去對於股市方面的研究,受限於各項財務比率交互計算的結果,大多有高度的自我

    相關容易造成錯誤預測若利用過去的研究方法,很有可能會輕易的拒絕「變數對股價報酬

    無預測能力」的虛無假說,使得預測錯誤(Campbell and Yogo 2006),所以近年來有越來越多的學者試圖找尋新方法來做技術分析,然股價的波動受到各類投資者相互角力的影響往

    往以非線性(non-linear)與非穩態(non-stationary)的資料型態呈現;投資本身就是一種預測行為目的是獲取利潤,股價是各方資訊相互影響下的結果呈現,不適當的方法會導致

    錯誤的結果使投資人受到傷害,過往研究大多專注於現象上的解釋,隨著機器設備現代化

    令資訊傳遞更為迅速,新的投資分析工具也孕育而生,全球化的投資環境讓股價反應幅度

    更為急遽,因此數據分析在研究的過程中扮演著更重要角色,如何從股市中抽取出重要的

    分析成分為研究的重要課題。

    傳統的統計方法必須滿足特定統計假設才能適用,因此不需針對資料有任何統計假設

    的技術,資料探勘法因運而生,不但能滿足大量運算的需求,且分類及預測之功能可作決

    策之依據(W. Zhang, Q. Cao, M. Schniederjans 2004; Qing Cao , Mark E. Parry 2009);近年來各領域上運用於解決問題的機會越來越多,對於預測股價的技術也更加成熟;有鑑於此本

    研究利用資料探勘法中的類神經網路與用來過濾雜訊的經驗模態分解法結合模式來預測

    股價,先以經驗模態分解法(empirical mode decomposition, EMD)分解股市的時間序列資料,分為數個本質模態函數(intrinsic mode functions, IMF)以得出正確的時間序列相位,接著將經過 EMD 處理之資料結合類神經網路進行預測分析,希望經由 EMD 處理去除雜訊後的資料提升類神經網路的預測準確率,得出更準確的預測模型。

    貳、文獻回顧

    一、經驗模態分解法

    經驗模態分解法(empirical mode decomposition, EMD)是一種基礎的訊號分析工具,

  • 結合經驗模態分解法與類神經網路在股價預測之應用

    - 127 -

    1998 年黃鍔博士在英國皇家學會(The Royal Society)的刊物上(Proc. R. Sec. London A 1998)發表了一篇對震波的新解析方法,稱此方法為經驗模態分解法將一段原始訊號拆解成許多

    平均值為零的訊號,利用資料內部的震盪變化作為能量的析出,將原來訊號分解出多個內

    建模態函數(intrinsic Mode Functions, IMF);此分析方法對非線性(non-linear)與非穩態(non-stationary)之時間序列訊號有較佳分析效果,將時間序列訊號經 EMD 分解成多個 IMF分量,為瞬時頻率與能量(Instantaneous frequency and energy)的變化,非快速傅利葉轉換(fast fourier transform, FFT) 所定義的平均頻率及能量此兩分析方法不同之處在此,EMD以本身的波動特性作為基底,改善使用基底函數的資料非線性與非穩態所產生不盡完善之

    處。目前許多相關研究被提出例如 Cheng, Yu, and Yang (2006)應用 EMD 分解齒輪故障振動信號,降低信號中的雜訊,提升齒輪故障振動信號的判讀。

    二、類神經網路

    類神經網路(neural network, NN)是一種以數學模型模仿生物神經網路所建立出的資訊處理系統,基本架構可分成三個層次:處理單元(processing element, PE)、層(layer)、網路(network);其中人工神經元(artificial neuron)可從外在環境或其他人工神經元取得訊息,並將取得的訊息依重要程度給予不同的權重,加總及轉換後輸出組成,人工神經細胞

    也可稱為類神經元或處理單元(processing element, PE)。類神經網路屬於人工智慧的一種,具有優良的容錯能力,即使資料中參有雜訊也具有準確預測的能力,目前大量應用在股市、

    期貨、債券評等的預測分析及研究。由過去學者的分析研究中發現,具有相當的不錯的預

    測能力、可信度及容錯力來處理龐大複雜的資訊。

    根據(葉怡成 民 88)定義為:「類神經網路是一種計算系統,包括軟體與硬體,使用大量簡單相連的人工神經元來模仿生物神經網路的能力;人工神經元是生物神經元的簡單

    模擬,它從外界環境或其它人工神經元取得資訊,並以非常簡單的運算,輸出其結果到外

    界環境或其它的人工神經元。」圖 2-1 即為人工神經元模型,X1、X2 … Xn 代表輸入值,Wij 為權數值,θj表示加權和,f 代表轉換函數,Yj 則是輸出值。

    每一個處理單元以扇形狀送出,為其它處理單元的輸入,原理是利用一個簡單的結構及運

    算規則模擬其運作,可利用 2-1 式所表示:

  • 2011 第 14 屆科際整合管理研討會

    - 128 -

    𝑌𝑌𝑗𝑗 = F �� 𝑤𝑤𝑖𝑖𝑗𝑗𝑖𝑖 𝑋𝑋𝑖𝑖 − 𝜃𝜃𝑗𝑗 � (2-1)

    2-1 式中,𝑌𝑌𝑗𝑗為類神經網路模仿生物神經元模型的輸出訊號,而 F 為類神經網路模仿生物神經元模型之轉換函數(transfer function),此轉換函數的功能是將其它處理單元所接收的輸入值的加權乘積和轉換成處理單元輸出值的數學公式;至於𝑤𝑤𝑖𝑖𝑗𝑗則為類神經網路模仿生物神經元模型的神經節強度又稱連結權值;用以表示第 i 個處理單元對第 j 個處理單元的影響強度,而𝑥𝑥𝑖𝑖是類神經網路模仿生物神經元模型的輸入訊號,𝜃𝜃𝑗𝑗 則是類神經網路模仿生物神經元模型之閥值。類神經網路主要分為學習程序(learning process)與預測程序(prediction process)兩種,其中學習程序依學習演算法,從樣本中學習調整網路連結權值的過程;而預測程序藉由學習程序中所得到的權值,作為網路連結的權值依預測演算法

    輸入條件推測相對應的輸出結果。

    近年來類神經網路積極被推廣,相關的研究與應用都已發展成熟,應用之領域包含工

    業工程、財務金融、社會科學、自然科學等領域,其中倒傳遞類神經網路(back-propagation network, BPN)在所有類神經網路模式中,為應用最廣最具規模的模式(吳宗正、溫敏杰、侯惠月 2001),倒傳遞類神經網路是由 Rumelhart、McClelland 和 PDP 研究群於 1986 年提出,是一種監督式學習的類神經網路,屬於層狀前饋式網路架構 (layered feed-forward network),常用的非線性轉換函數為雙彎曲函數(Sigmoid function)和雙曲線正切函數(tan function),適合用來做預測和診斷是被廣為應用的類神經網路。

    參、研究方法

    一、經驗模態分解法

    透過經驗模態分解法(empirical mode decomposition, EMD)將來源資料分解為數個本質模態函數(intrinsic mode functions, IMF),EMD 主要是將時間序列分解為內含可適性(adaptive)的 IMF,而不同的資料因為立基的時間序列不同,所推導出的 IMF 亦會不同。依據(吳明佳 民 97)對 EMD 的分解過程說明,相關步驟如下:

    先找出原始資料 的局部極大值、極小值,將各局部極大值、極小值以立方曲線(cubic spline)連結得出上包絡線、下包絡線 ,再平均上下包絡線得到均值包絡線,計算式如下

    (1)

    1. 將原始資料X(t)減去平均值m1可得到分量h1(t) 2. (2)

    m1(t) =U(t) + L(t)

    2

    h1(t) = X(t) − m1(t)

  • 結合經驗模態分解法與類神經網路在股價預測之應用

    - 129 -

    如得出的h1(t)是對稱的,且所有局部極大值均為正值、所有局部極小值均為負值,則所得結果為 IMF 反之則不是,需重覆上面的步驟直到擷取出的信號為 IMF 為止,在此情況時h1(t)將被當作成原始資料並重複

    (3)

    如函數h11(t)仍不滿足 IMF 的要求,則重複上述步驟 k 次直到所得之函數滿足某一可接受的容差經過以上步驟得到時間序列的 IMF,其值為c1 = h1k(t)。接著把原始資料減去第一個 IMF,得差r1

    (4)

    r1 為一殘值,將殘值r1(t) 當作原始數據,再運作一次 1~2 步驟可得到多個 IMFc1,當最後的殘值成為單調函數(monotonic function),無法再解析出 IMF 時,整個 EMD 的分解過程即可視為完成。EMD 的基底是從原始訊號分解而來的,因此這個方法是直觀的、直接的、後知的且具有可適性的。

    上述步驟可整理為公式

    (5) (6)

    EMD 的分解過程主要是將資料中具有週期性的部分篩選出,圖 3-1 上半部為原始資料經 EMD 分解,過程中先找出局部極大值、局部極小值後,連接出上、下包絡線和求出的均值包絡線,下半部為分解出第一個 IMF 後的殘值圖,後再將分解出的殘值重覆上半部之過程以得到其他 IMF 如圖 3-2。

    圖 3-1 EMD 分解過程

    10 20 30 40 50 60 70 80 90 100 110 120-2

    -1

    0

    1

    2IMF 1; iteration 0

    10 20 30 40 50 60 70 80 90 100 110 120

    -1.5

    -1

    -0.5

    0

    0.5

    1

    1.5

    residue

    h11(t) = h1(t) − m11(t)

    X(t) = � ci

    n

    i=1

    (t) + rn

    ri−1(t) − c1(t) = r1(t)

    r1(t) = X(t) − c1(t)

  • 2011 第 14 屆科際整合管理研討會

    - 130 -

    圖 3-2 EMD 分解後之 IMF

    二、類神經網路

    類神經網路是利用電腦模擬人腦的結構,用很多處理單元模擬生物的神經元,組合成

    人腦的神經網路結構型態,然後選定一個數學推論出來的演算法,將此演算法置入類神經

    網路中,選定要讓類神經網路學習的目標,將它轉換成類神經網路所能接受的型態,經由

    介面輸入則類神經網路就開始學習,並且調整每個微處理器(神經元)之間的加權值,直到符合所要學習的目標,模仿實現人腦的識別、記憶、思考過程,常應用在圖像、語言、聲

    音的識別及趨勢預測等。類神經網路最大的優點除可處理非線性資料外,也能彌補傳統迴

    歸模型須假設的缺點,與不論是質變數或量變數均可做為輸出或輸入變數(Rumelhart, Hinton, and Williams 1986)。目前已發展出多種應用模型,倒傳遞類神經網路使用雙彎曲函數(sigmoid function)為激發函數(activation function),訓練過程權數變動的幅度( )則採用最陡坡降法(gradient steepest descent method)調整, 公式如式(1)。

    η為學習率;Tj 為實際值;Aj 為網路輸出值;E 為誤差函數算式如式(2):

    其網路結構通常包

    含三層神經元:輸入層

    (input layer)、隱藏層(hidden layer)與輸出層(output layer)如圖 3-3 所示;資料由輸入層之神經元進入再傳遞至隱藏層之神經元,接著由輸出層神經元輸出,對於處理一般問

    題多使用單一隱藏層,神經元的數量並無一定標準,輸出層神經元的數目大多為希望得到

    的變數數目。於輸入層之變數決定後網路結構中隱藏層單位數、神經元數目、訓練的學習

    率(learning rate)等,需要以主觀邏輯判斷,或以不同組合測試,沒有一定理可資遵循(李天行 民 93)。

    imf1

    Empirical Mode Decomposition

    imf2imf3

    imf4imf5

    imf6

    10 20 30 40 50 60 70 80 90 100 110 120

    res.

    ∆Wij = −η�∂E� ∂Wij� (1)

    E =12�(Tj − Aj)2 (2)

    http://zh.wikipedia.org/w/index.php?title=%E6%A8%A1%E6%8B%9F&action=edit&redlink=1http://zh.wikipedia.org/w/index.php?title=%E6%A8%A1%E6%8B%9F&action=edit&redlink=1http://zh.wikipedia.org/w/index.php?title=%E6%A8%A1%E6%8B%9F&action=edit&redlink=1http://zh.wikipedia.org/w/index.php?title=%E7%BB%93%E6%9E%84&variant=zh-hanthttp://zh.wikipedia.org/w/index.php?title=%E5%A4%84%E7%90%86%E5%8D%95%E5%85%83&action=edit&redlink=1http://zh.wikipedia.org/w/index.php?title=%E7%A5%9E%E7%BB%8F%E5%85%83&variant=zh-hanthttp://zh.wikipedia.org/w/index.php?title=%E8%AF%86%E5%88%AB&action=edit&redlink=1http://zh.wikipedia.org/w/index.php?title=%E8%AE%B0%E5%BF%86&variant=zh-hanthttp://zh.wikipedia.org/w/index.php?title=%E6%80%9D%E8%80%83&variant=zh-hanthttp://zh.wikipedia.org/w/index.php?title=%E5%9B%BE%E5%83%8F&variant=zh-hanthttp://zh.wikipedia.org/w/index.php?title=%E8%AF%AD%E8%A8%80&variant=zh-hanthttp://zh.wikipedia.org/w/index.php?title=%E5%A3%B0%E9%9F%B3&variant=zh-hanthttp://zh.wikipedia.org/w/index.php?title=%E5%A3%B0%E9%9F%B3&variant=zh-hanthttp://zh.wikipedia.org/w/index.php?title=%E5%A3%B0%E9%9F%B3&variant=zh-hanthttp://zh.wikipedia.org/w/index.php?title=%E8%AF%86%E5%88%AB&action=edit&redlink=1http://zh.wikipedia.org/w/index.php?title=%E8%B6%8B%E5%8A%BF%E9%A2%84%E6%B5%8B&action=edit&redlink=1

  • 結合經驗模態分解法與類神經網路在股價預測之應用

    - 131 -

    圖 3-3 類神經網路概念圖

    隱層結點數也就是神經元的數目,是類神經網絡設計中重要的一環,具有無限隱層結

    點的兩層網絡,可以實現任意從輸入到輸出的非線性映射,但對於有限個輸入到輸出的映

    射,就沒有無限個隱層結點的必要,如何選擇隱層結點數是個問題,至今為止尚未找到一

    個很好的公式來求得誤差最小的解,隱層結點數通常使用試誤法並根據前人設計所得的經

    驗,和自己根據所要研究問題的類型進行試誤以確定參數;同理學習率的大小等數值通常

    也試誤法找出最佳數值,其設定會影響輸出結果的準確,學習率太高會使網路無法收斂,

    太低會使網路收斂過慢,一開始的輸出結果並無太大的參考價值,但反覆的比較學習改變

    設定參數,網路會藉由學習而提高精確度,訓練的目的是要使輸出接近目標值,亦即,相

    同的輸入到類神經網路得到的輸出值要非常相似,類神經網路未訓練前輸出是凌亂的,隨

    著訓練次數的增加鍵結值會逐漸被調整,使得目標值與神經網路的輸出兩者誤差越來越小,

    當兩者的誤差幾乎穩定時稱此為已收斂(convergence)學習便完成,當學習完成後即使是未知的新資料數值,完成學習的模型也可做出準確的分析。

    三、結合 EMD 與 BPN 之預測模型

    本研究先使用 EMD 於股價原始訊息之分解與雜訊過濾,然後利用類神經網路用於預測股價結果並參考(Liu Xingjie, Mi Zengqiang, Yang Qixun, Fan Xiaowei and Wu Junhua 2010)使用結合經驗模態分解法(EMD)與倒傳遞類神經網路(BPN)預測股價模型,原始股價透過 EMD 做前置處理將其分解為若干個本質模態函數(IMF),此方式可將資料平穩化且去除雜訊篩選出具代表性成份的 IMF,本研究共分析出 11 個 IMF 包含 1 殘差項,然後以前一天預測後一天的方式將分解出之 IMF 各別正規化置入 BPN 模型中進行預測分析,得出各別的預測結果加總後正規化與單純使用 BPN 模型的預測結果做比較;以五項衡量標準來判定實際值與預測值之間的誤差,MAPE、RMSE、MAD 這三項評估指標之結果數值愈小代表誤差越小預測的結果愈準確,而 DS、CP、這二項評估指標之結果數值愈大代表對於方向性的預測較佳。該結合模型架構如圖 3-4 所示。

    X1

    X2

    X3

    X4

    Y

    輸入層 隱藏層 輸出層

  • 2011 第 14 屆科際整合管理研討會

    - 132 -

    肆、參考文獻格式說明

    一、研究資料與說明 本研究所選擇之資料來自台灣經濟新報資料庫(taiwan economic journal data bank, TEJ)

    台灣加權股價指數每日收盤價之歷史資料。取樣時間自 1995 年 1 月 6 日至 2009 年 12 月31 日共 15 年日資料,共 3903 筆日資料使其中 80%將做為訓練範例,20%將做為測試範例。

    表 1 研究資料樣本數

    資料庫 原始資料 訓練範例 測式範例

    台股股價 1995/01/06

    ~2009/12/31 (共 3903 筆)

    1995/01/06 ~2006/11/13

    (共 3122 筆)

    2006/11/14 ~2009/12/31 (共 781 筆)

    圖 3-4 EMD-BPN 預測模型

    Input

    Output

    Step 1

    Step 2

    Stock Data

    E M D

    S U M

    Prediction Results

    IMF 1 IMF 2 IMF n-1 IMF n R n

    BPN 1 BPN 2 BPN n-1 BPN n BPN n+1

  • 結合經驗模態分解法與類神經網路在股價預測之應用

    - 133 -

    表 2 研究資料之敘述統計

    資料庫 樣本數 中位數 平均數 標準差 最小值 最大值 台股股價 3903 6462 6633.7376 1434.6415 3446 10202 IMF1 3903 1.5669 1.1595 53.0331 -222.25 287.01 IMF2 3903 0.5363 1.329 76.7352 -376.93 392.83 IMF3 3903 -0.9730 -1.6954 113.7568 -556.55 584.39 IMF4 3903 2.014 -0.6135 170.1110 -584.3 586.46 IMF5 3903 18.2814 105.6511 600.1866 -1670.64 3029 IMF6 3903 -21.6394 -107.2895 551.0046 -1847.38 936.92 IMF7 3903 -71.0961 -80.1671 771.1997 -1536.04 1514.67 IMF8 3903 -91.4597 -233.8951 927.8887 -2309.15 1304.42 IMF9 3903 181.1114 94.3766 673.8 -1046.67 1024.61 IMF10 3903 -1.3571 -1.2061 0.5395 -1.81 0 RESDUIED 3903 6660.7008 6856.0883 637.4052 6197.94 8641.21

    本研究為提供新的 EMD 與 BPN 結合方式,驗證 EMD 是否能確實降低 BPN 預測分析之誤差值增加準確度,採用前一天預測後一天,今天預測明天,一天預測一天的方式連

    續對股價實行預測,為使類神經網路預測的準確率提高將原始股價正規化處理後使用

    EMD 結合 BPN 做預測分析,利用 IMF 值累加後可還原回原始股價的物理特性,將分解出來的 11 筆 IMF 原始資料正規化,算式如式(1)

    1.找出資料中的最大值(MAX)與最小值(MIN)。2.設定研究中所需要的區間範圍,最大值(Dmax)與最小值(Dmin)以利資料的比較。3.利用公式(1)處理正規化至所要比較的區域最大值(Dmax)與最小值(Dmin)。

    (1)

    接著以 BPN 各別預測一次得到 11 筆預測資料累加還原為原始的股價正規化後,與單純僅經 BPN 預測後之正規化資料比較兩種方式,所得到的預測結果與原始值的差異測試其預測的誤差,也就是比較結合EMD與BPN混合預測模型與單一BPN模型之預測結果。比較標準將以平均絕對百分比誤差(mean absolute percentage error, MAPE)、均方根誤差(root mean squared error, RMSE)、平均絕對離差(mean absolute deviation, MAD)、方向對稱性(directional symmetry, DS)、正確上漲趨勢率(correct up-trend, CP),五項指標來衡量實際值與預測值之間的誤差,MAPE、RMSE、MAD 這三項評估指標之結果數值愈小代表誤差越小預測的結果愈準確,而 DS、CP 這二項評估指標之結果數值愈大代表預測結果愈準確作為方向性的預測指標。五項指標之公式如表 3 所示。

    𝑉𝑉𝑛𝑛𝑛𝑛𝑤𝑤 =(𝑉𝑉𝑜𝑜𝑜𝑜𝑜𝑜 − 𝑀𝑀𝑀𝑀𝑀𝑀)(MAX − MIN)

    (𝐷𝐷𝑚𝑚𝑚𝑚𝑥𝑥 − 𝐷𝐷𝑚𝑚𝑖𝑖𝑛𝑛 ) + 𝐷𝐷𝑚𝑚𝑖𝑖𝑛𝑛

  • 2011 第 14 屆科際整合管理研討會

    - 134 -

    根據學者(Lewis 1982)將 MAPE 分為四種等級,當 MAPE 值<10%時,即表示其實際與預測的誤差越小,所以有較佳的預測能力;主要分為 4 個類別由好至壞為極佳、優良、合理、不正確如表 4 所示。

    表 3 評估指標公式

    指標 公 式

    MAPE MAPE =1n × ��

    Ti − AiTi

    � × 100%n

    i=1

    RMSE RMSE = �1n × �(Ti − Ai)2

    n

    i=1

    MAD MAD =

    1n × �

    |Ti − Ai|n

    i=1

    DS DS =100

    n × � di

    n

    i=1

    ,其中di = �1(Ai − Ai−1) (Ti − Ti−1) ≥ 00 otherwise

    CP DS =100n1

    × � di

    n

    i=1

    ,其中di = �1(Ti − Ti−1) > 0 𝑚𝑚𝑛𝑛𝑜𝑜 (Ai − Ai−1)(Ti − Ti−1) ≥ 0

    0 otherwise �

    所有算式中:Ti為第 i 個實際值,Ai為 i 個預測值 n1為資料上漲筆數,n2為資料下跌筆數

    表 4 MAPE 預測能力尺度表

    MAPE 預測能力

    <10% 極佳 10%~20% 優良 20%~50% 合理 >50% 不正確

    本研究使用國立中央大學數據分析方法研究中心 Zhaohua Wu 所撰寫之 EMD 工具箱進行 EMD 分解操作環境為 MATLAB 軟體 R2009a 版;類神經網路使用 PCNeuron 4 軟體中之倒傳遞類神經網路分析法。

    二、類神經網路模型訓練

    由於類神經網路是屬於無模式(model free)之分析方法,所以如何決定適合之結構參數,隱藏層之層數及各層內所應包含之神經元結點數目等,是研究的重要的課題之一,雖

    有一定規則可循但各案例本身條件不同,一樣的參數實難以雨露均霑,假使參數設定不佳

  • 結合經驗模態分解法與類神經網路在股價預測之應用

    - 135 -

    亦常會出現學習速度緩慢或陷入局部最佳值(local optimal)等情況導致預測結果不佳。因此,在建立網路模式時對於相關參數的設定須進行多方面的考量,訓練類神經網絡的過程時,

    為使正確率提高分析人員需要將正規化後整理好的學習訓練個數載入網絡系統中,不斷操

    作相關參數訓練網路,當學習訓練程序到達預先設定好的終止條件後也就是使錯誤率降低

    到相對可接受範圍,學習訓練程序便告終止。本研究參數設定參考各類神經網路相關研究

    學者其中以(陳耀茂與殷純淵 民 93)建議為主,為求更佳之訓練結果更納入其他國內外學者建議輔以設定(Zhang, Patuwo and Hu 1998)表示單一隱藏層已適用多數非線性問題;(Lee and Chen 2002)指出隱藏層結點數之設定並無一定標準,建議採用2n − 2、2n −1、2n、2n + 1、2n + 2(n 為輸入層神經元結點數)來測試計算隱藏層結點數,本研究更加計(陳耀茂與殷純淵 民 93)建議先嘗試(隱藏層單元)=(輸入單元)+(輸出單元)與多測試 10、20、30、40 作為隱藏層結點數觀察個別之誤差均方根取其誤差最小繼續試誤;(葉怡成 民92)表示類神經網路之學習率扮演相當重要的角色,數值太大或太小對網路的收斂性質皆不好,學習率通常也以試誤法決定。本研究參考學習率相關的文獻論述,一般認為預測型

    與推估行的問題學習速率定為 1~10 為佳,分類型則定為 0.1~1 為佳,(Davies1994)指出沒有絕對的法則可以決定網路中的參數,只有透過試誤法(try and error)較能找到相對較好的結果。

    本研究利用試誤法多次測試後發現採用 0.1、0.2、0.5、1 、5、10 此 6 種學習率進行測試時可得到較小之 RMSE;對於學習循環次數的試誤,一般問題學習循環次數以 1000次以內為佳,困難問題則為 1000 次以上,本研究採用 300、500、600、1000、2000 次的學習循環(次數)進行試誤,對於慣性因子一般常用 0.5 本研究為求更精確的結果 0.1、0.2、0.3、0.4、0.5、0.6、0.7 此 7 種常出現的慣性因子全部測試。綜合以上所述,本研究 BPN模型採用單一隱藏層,並以n − 2、2n − 1、2n、2n + 1、2n + 2、10、20、30、40取 9種不同神經元結點數,搭配 300、500、600、1000、2000 此 5 種學習循環(次數)和 0.1、0.2、0.5、1、5、10 六種學習速率與 0.1、0.2、0.3、0.4、0.5、0.6、0.7 七種慣性因子、共計 27種參數設定組合,利用試誤法方式比較 27種參數設定組合之輸出結果各別求出 IMF1至 IMF10 與殘差經過類神經網路預測結果共計 297 種測試結果中,從中擇出訓練結果最優良之模型進行混合 EMD 與 BPN 預測模型與單一 BPN 模型作比較。

    三、台股股價實證結果

    研究中先以 EMD 處理台股原始股價資料將其分解為包含殘值在內的 11 個 IMF 算出各原始資料的部份屬性特徵,接著將 11 筆 IMF 數據和未經 EMD 處理的原始資料各別放入 BPN 模型中進行預測分析,得到 11 種預測結果利用其物理特性各別 IMF 相加可還原回原股價,將其利用正規化還原預測值並與原始股價正規化為相同尺度進行比較兩種方式

    的分析結果。從表 5 小結各項類神經網路參數設定,台股股價將使用此設定類型的單一BPN 模型和結合 EMD 和 BPN 之預測模型,並將台股股價 EMD-BPN、BPN、模型之預測結果比較如圖 4-1 所示。

  • 2011 第 14 屆科際整合管理研討會

    - 136 -

    表 5 類神經網路參數設定之彙總表

    名稱 隱藏層結點數 學習循環 改變學習速率 改變慣性因子

    STOCK 10 2000 10 0.7 IMF1 30 500 0.2 0.2 IMF2 2 2000 5 0.4 IMF3 20 2000 5 0.6 IMF4 3 2000 10 0.2 IMF5 20 300 0.5 0.2 IMF6 30 500 0.5 0.2 IMF7 40 2000 1 0.6 IMF8 30 2000 5 0.4 IMF9 40 2000 5 0.6

    IMF10 30 2000 1 0.4 RESDUIED 30 500 0.2 0.1

    圖 4-1 台股股價 BPN 預測結果

    表 6 為結合 EMD 與 BPN 預測模型和單一 BPN 預測模型,使用台股股價所得預測結果之比較,透過比較表 6 之數值可以發現,結合 EMD 與 BPN 預測模型之 MAPE 為 1.2567%,單一 BPN 模型為 1.4552%,RMSE 在結合 EMD 與 BPN 模型為 0.0082,單一 BPN 模型為 0.0103,MAD 在結合 EMD 與 BPN 模型為 0.0068,單一 BPN 模型為 0.0077,三項評估指標皆顯示結合 EMD 與 BPN 預測模型所得到的結果較佳。對於方向強度的預測結合 EMD 與 BPN 預測模型之 DS 為 62.2543,單一 BPN 模型為 31.8480,CP 在結合 EMD與 BPN 模型為 64.8780,單一 BPN 模型為 36.2587 預測方向的準確性在結合模式中對於整體(DS)與漲勢(CP)的方向強度預測較單一 BPN 模式佳。

    表 6 二模型預測結果比較

    EMD-BPN BPN

    MAPE 1.2567% 1.4552%

  • 結合經驗模態分解法與類神經網路在股價預測之應用

    - 137 -

    RMSE 0.0082 0.0103 MAD 0.0068 0.0077

    DS 62.2543 31.8480 CP 64.8780 36.2587

    五、結論

    本研究利用 EMD 對財務時間序列資料做前置處理,將時間序列分解為數個 IMF,所分解出的 IMF 能將雜訊濾除,利用對各個 IMF 之觀察運用可幫助了解資料在的正確性,並利用台灣加權股價指數,探討使用 EMD 對資料做前置處理,與無使用 EMD 做前置處理的資料混合 BPN 做預測分析所得之結果,並比較兩者之 MAPE、RMSE、MAD、DS、CD 評估指標之數值何者較佳。研究結果顯示,台股股價在結合 EMD 與 BPN 之預測模型中使用的五項評估指標皆優於單一 BPN 預測模型之結果。因此,可以得知經由 EMD 將原始資料去除雜訊和分析相位特性後,可有效改善 BPN 模型預測之準確性,二研究方法結合使用,會較單一使用 BPN 模型分析更為準確。

    過去對於時間序列的分析,會因資料之不平隱性、雜訊等問題影響到分析結果,EMD可幫助過濾出正確的資料相位,改善以往所面對之難題,預測的設計是用來降低決策判定

    時對於錯誤範圍的不確定性或風險,不過無法完全消除不確定性與風險,所以本研究基於

    以上原則,認為股價預測的精確性對於使用資訊的人員是重要的,但在有不可避免的錯誤

    與意外發生的前提之下,有效的偶發性計畫也是重要的計畫之一,因此,突發事件也可能

    會影響到預測結果之準確性,且大部分預測相關的研究多為假設過去的行為模式會持續至

    未來所以多使用歷史資料,未來新技術如能跳脫此框架相信應能增加貢獻的內涵,本研究

    希望藉由此新方法提出改善財務時間序列的預測問題,而股價指數的漲跌因素除買賣交易

    外,尚受到政府政策、道德因素、社會風氣等非經濟因素影響。後續研究者可納入不同因

    素對金融市場進行分析,增加內容的豐富性,也可了解不同變數對財務時間序列的預測影

    響是否不同。

    參考文獻

    李天行,唐筱菁(民 93),「整合財務比率與智慧資本於企業危機診斷模式之建構-類神經網路與多元適應性雲形迴歸之應用」,資訊管理學報,第 11 卷,第 2 期,頁 161-189。

    吳宗正、溫敏杰、侯惠月,(民 90),「類神經網路及統計方法在台股指數期貨預測研究之比較」,成功大學學報,第 36 卷人文社會篇,頁 91-109。

    吳明佳,(民 97),「金融時間序列的相位統計分析」,物理雙月刊,第 30 卷,第 3 期,頁257-264。

  • 2011 第 14 屆科際整合管理研討會

    - 138 -

    陳耀茂、殷純淵,(民 93),「類神經網路 PCNeuron 使用手冊」,台北:頂茂圖書出版股份有限公司。

    葉怡成,(民 88),「類神經網路模式與應用實作」,台北:儒林書局。

    Cheng, J. S., Yu, D. J., and Yang. (2006). “A roller bearing fault diagnosis method based on EMD energy entropy and ANN”. Journal of sound and vibration , Vol. 294, pp. 269-277.

    Campbell, John Y., and Yogo Motohiro. (2006). “Efficient tests of stock return predictability”. Journal of Financial Economics , Vol.81 : 27-60.

    Lee, T. S., and Chen. (2002). “Investigating the information content of non-cash-trading index futures using neural network ” .Expert Systems with Applications, Vol.22, No3, pp.225-234.

    Lewis. (1982). “Control of body segment differentiation in drosophila by the bithorax gene complex”. Embryonic development, Vol.1, pp. 269-288.

    Liu Xingjie, Mi Zengqiang, Yang Qixun, Fan Xiaowei, Wu Junhua.(2010). “Wind speed fore-casting based on EMD and time-series analysis”. Taiyangneng Xuebao Acta Energiae Solaris Sinica , Vol.31,No. 8,pp.1037-1041.

    Qing Cao, Mark E. Parry.(2009). “Neural network earnings per share forecasting models: A comparison of backward propagation and the genetic algorithm”. Decision Support Systems, Vol. 47, pp.32-41.

    Rumelhart, D. E., Hinton, D. E., and Williams, R. J. (1986). “Learning internal representations by error propagation in parallel distributed processing”.

    W.Zhang, Q. Cao, M. Schniederjans. (2004). “Neural network earnings per share forecasting-models: a comparative analysis of alternative methods”. Decision Sciences, Vol.35, No.2, pp. 205-237.

    Zhang, G., Patuwo, B. E., and Hu. (1998). “Forecasting with artificial neural networks:The state of the art”. International Journal of Forecasting , Vol.14, No.1, pp.35-62.