機器學習專題研究:SVM算法選股以及Adaboost增強
摘要: 支持向量機算法支持向量機的最大特點是改變了傳統(tǒng)的經(jīng)驗風險最小化原則,而是針對結(jié)構(gòu)風險最小化原則提出的,因此具有很好的泛化能力。同時,支持向量機在處理非線性問題時,通過將非線性問題轉(zhuǎn)化為高維空間的線性問
支持向量機算法
支持向量機的最大特點是改變了傳統(tǒng)的經(jīng)驗風險最小化原則,而是針對結(jié)構(gòu)風險最小化原則提出的,因此具有很好的泛化能力。同時,支持向量機在處理非線性問題時,通過將非線性問題轉(zhuǎn)化為高維空間的線性問題,利用核函數(shù)替代高維空間中的內(nèi)積運算,從而巧妙的解決了復雜計算問題,并且有效的克服了維數(shù)災難以及局部極小問題。
在不考慮非線性分類的情況下,12個月的樣本數(shù)據(jù)滾動回測結(jié)果顯示出較好的分類效果。強勢組合能夠顯著的跑贏弱勢組合。
Adaboost-SVM組合算法
從Adaboost的角度出發(fā),我們認為利用Adaboost對于每個月的數(shù)據(jù)的SVM分類算法進行增強,可以有效的提高SVM分類的效果。
從線性SVM分類結(jié)果來看,利用12層數(shù)據(jù)的Adaboost組合相比單月SVM效果顯著增強,多空組合收益能夠明顯的區(qū)分開。但對比前述的傳統(tǒng)SVM方法,其多空策略的凈值收益并沒有顯著增加,傳統(tǒng)的SVM模型整體優(yōu)于Adaboost算法下的SVM分類。
非線性分類
在前一篇報告中我們對于非線性分類的處理主要通過對因子的多檔概率統(tǒng)計完成,也具有顯著的效果。為了使SVM模型與之更具有可比性,我們考慮SVM的非線性模型。
將非線性因素考慮進來之后,模型的超額收益顯著高于無SVM的Adaboost算法。多空組合的區(qū)分度明顯,5年的勝率在58%的水平。效果的增強,除了證明我們之前的猜想:弱分類器的選擇可能增加Adaboost算法的效果之外,也從側(cè)面反映了多因子模型中,因子與收益間的非線性關(guān)系。
從結(jié)果上看,Adaboost的效果仍然不如單獨的SVM算法效果,理論上考慮,Adaboost的增強效果是需要建立在弱分類器的基礎(chǔ)上的。SVM算法本身的顯著分類可能對Adaboost算法造成影響。因此,對比概率統(tǒng)計的Adaboost分類,Adaboost-SVM具有顯著的提高,但更優(yōu)的分類方法是非線性的SVM分類。
SVM,分類,Adaboost,算法,非線性








永丰县|
大庆市|
通州市|
庄浪县|
岗巴县|
牟定县|
松江区|
忻城县|
乌恰县|
大冶市|
天镇县|
商都县|
定南县|
滕州市|
昌乐县|
德阳市|
汕头市|
临潭县|
甘泉县|
嘉祥县|
长丰县|
汕头市|
牡丹江市|
柳江县|
双流县|
苏州市|
山阴县|
清原|
湘潭县|
朝阳县|
永德县|
昌黎县|
南乐县|
昌江|
阜平县|
新乡县|
新疆|
建始县|
西畴县|
合川市|
西藏|