導航:首頁 > 股票外匯 > 股票決策樹

股票決策樹

發布時間:2021-07-23 19:05:00

A. 求最小最大後悔值和決策樹問題各兩道!急!

1.結合實例說明什麼是最小最大後悔值法。

最小最大後悔值法也稱薩凡奇決策准則
最小最大後悔值法是指管理者在選擇了某方案後,如果將來發生的自然狀態表明其他方案的收益更大,那麼他(或她)會為自已的選擇而後悔。最小最大後悔值法就是使後悔值最小的方法。
最小最大後悔值法的運用
股票市場上,最小最大後悔值法被稱為最小後悔法,是股票投資者力圖使後悔值降到最低限度的證券投資方法。
由於選取的購買方案往往與預測的企業經營狀況存在很大的差異,這樣就會出現實際收益大大低於目標收益的狀況而使投資者產生後悔。最小後悔法的目的就是要使投資者將這種後悔降低到最低程度。
利用最小後悔法買賣股票的操作程序:
1、列出投資者在各種狀態下的購買方案,並在每一購買方案中選出各自然狀態下的最大收益值。
2、求出各種自然狀態下各種方案的後悔值,其後悔值的公式是:「某方案後悔值」= 「某自然狀態下的最大收益值」-「該方案的收益值」,然後,將此方案的後悔值填入該方案欄中。
3、由此找出各方案在不同自然狀態下的最大後悔值。
4、在各方案的最大後悔值中找出最小的後悔值,最小後悔值所對應的方案即為最優方案。

2.舉例說明決策樹的作用。

決策樹是用二叉樹形圖來表示處理邏輯的一種工具。可以直觀、清晰地表達加工的邏輯要求。特別適合於判斷因素比較少、邏輯組合關系不復雜的情況。
決策樹提供了一種展示類似在什麼條件下會得到什麼值這類規則的方法。比如,在貸款申請中,要對申請的風險大小做出判斷,圖是為了解決這個問題而建立的一棵決策樹,從中我們可以看到決策樹的基本組成部分:決策節點、分支和葉子。
決策樹中最上面的節點稱為根節點,是整個決策樹的開始。本例中根節點是「收入>¥40,000」,對此問題的不同回答產生了「是」和「否」兩個分支。
決策樹的每個節點子節點的個數與決策樹在用的演算法有關。如CART演算法得到的決策樹每個節點有兩個分支,這種樹稱為二叉樹。允許節點含有多於兩個子節點的樹稱為多叉樹。
每個分支要麼是一個新的決策節點,要麼是樹的結尾,稱為葉子。在沿著決策樹從上到下遍歷的過程中,在每個節點都會遇到一個問題,對每個節點上問題的不同回答導致不同的分支,最後會到達一個葉子節點。這個過程就是利用決策樹進行分類的過程,利用幾個變數(每個變數對應一個問題)來判斷所屬的類別(最後每個葉子會對應一個類別)。
假如負責借貸的銀行官員利用上面這棵決策樹來決定支持哪些貸款和拒絕哪些貸款,那麼他就可以用貸款申請表來運行這棵決策樹,用決策樹來判斷風險的大小。「年收入>¥40,00」和「高負債」的用戶被認為是「高風險」,同時「收入<¥40,000」但「工作時間>5年」的申請,則被認為「低風險」而建議貸款給他/她。
數據挖掘中決策樹是一種經常要用到的技術,可以用於分析數據,同樣也可以用來作預測(就像上面的銀行官員用他來預測貸款風險)。常用的演算法有CHAID、 CART、 Quest 和C5.0。
建立決策樹的過程,即樹的生長過程是不斷的把數據進行切分的過程,每次切分對應一個問題,也對應著一個節點。對每個切分都要求分成的組之間的「差異」最大。
各種決策樹演算法之間的主要區別就是對這個「差異」衡量方式的區別。對具體衡量方式演算法的討論超出了本文的范圍,在此我們只需要把切分看成是把一組數據分成幾份,份與份之間盡量不同,而同一份內的數據盡量相同。這個切分的過程也可稱為數據的「純化」。看我們的例子,包含兩個類別--低風險和高風險。如果經過一次切分後得到的分組,每個分組中的數據都屬於同一個類別,顯然達到這樣效果的切分方法就是我們所追求的。
到現在為止我們所討論的例子都是非常簡單的,樹也容易理解,當然實際中應用的決策樹可能非常復雜。假定我們利用歷史數據建立了一個包含幾百個屬性、輸出的類有十幾種的決策樹,這樣的一棵樹對人來說可能太復雜了,但每一條從根結點到葉子節點的路徑所描述的含義仍然是可以理解的。決策樹的這種易理解性對數據挖掘的使用者來說是一個顯著的優點。
然而決策樹的這種明確性可能帶來誤導。比如,決策樹每個節點對應分割的定義都是非常明確毫不含糊的,但在實際生活中這種明確可能帶來麻煩(憑什麼說年收入¥40,001的人具有較小的信用風險而¥40,000的人就沒有)。

B. 我要對股票市場做決策樹的模型,可是不會數據預處理,誰可以幫幫我啊,時間緊急啊

數據預處理可以通過很多股票軟體進行數據生成,然後通過EXCEL軟體進行處理,不過很耗時間

C. 管理學-決策樹問題,求詳解

----------銷路好0.7 100萬
......1--|
. ----------銷路差0.3 -20萬
.
. ------------銷路好0.7 40萬
I--......2--|
. ------------銷路差0.3 30萬
.
. -----擴建4 95萬
. -----------Ⅱ---|
. | -----不擴建5 40萬
......3--|
|
|
---------------銷路差0.3 30萬

方案一:結點1的期望收益是(0.7*100-0.3*20)*10-300=340
方案二:結點2的期望收益是(0.7*40+0.3*30)*10-140=230
方案三:結點4的期望收益是95*7-200=465,大於結點5的期望收益40*7=280,所以銷路好時,擴建比不擴建好,結點3的期望收益是(0.7*40*3+0.7*465+0.3*30*10)-140=359.5
可以看出,三種方案中方案三最好

弄著一個決策樹真費勁,不如在word上好弄

D. 機器學習有哪些演算法

樸素貝葉斯分類器演算法是最受歡迎的學習方法之一,按照相似性分類,用流行的貝葉斯概率定理來建立機器學習模型,特別是用於疾病預測和文檔分類。 它是基於貝葉斯概率定理的單詞的內容的主觀分析的簡單分類。

什麼時候使用機器學習演算法 - 樸素貝葉斯分類器?

(1)如果您有一個中等或大的訓練數據集。

(2)如果實例具有幾個屬性。

(3)給定分類參數,描述實例的屬性應該是條件獨立的。

A.樸素貝葉斯分類器的應用

(1)這些機器學習演算法有助於在不確定性下作出決策,並幫助您改善溝通,因為他們提供了決策情況的可視化表示。

(2)決策樹機器學習演算法幫助數據科學家捕獲這樣的想法:如果採取了不同的決策,那麼情境或模型的操作性質將如何劇烈變化。

(3)決策樹演算法通過允許數據科學家遍歷前向和後向計算路徑來幫助做出最佳決策。

C.何時使用決策樹機器學習演算法

(1)決策樹對錯誤是魯棒的,並且如果訓練數據包含錯誤,則決策樹演算法將最適合於解決這樣的問題。

(2)決策樹最適合於實例由屬性值對表示的問題。

(3)如果訓練數據具有缺失值,則可以使用決策樹,因為它們可以通過查看其他列中的數據來很好地處理丟失的值。

(4)當目標函數具有離散輸出值時,決策樹是最適合的。

D.決策樹的優點

(1)決策樹是非常本能的,可以向任何人輕松解釋。來自非技術背景的人,也可以解釋從決策樹繪制的假設,因為他們是不言自明的。

(2)當使用決策樹機器學習演算法時,數據類型不是約束,因為它們可以處理分類和數值變數。

(3)決策樹機器學習演算法不需要對數據中的線性進行任何假設,因此可以在參數非線性相關的情況下使用。這些機器學習演算法不對分類器結構和空間分布做出任何假設。

(4)這些演算法在數據探索中是有用的。決策樹隱式執行特徵選擇,這在預測分析中非常重要。當決策樹適合於訓練數據集時,在其上分割決策樹的頂部的節點被認為是給定數據集內的重要變數,並且默認情況下完成特徵選擇。

(5)決策樹有助於節省數據准備時間,因為它們對缺失值和異常值不敏感。缺少值不會阻止您拆分構建決策樹的數據。離群值也不會影響決策樹,因為基於分裂范圍內的一些樣本而不是准確的絕對值發生數據分裂。

E.決策樹的缺點

(1)樹中決策的數量越多,任何預期結果的准確性越小。

(2)決策樹機器學習演算法的主要缺點是結果可能基於預期。當實時做出決策時,收益和產生的結果可能與預期或計劃不同。有機會,這可能導致不現實的決策樹導致錯誤的決策。任何不合理的期望可能導致決策樹分析中的重大錯誤和缺陷,因為並不總是可能計劃從決策可能產生的所有可能性。

(3)決策樹不適合連續變數,並導致不穩定性和分類高原。

(4)與其他決策模型相比,決策樹很容易使用,但是創建包含幾個分支的大決策樹是一個復雜和耗時的任務。

(5)決策樹機器學習演算法一次只考慮一個屬性,並且可能不是最適合於決策空間中的實際數據。

(6)具有多個分支的大尺寸決策樹是不可理解的,並且造成若干呈現困難。

F.決策樹機器學習演算法的應用

(1)決策樹是流行的機器學習演算法之一,它在財務中對期權定價有很大的用處。

(2)遙感是基於決策樹的模式識別的應用領域。

(3)銀行使用決策樹演算法按貸款申請人違約付款的概率對其進行分類。

(4)Gerber產品公司,一個流行的嬰兒產品公司,使用決策樹機器學習演算法來決定他們是否應繼續使用塑料PVC(聚氯乙烯)在他們的產品。

(5)Rush大學醫學中心開發了一個名為Guardian的工具,它使用決策樹機器學習演算法來識別有風險的患者和疾病趨勢。

Python語言中的數據科學庫實現決策樹機器學習演算法是 - SciPy和Sci-Kit學習。

R語言中的數據科學庫實現決策樹機器學習演算法是插入符號。

3.7 隨機森林機器學習演算法

讓我們繼續我們在決策樹中使用的同樣的例子,來解釋隨機森林機器學習演算法如何工作。提利昂是您的餐廳偏好的決策樹。然而,提利昂作為一個人並不總是准確地推廣你的餐廳偏好。要獲得更准確的餐廳推薦,你問一對夫婦的朋友,並決定訪問餐廳R,如果大多數人說你會喜歡它。而不是只是問Tyrion,你想問問Jon Snow,Sandor,Bronn和Bran誰投票決定你是否喜歡餐廳R或不。這意味著您已經構建了決策樹的合奏分類器 - 也稱為森林。

你不想讓所有的朋友給你相同的答案 - 所以你提供每個朋友略有不同的數據。你也不確定你的餐廳偏好,是在一個困境。你告訴提利昂你喜歡開頂屋頂餐廳,但也許,只是因為它是在夏天,當你訪問的餐廳,你可能已經喜歡它。在寒冷的冬天,你可能不是餐廳的粉絲。因此,所有的朋友不應該利用你喜歡打開的屋頂餐廳的數據點,以提出他們的建議您的餐廳偏好。

通過為您的朋友提供略微不同的餐廳偏好數據,您可以讓您的朋友在不同時間向您詢問不同的問題。在這種情況下,只是稍微改變你的餐廳偏好,你是注入隨機性在模型級別(不同於決策樹情況下的數據級別的隨機性)。您的朋友群現在形成了您的餐廳偏好的隨機森林。

隨機森林是一種機器學習演算法,它使用裝袋方法來創建一堆隨機數據子集的決策樹。模型在數據集的隨機樣本上進行多次訓練,以從隨機森林演算法中獲得良好的預測性能。在該整體學習方法中,將隨機森林中所有決策樹的輸出結合起來進行最終預測。隨機森林演算法的最終預測通過輪詢每個決策樹的結果或者僅僅通過使用在決策樹中出現最多次的預測來導出。

例如,在上面的例子 - 如果5個朋友決定你會喜歡餐廳R,但只有2個朋友決定你不會喜歡的餐廳,然後最後的預測是,你會喜歡餐廳R多數總是勝利。

A.為什麼使用隨機森林機器學習演算法?

(1)有很多好的開源,在Python和R中可用的演算法的自由實現。

(2)它在缺少數據時保持准確性,並且還能抵抗異常值。

(3)簡單的使用作為基本的隨機森林演算法可以實現只用幾行代碼。

(4)隨機森林機器學習演算法幫助數據科學家節省數據准備時間,因為它們不需要任何輸入准備,並且能夠處理數字,二進制和分類特徵,而無需縮放,變換或修改。

(5)隱式特徵選擇,因為它給出了什麼變數在分類中是重要的估計。

B.使用隨機森林機器學習演算法的優點

(1)與決策樹機器學習演算法不同,過擬合對隨機森林不是一個問題。沒有必要修剪隨機森林。

(2)這些演算法很快,但不是在所有情況下。隨機森林演算法當在具有100個變數的數據集的800MHz機器上運行時,並且50,000個案例在11分鍾內產生100個決策樹。

(3)隨機森林是用於各種分類和回歸任務的最有效和通用的機器學習演算法之一,因為它們對雜訊更加魯棒。

(4)很難建立一個壞的隨機森林。在隨機森林機器學習演算法的實現中,容易確定使用哪些參數,因為它們對用於運行演算法的參數不敏感。一個人可以輕松地建立一個體面的模型沒有太多的調整

(5)隨機森林機器學習演算法可以並行生長。

(6)此演算法在大型資料庫上高效運行。

(7)具有較高的分類精度。

C.使用隨機森林機器學習演算法的缺點

他們可能很容易使用,但從理論上分析它們是很困難的。

隨機森林中大量的決策樹可以減慢演算法進行實時預測。

如果數據由具有不同級別數量的分類變數組成,則演算法會偏好具有更多級別的那些屬性。 在這種情況下,可變重要性分數似乎不可靠。

當使用RandomForest演算法進行回歸任務時,它不會超出訓練數據中響應值的范圍。

D.隨機森林機器學習演算法的應用

(1)隨機森林演算法被銀行用來預測貸款申請人是否可能是高風險。

(2)它們用於汽車工業中以預測機械部件的故障或故障。

(3)這些演算法用於醫療保健行業以預測患者是否可能發展成慢性疾病。

(4)它們還可用於回歸任務,如預測社交媒體份額和績效分數的平均數。

(5)最近,該演算法也已經被用於預測語音識別軟體中的模式並對圖像和文本進行分類。

Python語言中的數據科學庫實現隨機森林機器學習演算法是Sci-Kit學習。

R語言的數據科學庫實現隨機森林機器學習演算法randomForest。

E. 為什麼手動實現決策樹效率比調包低很多

1.每個演算法模塊按照「原理講解→分析數據→自己動手實現→特徵與調參」的順序,「原理加實踐,頂天立地」。
2.拒絕簡單的「調包」——增加3次「機器學習的角度看數學」和3次「Python數據清洗和特徵提取」,提升學習深度、降低學習坡度。
3.增加網路爬蟲的原理和編寫,從獲取數據開始,重視將實踐問題轉換成實際模型的能力,分享工作中的實際案例或Kaggle案例:廣告銷量分析、環境數據異常檢測和分析、數字圖像手寫體識別、Titanic乘客存活率預測、用戶-電影推薦、真實新聞組數據主題分析、中文分詞、股票數據特徵分析等。

F. 10、決策樹屬於( )。

風險型決策:在未來的決定因素,可能出現的結果不能作出充分肯定的情況下,根據各種可能結果的客觀概率作出的決策。決策者對此要承擔一定的風險。風險型問題具有決策者期望達到的明確標准,存在兩個以上的可供選擇方案和決策者無法控制的兩種以上的自然狀態,並且在不同自然狀態下不同方案的損益值可以計算出來,對於未來發生何種自然狀態,決策者雖然不能作出確定回答,但能大致估計出其發生的概率值。對這類決策問題,常用損益矩陣分析法和決策樹法求解;
程序化決策:就是可以根據既定的信息建立數學模型,把決策目標和約束條件統一起來,進行優化的一種決策。比如工廠選址、采購運輸等等決策。這種決策是可以運用籌學技術來完成的。在這種程序化決策中,決策所需要的信息都可以通過計量和統計調查得到,它的約束條件也是明確而具體的,並且都是能夠量化的。對於這種決策,運用計算機信息技術可以取得非常好的效果。通過建立數學模型,讓計算機代為運算,並找出最優的方案,都是在價值觀念之外做出的,至少價值觀念對這種決策的約束作用不是主導因素。
悲觀決策:採用悲觀決策准則,通常要放棄最大利益,但由於決策者是從每一方案最壞處著眼,因此風險較小。小中取大法又稱為最小風險法,是一種把風險降低到最小程度來獲取收益的股票投資方法。最小風險法是一種較為穩妥的股票投資決策方法,較適合保守型的股票投資者採用。
樂觀決策:
大中取大法又稱樂觀法、大中取大原則、樂觀決策法、冒險法、最大的最大收益法,採用這種方法的管理者對未來持樂觀的看法,認為未來會出現最好的自然狀態,因此不論採取哪種方案,都能獲取該方案的最大收益。

由於決策樹,是對事物進行定量和定性分析,採用各類事物產生的概率及風險進行評估,所以選A

G. 股市中的量化交易是什麼意思呢

量化交易(quantitative Trading)是利用數學、統計、計算機的模型和方法來指導在金融市場的交易,可以自動下單業可以半自動下單,這個不是核心,核心在於是不是系統化交易(systematic trading)。

比如主觀交易會看K線交易,量化交易業會,但區別在於量化交易可以在歷史數據上回測各種交易規則,找到表現好的,然後才用來交易。這或許會有過度擬合的風險,但也有一些方法克服。

量化交易雖然有很多優點,但是真的能戰勝市場,並且保證勝率,我覺得很難說。

H. 某企業擬推出產一種新產品,現有三個方案可供選擇,有關資料如下表,試畫出決策樹並進行決策。

方案A的預期貨幣價值EMV=0.4*200+0.35*80+0.25*(-30)=100.5

方案B的預期貨幣價值EMV=0.4*100+0.35*40+0.25*0=54

方案C的預期貨幣價值EMV=0.4*50+0.35*40+0.25*30=41.5

每年預計收益方案A:100.5-250/6=58.8

每年預計收益方案B:54-90/6=39

每年預計收益方案C:41.5-40/6=34.8

所以應當選擇方案C.

圖在WORD中畫的,不太好,不過能說問題。符號採用美國項目管理協會規范,你可以根據企業具體標准修改。

I. 決策樹 python 代碼實現後 怎麼應用到實際中去

(1)#按照市值從小到大的順序活得N支股票的代碼;(2)#分別對這一百隻股票進行100支股票操作;(3)#獲取從2016.05.01到2016.11.17的漲跌幅數據;(4)#選取記錄大於40個的數據,去除次新股;(5)#將文件名名為「股票代碼.csv」。

閱讀全文

與股票決策樹相關的資料

熱點內容
理財講座報告 瀏覽:563
快漲停股票 瀏覽:704
華中數控屬於哪個基金 瀏覽:832
招商證券股指期貨手續費調整 瀏覽:257
融資計劃書模板怎麼寫 瀏覽:29
第一理財年化 瀏覽:637
基金凈值公告方式 瀏覽:502
綠化貸理財安全嗎 瀏覽:217
離婚後再供房貸款買房 瀏覽:805
今天千足金的價格 瀏覽:587
理財取款程序 瀏覽:183
信託百世物流 瀏覽:676
注冊公司融資性 瀏覽:997
浦發輕松理財金卡條件 瀏覽:881
科創基金發銷渠道 瀏覽:995
45鋼價格2016 瀏覽:720
新設融資 瀏覽:157
中原內配私募基金被騙 瀏覽:347
32美元等於人民幣多少錢 瀏覽:96
期貨實盤秀怎麼沒了 瀏覽:268