回首 2017 年許多虛擬貨幣的大幅漲勢、多方利多消息以及區塊鏈技術宣導,使得世界更多人認識了虛擬貨幣,各國政府、媒體、金融界、投資客們也紛紛注意到虛擬貨幣所帶來的影響,華爾街也有金融機構設立虛擬貨幣交易所,促使了虛擬貨幣的崛起,更有媒體因此稱 2017 年為虛擬貨幣元年

 

凡是有在關心虛擬貨幣市場的投資者應該都有注意到在 2017 年 11月至 12 月期間,眾多大幣齊跌的情況下,一個沉寂許久的虛擬貨幣逆風成長,從 11 月初的 0.186 美元至 12 月底的 2.73 美元

(數據參考於 https://coinmarketcap.com/),最大漲幅接近 1460 %之多。

 

相較於比特幣,此幣更從 ฿ 0.00001331 到 ฿ 0.00020052

(數據參考於 https://coinmarketcap.com/),最大漲幅更達到 1500 % 。

總市值更一路往上衝,擠下了以太幣,成為目前排行第二的虛擬貨幣

那就是今天這篇文章的主角 - 瑞波幣 Ripple

xrp_dec.png

瑞波幣於 2017 年 11 月與 12 月分別有數波漲勢使得瑞波幣價值大幅提升,擷取自 coinmarketcap

coin_rank.jpg

瑞波幣於 2017 年底一波漲勢擠下以太幣成為第二大虛擬貨幣,擷取自 coinmarketcap


貨幣圖示

貨幣名稱 貨幣用途

xrpfront.jpg

瑞波幣

Ripple Credits

XRP

國際轉匯、支付

發行公司 創辦人 發行時間 總發行量 總市值
Ripple Labs Chris Larsen 2011-04-18 約 1000 億枚 125,048,797,392

 

瑞波幣 Ripple 是一種提供利用區塊鏈技術於全球支付網路系統。提供了法定貨幣與瑞波幣之間的雙向通道,使金融業者可以透過此支付網路以 P2P 的方式替客戶進行國際間匯款、網路信貸等等,使得交易速度極快、交易可靠、還能降低成本。

 

在一般的法定貨幣兌換或是國際匯款情形,普遍會有費時且手續費昂貴的情形。世界上法定貨幣有許多種(大約 180 多種),法幣之間兌幣組合接近 1 萬 6 千多種,打個比方每年台灣新台幣(NTD)與蒙古圖格里克(Tugrik)兌幣量少,通常必須金融機構經過第三種或第四種的法定貨幣兌換才能夠完成,造成在轉換間除了手續繁雜、手續費高之外,還需要很長的時間才能完成。且由於交易多半透過第三方金融機構,交易過程可能會存在作業人員疏失駭客竄改資料等疑慮,使得款項無故遺失。

 


瑞波支付網路提供了任意法定貨幣的雙向支付,可以以任何一種法幣轉換成瑞波幣進入或移出支付網路進行交易。

 

假設身在台灣的小明想透過瑞波支付網路匯款給人在蒙古的小華:

1. 小明透過有使用瑞波支付網路平台的金融機構或是向交易平台購買等價的瑞波幣

2. 小明將瑞波幣從自己的瑞波幣錢包位址傳送至小華的瑞波幣錢包位址

3. 小華在收到瑞波幣後即可透過交易所或金融機構兌換回圖格里克,完成一筆國際匯款交易。

 

由於是透過區塊鏈方式傳送,區塊間眾多帳本皆會記載這筆交易是從小明的錢包位址傳送一筆瑞波幣至小華的錢包位址,使得交易匿名(只看得見錢包位址)且較為可靠,透過虛擬貨幣進行交易議會使得時間非常短(約 4 秒)且交易費低廉(手續費低亦為虛擬貨幣的一大特點)。

 

更加深度資訊

【深度觀點】為何瑞波能成功,而瑞波幣卻可能一文不值


Chris-Larsen.png

瑞波幣共同創辦人之一 Chris Larsen

 

瑞波幣總發行量共約 1000 億枚,但其實在外流通數量僅約 380 億枚左右,而 Ripple 公司持有約 631 億,光是 Chris Larsen 個人所直接或間接所持有即約 156 億枚(包含個人持有以及公司股份),以目前瑞波幣一枚價格約 3.25 美元換算,Chris Larsen 光靠瑞波幣即有約 507 億元的身價,晉升成為億萬富翁排行榜中的第五名。

 

 

參考資料:

瑞波幣官方網站

瑞波幣創辦人晉升億萬富翁,看他如何催生市值第二大加密貨幣

Ripple 这种虚拟币与比特币 (Bitcoin) 又有什么区别和关联?

Digging Deeper With Ripple: The Internet Of Money

coinmarketcap


內容大部分擷取自 官方網站及網路新聞
僅供學習交流,如有任何侵權問題,煩請不吝告知,將立即移除
有任何問題歡迎留言交流,感謝
文章標籤

Lachlan 發表在 痞客邦 留言(0) 人氣()

相較於 UDP 來說,TCP 屬於較安全的通訊協定,

絕大多數通訊協定接是以 TCP 方式做連結,

在每次封包來往皆會有一組傳輸與確認的訊息,

可以避免因為丟包所產生的影響,但相對的傳輸速度較慢, 

少部分像 Youtube 或 skype 影像會議等,為了確保速度而選擇使用 UDP 協定。

其中在開啟與目標 IP 的連結前,TCP 協定會先與目標 IP port 進行三向交握來做連結確認。


三向交握(Three Way Handshake):

先以一個例子來作說明,

小明今天撥了一組電話號碼打到小華家

接通後...

小明:喂,請問小華在嗎?

小華:我就是,來電顯示是小明的電話號碼,請問你是小明嗎?

小明:對呀,就是我

上面這三句就很像 TCP 進行連結前確認的三向交握對話

在與目標 IP 建立連結前,TCP 協定會先丟一個小封包給目標 IP,

這個用來測試的封包會帶有 [ SYN ](Synchronize, 同步)的旗幟(flag),

等目標 IP 收到這個 [ SYN ] 封包後則會回傳一個帶有 [ SYN, ACK ](Acknowledge, 確認)的封包,

告訴我們目標 IP 有收到囉!!

這時我們會在發送一個 [ ACK ] 的封包給目標 IP,即完成了整個三向交握。

整個過程就像下圖,圖片取自 https://blog.jason.party/7/three-way-handshake

Three-way-Handshake1.png

若沒有三向交握,將無法與任何外部主機建立連線。 

透過 Wireshark,來看一組三向交握的例子

Image.png

位置發送一個 SYN 封包至欲連線端口 31.13.87.5 以建立連線,從 TCP header 中的 Flag 可得到此封包為 SYN  的標記,並且會從目標端口接收到 SYN, ACK 標記之封包,接著發送 ACK 標記的封包以完成連線確認。

端口在接收到 ACK 包時會先連接追蹤發包的來源,若沒有連接追蹤,防火牆會無法判斷 ACK 包是屬於哪個已經建立的連結,一般封包過濾 (Ipchains) 會讓他直接通過,會有資訊安全方面疑慮,而狀態型防火牆會檢查連接表中是否有對應的連結位置,若找不到則丟棄該包。
 

TCP 協定封包傳輸:

TCP 封包傳送會有接收確認訊息,如下圖及說明。
 
正常傳送情況:

Image.png

封包在傳送間會設定計時器,

當網路延遲過久,發送端遲遲未接收到確認包時,

則會判定封包遺失,重新發送該封包,

若確認接收則會取消該封包計時器,繼續傳送下一個封包。

 

封包遺失情況:

Image2.png

由於接收端可能因為網路延遲,

導至傳送端重覆傳送相同封包,

因此傳送協定會為每個封包給予序號,

序號除了能供接收端進行封包排序外,

當接收端接收到相同序號封包時則會直接丟棄。


 
四向交握(Four Way Handshake)
Four-way Handshake 是用來關閉連線,封包的發送順序如下:
 
1. (B) --> [ ACK/FIN ]--> (A)
2. (B) <-- [ ACK ]<-- (A)
3. (B) <-- [ ACK/FIN ]<-- (A)
4. (B) --> [ ACK ]--> (A)
 
從上述四個程序中可看出,TCP 在關閉連線亦必需是雙向確認,各發送一組 ACK/FIN 使對方確認關閉,
通常有四個,若只看到兩個可能是為了使連線 Keep-Alive,若有其他傳輸需求時可繼續連線,而不必重新建立。
 
僅有 FIN 標記的封包通常被認為是惡意的
 

 

連接復位(Resetting a Connection)
 
(A) --> [ RST ]--> (B)
 
連接復位也是用來關閉連線的一種方式,較快速,
藉由發送 RST (Reset) 包,不帶 ACK 旗幟,且不必等到接收方發送 ACK 包,即單方面立即關閉連線
 

 
常見的惡意攻擊封包像是帶有 [ SYN/FIN ]、[ SYN/RST ]、[ SYN/FIN/PSH ]、[ SYN/FIN/RST ]、[ SYN/FIN/RST/PSH ] 旗幟的封包
還有像是 TCP 封包若不帶任何旗幟 [ NULL ] 也可能是帶有惡意。
 
 
參考來源:
 中勝拼圖 Jason Puzzle - TCP 三向交握 https://blog.jason.party/7/three-way-handshake
 

 

有任何問題或有錯誤麻煩不吝指教,感謝。
By Lach

Lachlan 發表在 痞客邦 留言(0) 人氣()

課程Outline
1. 多特性問題(Multiple features)
2. 參數調整(Parameter scaling)
3. 學習速率(Learning rate)
4. 多項式迴歸模型(Features and polynomial regression)
5. 正規方程式(Normal equation)

多特性問題(Multiple Features)

machine learning model 多半考量到的特性不會只有一個, 下圖為以房價問題為範例,考量多特性下的問題
01.png
 圖 2. 1 多特性房價問題
 
如圖 2. 1 所考量到多種特性, 包括坪數(01-1.png)、房間數(01-2.png)、樓層數(01-3.png)、屋齡(01-4.png),最後一項則是價格(01-5.png
 
會用到的一些符號如下:
 
01-6.png
 
以房價問題為例
02.png
圖 2. 2 符號範例
 
我們可以將模型改為多特性模型, 如下圖 2. 3
03.png
圖 2. 3 多特性模型
 
加上 03-1.png =1 的條件下, 可進一步將模型轉成矩陣形式, 在某些程式中使用矩陣運算會較比重覆運算(while do、for loop 等)快(matlab、Octave 等等), 如圖 2. 4
04.png 
圖 2. 4 矩陣形式多特性模型
 
此時多特性在使用梯度下降法時, 在特性更新部分公式將更改如下:
05.png
圖 2. 5 多特性模型特性更新公式
 
多特性考量下的代價函式也將變成圖 2. 6 的形式
 
06-1.png
06-2.png
圖 2. 6 多特性代價函式
 

參數調整(Feature Scaling)
 
考量問題中, 參數的範圍及單位通常較不一致, 如房價問題中的坪數(size)與房數(number of bedrooms)的範圍就有相當大的差別, 此時會得到像圖 2. 7(左)一樣相當狹長, 利用此種比例進行求解時, 由於 06-3.png 的更新不能太快, 會使得 06-4.png 更新過慢, 導致 Gradient Descent 收斂過慢。
 
07.png
圖 2. 7 參數縮放範例
 
在透過 Feature Scaling 調整後的變數, 如圖 2. 7(右)所有變數皆除以自己的最大值, 改以比例做為變數, 使變數之間的落差不會太大, 以提升 Gradient Scaling 的效率
 
最適當的是將參數調整到 07-1.png
08.png
圖 2. 8 最佳參數縮放範圍
 
標準化(Mean Normalization)
透過標準化公式 08-1.png 使原來求解變數更貼近 0, 08-2.png 在此代表總範圍, 亦能以標準差帶之
 
假設現有 08-3.png, 其範圍在 100 ~ 2000之間, 平均值為 1000
則標準化後即為 
09.png
圖 2. 9 變數正規化調整

學習速率(Learning Rate)
 
在 week 1 我們曾提到學習速率 09-1.png 會影響到 Feature (09-2.png)是否進行正確的更新(是否使得代價函式收斂), 收斂速度是否太慢
 
1. 是否正確更新?(代價函式值是否收斂?)
在探討學習速率設定前, 我們必須先探討關於 Gradient Descent 的收斂條件,, 常用以代價函式小於門檻值 09-3.png 做為收斂條件(通常設定為 09-4.png
 
10.png
圖 2. 10 代價函式與迭代次數相關圖
 
以圖 2. 10 為例, 代價函式值(y 軸)隨著迭代次數(x 軸)的增加而逐漸降低, 表示 09-1.png 所訂定的値確實能使代價函式收斂, 而當代價函式值收斂至小於 09-3.png09-4.png), 則表示以得到最佳模型
 
2. 收斂速度
可以透過代價函式迭代次數所繪製的相關圖來做判斷,以圖 2. 11 為例:
假設初始 09-2.png 為相同的情況下, 14
圖 A 能以較少的迭代次數即使代價函式收斂,09-1.png 數值屬於較佳的學習速率
圖 B 相較於圖 A 必需消耗掉較多的迭代次數才能緩緩的收斂,有 09-2.png 更新過慢的情況,此時 09-1.png 過小
圖 C 可以輕易看出隨著迭代次數的增加,代價函式值會逐漸上升,表示 09-1.png 值過大使代價函式發散
 
11.png
圖 2. 11 代價函式與迭代次數相關圖(例)
 
為何會使代價函式發散呢?
以圖 2. 12 為例,左邊兩張圖皆為發散的情況,亦即在每次 09-2.png 更新時,由於 09-1.png 過大導致更新幅度過大而跳過了頭,讓代價函式越來越發散,此時必須要適當的調小 09-1.png 數值。
 
12.png
圖 2. 12 代價函式與迭代次數相關圖(左) 代價函式與特性相關圖
 
如何選擇 09-1.png 值呢?
可以透過逐步倍數增加的 09-1.png 值來做測試
像是 0.001 -> 0.003 -> 0.01 -> 0.03 -> 0.1 ...逐步 3 倍的調高 09-1.png 值,使得收斂快又不會使代價函式發散。
 

多項式迴歸模型 (Features and Polynomial Regression)
 
有些 training data 在生成模型時,以多項式迴歸模型可能會產生更適切的模型
 
13.png
圖 2. 13 多項式迴歸模型
 
以圖 2. 13 而言,紅色叉叉為 training data
當加入二次項至模型中時(如藍色線), 模型卻時會較貼近 training data 而得到較佳的模型
但我們可以發現在後段時藍色線段會往下, 但怎麼可能房子越大, 價錢反而越低呢...
 
為了使模型能更貼近實際情況,可以透過加入三次項以將模型進行修正(如綠色線), 但必須注意到這些多次方變數會使得範圍擴大, 必須使用 Feature Scaling 來調整範圍。
 
另一種可行的調整方式, 如圖 2. 14中所示, 透過次方項開根號能使平方項影響縮小使其逐漸往上
14.png
圖 2. 14 多項式迴歸模型
 

正規方程式(Normal Equation)
 
與 Gradient Descent 以迭代漸進求解的方式不同, 正規方程式透過解析法(analytically)的方式一次求解 09-2.png
首先必須先知道什麼是 Design Matrix(X)與反應變數( 01-5.png) 矩陣
 
以圖 2. 15 為例
15.png
2. 15 正規方程式(例)
 
在圖表中有包含兩個變數(15-1.png)以及反應變數(01-5.png), 在構成 Design Matrix 前必須先加上常數項的變數(03-1.png), 並令其值皆為 1
接著將所有 training data 數值以矩陣形式填入值, 即為 Design Matrix, 而反應變數矩陣顧名思義就是反應變數(01-5.png)所構成的矩陣
以此方式可以得到 Design Matrix 與反應變數矩陣如下:
16.png
圖 2. 16 Design Matrix 與反應變數矩陣
 
正規方程式求解最佳 09-2.png 值的公式為

16-1.png

 
課程中不證明此公式
以正規方程式進行 09-2.png 值運算時,不需要先對變數做 Feature Scaling。
 
梯度下降法正規方程式的比較:
假設現在有 m 個 training data 及 n 種特性
 
梯度下降法 正規方程式
優點  優點
即使 n 大時依然可以運行的很好 不必選擇 09-1.png 值
  不必做迭代運算
缺點 缺點
需要選擇 09-1.png 值 需要計算 16-2.png
需要進行迭代運算 n 大時會非常慢(16-3.png
 
正規方程式額外探討
Non-invertible(不可逆)
何時會有 Non-invertible 的情形呢?
  1. 當問題中有兩個特性之間存在相關性過大, 會導致退化(Degenerate)而造成不可逆現象, 比方說房價問題中, 有一特性為坪數(呎), 另一特性為坪數(公尺)由於 1 公尺 = 3.28 呎, 兩特性間存在極大的相關性(能夠以其中一特性值推導出另一特性值)
  2. 問題考量太多特性, 當 m < n 時, 可以刪掉一些特性不考量, 或是只用 正規化(Regularization), 在第三週將會提到

內容大部分擷取自 Coursera online courses - Machine Learning by Prof. Andrew Ng
僅供學習交流,如有任何侵權問題,煩請不吝告知,將立即移除
有任何問題歡迎留言交流,感謝
By Lach
文章標籤

Lachlan 發表在 痞客邦 留言(0) 人氣()

課程Outline
1. 監督式學習(Supervised learning)簡介
2. 非監督式學習(Unsupervised learning)簡介
3. 模型表示(Model representation)
4. 代價函式(Cost function)
5. 梯度下降法(Gradient descent)

監督式學習(Supervised Learning)
 
Supervised Learning 即是代表測試 dataset 會有正確答案
01.png
 
圖 1. 1 房價預測問題
 
如圖 1. 1 紅色叉叉即表示該棟房子之坪數與其正確價位, Housing Price 即屬於一種迴歸問題, 模型會影響預測準確性
02.png
圖 1. 2 良性/惡性腫瘤問題
 
Breast Cancer 即屬於一種分類問題, 加入年齡特性為考量時可繪製成如圖 1. 3 的 2 維圖
03.png
圖 1. 3 二維良性/惡性腫瘤問題
 
如圖 1. 3 中分類問題透過一條線將類別進行切割, 使得其能以特性進行預測。
 
以上述問題中的特性(features), 如房價問題中的 size in feet, 或腫瘤問題中的 Tumor size 及 Age 都是預測問題中的特性, 然而實際上問題中能夠考量的特性非常多, 如房價還可以考量到當地氣候、離學校的距離、鄰居教育水平等等,腫瘤問題則像是腫瘤形狀、厚度、患者性別、生活習慣等等
 
在無限多種特性難以選擇下, 可以使用一種演算法稱為-支援向量(Support Vector)
 

 
非監督式學習(Unsupervised Learning)
 
Unsupervised Learning 中,所有樣本沒有對錯優劣之分, 也沒有任何 tag, 但樣本之間具有 Structure, 可以分成多個群組 (Clusters)
04.png
圖 1. 4 非監督式分群問題
 
以 Google News 為例:
05.png
圖 1. 5 Google News 頁面
 
Google 每天會把相似主題的新聞分至同一群中, 如圖 1. 5 所標示的紅線連結皆是與該新聞 Topic 相關的報導, 將報導連結分類供感興趣的人方便觀看
 
06.png
圖 1. 6 其他非監督式學習例子
雞尾酒宴會問題  Cocktail party problem
07.png
圖 1. 7 雞尾酒宴會問題
 
在一個宴會下, 兩人同時在說話,較難以辨別雙方在說什麼, 透過不同距離的麥克風所收到的音, 可以較清楚聽見 Speaker #1與Speaker #2所說的內容, Microphone #1 收到較清晰的 Speaker #1 說話內容, Microphone #2 則收到較清楚的 Speaker #2 聲音, 就像是替吵雜的聲音分了群組
 

模型表示(Model Representation)
 
監督式學習(Supervised Learning)
 
08.png
圖 1. 8 監督式學習模型符號
 
m 即是 training dataset 的樣本數量
一組 training data 可以用 08-1.png 表示, 而第幾個樣本則可用上標加註 08-2.png

09.png

 
圖 1. 9 監督式學習預測(房價問題為例)
 
h: Hypothesis
如圖 1. 9 中, 投入所欲預測的房子坪數,藉由監督式學習模型 h 可以得到預測的房價
線性迴歸模型 09-1.png
其中 09-2.png 為參數(parameters)
 

代價函式(Cost Function)
 
代價函式
 
10.png
圖 1. 10 參數設定及其代價函式
 
我們必須透過 training data 來求得 09-2.png,進而產生最適切的模型
11.png
圖 1. 11 參數設定及其代價函式
 
 
在線性迴歸函式中, 最常見代價函式為最小平均平方差法

11-1.png

 
原本式中是除以 m 得平均, 但為了後續最小化參數部份進行微分, 而多除以 2 使其微分後能夠抵銷
在極小化代價函式下找出最佳的 09-2.png 
12.png
圖 1. 12 代價函式計算
以上圖為例來計算代價函式, 假設橘色點為 training data, 求代價函式 12-1.png

12-2.png

我們必須找到一個 12-3.png 使代價函數極小化, 因此可以畫出一個如圖 1. 13 二維極小化的凸函數圖形

13.png
圖 1. 13 參數與代價函式相關圖
 
整個 Machine learning 的參數、模型、指標可整理如下:

 

14.png

圖 1. 14 所需參數、模型、指標
 
若模型具有二維參數 09-2.png, 則參數與代價函式將變成如圖 1. 15 三維的曲面圖了
15.png
圖 1. 15 參數與代價函式相關圖
 
 

梯度下降法(Gradient Descent)
 
以迭代使代價函式極小化以求出較佳參數θ0θ1
 
16.png
圖 1. 16 梯度下降法示意圖
 
如圖 1. 16 隨著每次迭代的參數與其代價函式, 逐步計算下一代的參數,直到找到區域最佳解(Local Optima Solution), 但在不同初始位置時, 可能導致所找到的區域最佳解不同
 
17-1.png 17-2.png
圖 1. 17 梯度下降法參數更新公式
 
其中 17-3.png為代價函式的切線斜率,以 17-4.png為例,其切線斜率為 17-5.png
若切線斜率為正(圖 1. 18 左),則更新公式會使 12-3.png 往左調整使代價函式變小。
若切線斜率為負(圖 1. 18 右),則更新公式會使 12-3.png 往右調整使代價函式變小。
 
18.png
1. 18 參數斜率與代價函式示意圖
 
其中 18-1.png 為學習速率(Learning rate),會影響每次迭代參數的收斂速度:
18-1.png 小時(圖 1. 19 左),收斂過慢。
18-1.png 大時(圖 1. 19 右),收斂快但可能會發散。
 
19.png
圖 1. 19 學習速率大小與代價函式示意圖

內容大部分擷取自 Coursera online courses - Machine Learning by Prof. Andrew Ng
僅供學習交流,如有任何侵權問題,煩請不吝告知,將立即移除
有任何問題歡迎留言交流,感謝
By Lach
 
文章標籤

Lachlan 發表在 痞客邦 留言(0) 人氣()

以下內容皆為 陰線陽線 一書中的內容整理,僅供參考

K線

 

反轉型態

反轉型態出現即表示趨勢變動的型態,代表目前既有的趨勢可能發生變化,但不一定是反轉。


下圖為各種K線組合訊號,取自 MIO株式投資六脈神劍入門,訊號條件、規則如下:

多頭反轉型態

1.jpg

槌子 多頭吞噬 多頭母子 多頭母子十字 倒狀槌子 貫穿線
  1. 單根K線實體很小,且位於當日最高價附近,顏色不重要。
  2. 下影線很長,至少為實體兩倍。
  3. 上影線很短或沒有。
  4. 與吊人相似,只是行情趨勢不同
  1. 第二根紅K實體必須包覆第一根綠K實體。
  2. 行情必須是下降趨勢。
   
  1. 單根K線實體很小,且位於當日最低價附近,顏色不重要。
  2. 與流星相似,只是行情趨勢不同。
  1. 第二根紅K實體必須低於第一根綠K實體。
  2. 第二根實體必須貫穿第一根實體50%以上。
  3. 反轉效果不如多頭吞噬。
星形十字 晨星 晨星十字 棄嬰 三星

多頭遭遇線

  1. 綠K後跳空一個十字。
  1. 行情為空頭趨勢。
  2. 第一根長綠K,第二根跳空且實體短,第三根紅K實體深入第一根綠K實體。
  3. 第二根K線若跟第一、三根之間存在缺口則反轉威力更強。
  1. 與晨星相似,力道較晨星強。
  1. 與晨星十字相似,但力道較晨星十字強。
  2. 第二根K線影線與第一、三根K線之影線不重疊。
   
多頭執帶 獨特三河床 三白兵 多頭起跑 內困三日翻紅 外側三日上升
           
南方三星 閨中乳燕 三明治 多頭反撲 飛鴿歸巢 梯底
           
低價配 顛倒的雙鴨躍空 顛倒的雙鴨 顛倒的大敵當前 顛倒的步步為營  
           

 

空頭反轉型態

S__13328405.jpg

吊人 空頭吞噬 空頭母子 母子十字 流星 烏雲罩頂
  1. 單根K線實體很小,且位於當日最高價附近,顏色不重要。
  2. 下影線很長,至少為實體兩倍。
  3. 上影線很短或沒有。
  1. 第二根綠K實體必須包覆第一根紅K實體。
  2. 行情必須是上升趨勢。
   
  1. 單根K線實體很小,且位於當日最低價附近,顏色不重要。
  1. 第二根綠K實體必須高於第一根紅K實體。
  2. 第二根實體必須貫穿第一根實體50%以上。
  3. 反轉效果不如空頭吞噬。
星形十字 夜星 夜星十字 棄嬰 三星

雙鴨躍空

  1. 綠K後跳空一個十字。
  1. 行情為多頭趨勢。
  2. 第一根長紅K,第二根跳空且實體短,第三根綠K實體深入第一根紅K實體。
  3. 第二根K線若跟第一、三根之間存在缺口則反轉威力更強。
  1. 與夜星相似,力道較夜星強。
  2. 第二根K線為十字,且影線與第一、三根K線隻影線不重疊。
  1. 與夜星十字相似,但力道較夜星十字強。
  2. 第二根K線影線與第一、三根K線之影線不重疊。
   
遭遇線 空頭執帶 大敵當前 步步為營 三烏鴉 三胎鴨
           
空頭起跑 雙鴨 內困三日翻黑 外側三日下跌 空頭反撲 顛倒的獨特三河床
           
顛倒的三明治 顛倒的南方三星 顛倒的閨中乳燕 顛倒的飛鴿歸巢 顛倒的梯底 顛倒的低價配
           

 

連續型態

3.jpg

Lachlan 發表在 痞客邦 留言(1) 人氣()

Close

您尚未登入,將以訪客身份留言。亦可以上方服務帳號登入留言

請輸入暱稱 ( 最多顯示 6 個中文字元 )

請輸入標題 ( 最多顯示 9 個中文字元 )

請輸入內容 ( 最多 140 個中文字元 )

reload

請輸入左方認證碼:

看不懂,換張圖

請輸入驗證碼