作者secrob (錯失)
看板HOT_Game
標題Re: [無用常識] 關於認證圖的解碼 - 相關係數
時間Sat Jun 23 18:01:35 2007
※ 引述《caeru (星羽)》之銘言:
: 繼續無聊的騙錢討論生涯吧Q_Q
: -----------------------------------------------------------------------------
: 所謂的相關係數,是指兩筆數據其相關性,完全相同的相關係數為+1,完全相反的為-1
: 而一般使用的辨識法多半取0.5-1之間做為一個可靠度的區別
: 要使用相關係數方式,主要的機制在於使用者端,
: 也就是加載在阿髮妻上的功能,如同望遠鏡似的輔助工具,
: 可利用資料庫的內容、自己創造出來的字串圖等等來做為相關性辨識的基底。
: 可由C3處取得認證圖後,與手邊的資料庫作逐一比對的功能,
: 當兩張圖某種程度相似的時候,就認為他是那張圖,這樣可以避免randn(pix)的手段,
: 但是資料量大時速度很慢、相似門檻設定、錯誤率設定等等族繁不及備載的缺點,
: 導致沒人想用這種方式。
: 但是就"自動化"而言,這仍是一種方式XD
: 同樣的,對於自動辨識而言,或許這種想法可以引發其他更好的辨識法則也說不定(囧
: ------------------------------- 以下廢屁 --------------------------------
: 真的有看完的人推個文吧 0.0
: 這樣我再推出其他廢屁文來娛樂(?)大眾
終極的方法是,圖型識別,大概可以分幾步
1. 取得文字部分
可先算出圖片的histogram,理論上會分成幾群,每一群代表
一個字母、背景或做為雜訊的線,接著再分別對那幾群做dilation後,
算出每群的左上角和右下角,如果長寬比很奇怪,例如某群的左上和右
下剛好是整張圖,則知道那群顏色為背景,如果是那些雜訊線,則長寬
比會差很大,如果是字母,則比例會接近1:1。
2. 前處理
接下來把那幾個認定為文字的那幾群做二值化,也就是背景變
為黑,前景為白,只要找到一個threshold即可,前提是前景和背景色
彩差多一點會比較好
3. 特徵截取
把一個找到的圖用線性代數的方法找其特徵值,PCA or LDA
or...但最好要有很多的圖來做訓練,把一些扭曲的字母都送進去做
訓練是最好的,但這裡要用人工切很多文字出來,如果是LDA則還要做
分類,需要大量人力
4. 辨識
經由特徵截取後會是一個較低維的數據,把這些數據送到
高斯Gaussian模型或高斯混合模型(GMM)中訓練,因為有二十六個字
母,因此只需要訓練二十六個model即可。
5. 語意分析
一般來說市面上的文字辨識會根據上下文來做自然語言語
意分析以提高正確率,但我們這裡每個字母間沒什麼意義,但是
有一個很棒的利用點 - 母音和子音,因為這個很單純,所以就直接
假設母子母子或子母子母,例如有三個字
第一次
第一個字送 aeiouy 的model進去求機率,機率高者為辨識結果
第二個字送 子音 的model進去求機率,機率高者為辨識結果
...
第二次
第一個字送 子音 的model....
第二個字送 aeiouy的model....
...
到最後再把第一次和第二次機率高者視為辨識結果
=========================================
以上皆為嘴泡,且是直覺的做法,實際可能還有很多問題
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 220.139.62.246
1F:推 neoneon:淚推QQ 06/23 18:02
2F:推 Milk0210:很抱歉我看不懂..但還是給個推 06/23 18:02
3F:→ TIM751010:頭推...很早開始就不是我懂的地方了 06/23 18:02
4F:推 wahaha99:高手出現了 XD 不過這個破了的話雅虎她們都要傷腦筋了 XD 06/23 18:03
5F:→ moara:台灣中情局解碼部需要你 06/23 18:03
6F:推 lwei781:3 is a BIG step to take 06/23 18:05
7F:推 sunnysmart:說的簡單做的難阿 06/23 18:05
8F:推 OrzGoodguy:看不懂推 打這麼多字 沒有功勞也有苦勞 06/23 18:20
9F:推 karst10607:看不懂但感謝你的認真 推... 06/23 18:53
10F:推 airderek:非常難破 我對擷取部份有感覺.. 06/23 20:04
11F:→ airderek:影像處理 沒有這麼簡單的 光擷取建檔 檔案就超大的了 06/23 20:05
12F:→ airderek:擷取的速度也取決於設備.還有擷取程式的撰寫品質 06/23 20:05