<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能開發者 正文
      發私信給AI研習社
      發送

      1

      如何解決機器學習中的數據不平衡問題?

      本文作者: AI研習社 2017-06-13 15:28
      導語:一舉解決數據不平衡。

      雷鋒網按:本文作者章華燕,金橋智慧科技算法工程師,原文載于作者個人博客,雷鋒網已獲授權。

      在機器學習任務中,我們經常會遇到這種困擾:數據不平衡問題

      數據不平衡問題主要存在于有監督機器學習任務中。當遇到不平衡數據時,以總體分類準確率為學習目標的傳統分類算法會過多地關注多數類,從而使得少數類樣本的分類性能下降。絕大多數常見的機器學習算法對于不平衡數據集都不能很好地工作。

      本文介紹幾種有效的解決數據不平衡情況下有效訓練有監督算法的思路:

      1、重新采樣訓練集

      可以使用不同的數據集。有兩種方法使不平衡的數據集來建立一個平衡的數據集——欠采樣和過采樣。

      1.1. 欠采樣

      欠采樣是通過減少豐富類的大小來平衡數據集,當數據量足夠時就該使用此方法。通過保存所有稀有類樣本,并在豐富類別中隨機選擇與稀有類別樣本相等數量的樣本,可以檢索平衡的新數據集以進一步建模。

      1.2. 過采樣

      相反,當數據量不足時就應該使用過采樣,它嘗試通過增加稀有樣本的數量來平衡數據集,而不是去除豐富類別的樣本的數量。通過使用重復、自舉或合成少數類過采樣等方法(SMOTE)來生成新的稀有樣品。

      注意到欠采樣和過采樣這兩種方法相比而言,都沒有絕對的優勢。這兩種方法的應用取決于它適用的用例和數據集本身。另外將過采樣和欠采樣結合起來使用也是成功的。

      2、使用K-fold交叉驗證

      值得注意的是,使用過采樣方法來解決不平衡問題時應適當地應用交叉驗證。這是因為過采樣會觀察到罕見的樣本,并根據分布函數應用自舉生成新的隨機數據,如果在過采樣之后應用交叉驗證,那么我們所做的就是將我們的模型過擬合于一個特定的人工引導結果。這就是為什么在過度采樣數據之前應該始終進行交叉驗證,就像實現特征選擇一樣。只有重復采樣數據可以將隨機性引入到數據集中,以確保不會出現過擬合問題。

      K-fold交叉驗證就是把原始數據隨機分成K個部分,在這K個部分中選擇一個作為測試數據,剩余的K-1個作為訓練數據。交叉驗證的過程實際上是將實驗重復做K次,每次實驗都從K個部分中選擇一個不同的部分作為測試數據,剩余的數據作為訓練數據進行實驗,最后把得到的K個實驗結果平均。

      3、轉化為一分類問題

      對于二分類問題,如果正負樣本分布比例極不平衡,我們可以換一個完全不同的角度來看待問題:把它看做一分類(One Class Learning)或異常檢測(Novelty Detection)問題。這類方法的重點不在于捕捉類間的差別,而是為其中一類進行建模,經典的工作包括One-class SVM等,如下圖所示:

      如何解決機器學習中的數據不平衡問題?

      One Class SVM 是指你的訓練數據只有一類正(或者負)樣本的數據, 而沒有另外的一類。在這時,你需要學習的實際上你訓練數據的邊界。而這時不能使用最大化軟邊緣了,因為你沒有兩類的數據。 所以呢,在這邊文章中,“Estimating the support of a high-dimensional distribution”, Sch?lkopf 假設最好的邊緣要遠離特征空間中的原點。左邊是在原始空間中的邊界,可以看到有很多的邊界都符合要求,但是比較靠譜的是找一個比較緊的邊界(紅色的)。這個目標轉換到特征空間就是找一個離原點比較遠的邊界,同樣是紅色的直線。當然這些約束條件都是人為加上去的,你可以按照你自己的需要采取相應的約束條件。比如讓你data 的中心離原點最遠。

      說明:對于正負樣本極不均勻的問題,使用異常檢測,或者一分類問題,也是一個思路。

      4、組合不同的重采樣數據集

      成功泛化模型的最簡單方法是使用更多的數據,問題是像邏輯回歸或隨機森林這樣開箱即用的分類器,傾向于通過舍去稀有類來泛化模型。一個簡單的最佳實踐是建立n個模型,每個模型使用稀有類別的所有樣本和豐富類別的n個不同樣本。假設想要合并10個模型,那么將保留例如1000例稀有類別,并隨機抽取10000例豐富類別。然后,只需將10000個案例分成10塊,并訓練10個不同的模型。

      如何解決機器學習中的數據不平衡問題?

      如果擁有大量數據,這種方法是簡單并且是可橫向擴展的,這是因為可以在不同的集群節點上訓練和運行模型。集合模型也趨于泛化,這使得該方法易于處理。

      5、用不同比例重新采樣

      方法4 可以很好地將稀有類別和豐富類別之間的比例進行微調,最好的比例在很大程度上取決于所使用的數據和模型。但是,不是在整體中以相同的比例訓練所有模型,所以值得嘗試合并不同的比例。如果10個模型被訓練,有一個模型比例為1:1(稀有:豐富)和另一個1:3甚至是2:1的模型都是有意義的。一個類別獲得的權重依賴于使用的模型。

      如何解決機器學習中的數據不平衡問題?

      6、多模型Bagging

      方法5 雖然能夠選出最好的樣本數據比例。但是它的魯棒性不能夠保證:它的魯棒性取決于測試集樣本的選取。

      為了解決上述方法的缺陷,增加模型魯棒性。為此,我本人在 隨機森林算法 思想的啟發下,想出了在上述方法的基礎上,將不同比例下訓練出來的模型進行 多模型Bagging 操作,具體的步驟如下:

      1. 對兩類樣本選取 N 組不同比例的數據進行訓練并測試,得出模型預測的準確率: 

      P={ P| i=1,2,...N }

      2. 對上述各模型的準確率進行歸一化處理,得到新的權重分布:

      Ω={ ω| i=1,2,...N }

      其中:

      如何解決機器學習中的數據不平衡問題?

      3. 按權重分布 Ω 組合多個模型,作為最終的訓練器:

      ● 對于分類任務:

      如何解決機器學習中的數據不平衡問題?

      ● 對于回歸任務:

      如何解決機器學習中的數據不平衡問題?

      7、集群豐富類

      Sergey Quora提出了一種優雅的方法,他建議不要依賴隨機樣本來覆蓋訓練樣本的種類,而是將r個群體中豐富類別進行聚類,其中r為r中的例數。每個組只保留集群中心(medoid)。然后,基于稀有類和僅保留的類別對該模型進行訓練。

      7.1. 對豐富類進行聚類操作

      首先,我們可以對具有大量樣本的豐富類進行聚類操作。假設我們使用的方法是 K-Means聚類算法 。此時,我們可以選擇K值為稀有類中的數據樣本的個數,并將聚類后的中心點以及相應的聚類中心當做富類樣本的代表樣例,類標與富類類標一致。

      如何解決機器學習中的數據不平衡問題?

      7.2. 聚類后的樣本進行有監督學習

      經過上述步驟的聚類操作,我們對富類訓練樣本進行了篩選,接下來我們就可以將相等樣本數的K個正負樣本進行有監督訓練。如下圖所示:

      如何解決機器學習中的數據不平衡問題?

      8、設計適用于不平衡數據集的模型

      所有之前的方法都集中在數據上,并將模型保持為固定的組件。但事實上,如果設計的模型適用于不平衡數據,則不需要重新采樣數據,著名的XGBoost已經是一個很好的起點,因此設計一個適用于不平衡數據集的模型也是很有意義的。

      通過設計一個代價函數來懲罰稀有類別的錯誤分類而不是分類豐富類別,可以設計出許多自然泛化為稀有類別的模型。例如,調整SVM以懲罰稀有類別的錯誤分類。

      如何解決機器學習中的數據不平衡問題?

      雷鋒網相關閱讀:

      如果算法當上總統,它會說什么?

      谷歌超分辨率技術 RAISR :模糊圖片瞬變高清,速度提升數十倍

      雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知。

      如何解決機器學習中的數據不平衡問題?

      分享:
      相關文章

      編輯

      聚焦數據科學,連接 AI 開發者。更多精彩內容,請訪問:yanxishe.com
      當月熱門文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 可以在线观看的亚洲视频| 日本久久久久| 黄页网址大全免费观看| 台州市| 豆国产97在线 | 亚洲| 成人深爱网| 日韩?无码?中文字幕?精品| Av一区二区三区| jzzijzzij亚洲成熟少妇| 日本伊人色综合网| 亚洲乱码日产精品bd| 九九热视频在线免费观看| 一级做a爱视频在线播放| 国产精品原创av片国产日韩| 国产成人综合色视频精品| 亚洲日韩欧洲乱码av夜夜摸| 精久视频| 果冻传媒mv免费播放在线观看| www.亚洲V| 人妻中文一区| 国产啪视频免费观看视频| 色翁荡熄又大又硬又粗又视频| 午夜爽爽爽男女免费观看影院| 精品无码人妻夜人多侵犯18| 一个人在线观看免费视频www| 日韩在线视频一区二区三| 亚洲国产一区二区三区| 曲松县| 亚洲国产精品久久久久秋霞影院 | 亚洲av专区一区| 亚洲国产av无码精品| 专干老熟女视频在线观看| 国产av一区二区三区天堂综合网| 亚洲一区二区无码偷拍 | 国内精品无码| 91人妻丰满熟妇Aⅴ无码| 少妇人妻精品一区二区| 国产亚洲精品第一综合| 亚洲av粉嫩性色av| 午夜爽爽爽男女免费观看影院| 91青草视频|