對于這些機(jī)器學(xué)習(xí)算法 數(shù)學(xué)不好你還真看不懂

機(jī)器學(xué)習(xí)技術(shù)不僅僅影響著當(dāng)前的人工智能領(lǐng)域,在筆者看來,機(jī)器學(xué)習(xí)當(dāng)中的算法技術(shù)甚至還可能影響到大數(shù)據(jù)對于很多領(lǐng)域的應(yīng)用深度和廣度,對于機(jī)器學(xué)習(xí)的算法來說,我們可以描述成學(xué)習(xí)一個目標(biāo)函數(shù)f,它能夠最好地映射出輸入變量X到輸出變量Y。有一類普遍的學(xué)習(xí)任務(wù)。我們要根據(jù)輸入變量X來預(yù)測出Y。我們不知道目標(biāo)函數(shù)f是什么樣的。如果早就知道,我們就可以直接使用它,而不需要再通過機(jī)器學(xué)習(xí)算法從數(shù)據(jù)中進(jìn)行學(xué)習(xí)了。

對于這些機(jī)器學(xué)習(xí)算法 數(shù)學(xué)不好你還真看不懂

接下來我們就來了解一下常見的幾種機(jī)器學(xué)習(xí)算法以及其原理構(gòu)成。

線性回歸

線性回歸是機(jī)器學(xué)習(xí)應(yīng)用比較廣泛的一類概念和技術(shù),線性回歸通過找到一組特定的權(quán)值,稱為系數(shù)B。通過最能符合輸入變量x到輸出變量y關(guān)系的等式所代表的線表達(dá)出來。

對于這些機(jī)器學(xué)習(xí)算法 數(shù)學(xué)不好你還真看不懂

不同的技巧可以用于線性回歸模型。比如線性代數(shù)的普通最小二乘法,以及梯度下降優(yōu)化算法。線性回歸已經(jīng)有超過200年的歷史,已經(jīng)被廣泛地研究。根據(jù)經(jīng)驗,這種算法可以很好地消除相似的數(shù)據(jù),以及去除數(shù)據(jù)中的噪聲。它是快速且簡便的首選算法。

邏輯回歸

邏輯回歸是另外一種從統(tǒng)計領(lǐng)域借鑒而來的機(jī)器學(xué)習(xí)算法,和線性回歸一樣,它的目的是找出每個輸入變量所對應(yīng)的參數(shù)值,但不同的是,預(yù)測輸出所用的變換是一個被稱作logistic的非線性函數(shù)。

對于這些機(jī)器學(xué)習(xí)算法 數(shù)學(xué)不好你還真看不懂

正是因為模型學(xué)習(xí)的這種方式,邏輯回歸做出的預(yù)測可以被當(dāng)做輸入為0和1兩個分類數(shù)據(jù)的概率值。這在一些需要給出預(yù)測合理性的問題中非常有用。就像線性回歸,在需要移除與輸出變量無關(guān)的特征以及相似特征方面,邏輯回歸可以表現(xiàn)得很好。在處理二分類問題上,它是一個快速高效的模型。

線性判別分析

邏輯回歸是一個二分類的算法問題,當(dāng)然如果需要去進(jìn)行更多的分類,限行判別分析算法,也就是LDA是一種更好的線性分類方式。LDA包含對每一類輸入數(shù)據(jù)的統(tǒng)計特性(包含類內(nèi)樣本均值和總體樣本變量)。通過計算每個類的判別值,并根據(jù)最大值來進(jìn)行預(yù)測。這種方法假設(shè)數(shù)據(jù)服從高斯分布(鐘形曲線)。所以它可以較好地提前去除離群值。它是針對分類模型預(yù)測問題的一種簡單有效的方法。

對于這些機(jī)器學(xué)習(xí)算法 數(shù)學(xué)不好你還真看不懂

回歸樹分析方法

決策樹式機(jī)器學(xué)習(xí)預(yù)測建模的一類重要算法,對于機(jī)器學(xué)習(xí)來說,可以用二叉樹去解釋決策樹模型,也就是根據(jù)算法和數(shù)據(jù)結(jié)構(gòu)去建立起二叉樹的模型,每個節(jié)點都是代表一個輸入變量以及變量的分叉點,可以假設(shè)它是數(shù)值變量,樹的葉節(jié)點包括用于預(yù)測的輸出變量y。通過樹的各分支到達(dá)葉節(jié)點,并輸出對應(yīng)葉節(jié)點的分類值。

對于這些機(jī)器學(xué)習(xí)算法 數(shù)學(xué)不好你還真看不懂

樸素貝葉斯

這個模型包括兩種概率。它們可以通過訓(xùn)練數(shù)據(jù)直接計算得到:每個類的概率;給定x值情況下每個類的條件概率。根據(jù)貝葉斯定理,一旦完成計算,就可以使用概率模型針對新的數(shù)據(jù)進(jìn)行預(yù)測。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2018-03-02
對于這些機(jī)器學(xué)習(xí)算法 數(shù)學(xué)不好你還真看不懂
機(jī)器學(xué)習(xí)技術(shù)不僅僅影響著當(dāng)前的人工智能領(lǐng)域,在筆者看來,機(jī)器學(xué)習(xí)當(dāng)中的算法技術(shù)甚至還可能影響到大數(shù)據(jù)對于很多領(lǐng)域的應(yīng)用深度和廣度,對于機(jī)器學(xué)習(xí)的算法來說,我們可以描述成學(xué)習(xí)一個目標(biāo)函數(shù)f,它能夠最好地

長按掃碼 閱讀全文