男女性高爱潮免费网站,免费人成在线观看视频播放,三级三级三级a级全黄,日日摸日日碰夜夜爽无码,国产精品久久久久精品日日,黑人巨大粗物挺进了少妇,国产麻豆一区二区三区精品视频,精品久久久久久亚洲综合网
熱門文章> 人工智能機器的十大算法 >

人工智能機器的十大算法

36氪企服點評小編
2021-09-17 18:31
2528次閱讀

      最常見的機器學(xué)習(xí)類型是找到最佳映射Y=f(X),并預(yù)測新X對應(yīng)的Y值。這個過程被稱為預(yù)測建模或預(yù)測分析,目標是盡可能做出最準確的預(yù)測。對于渴望理解機器學(xué)習(xí)基本概念的程序員來說,我們專門整理了數(shù)據(jù)科學(xué)家最常用的十種機器學(xué)習(xí)算法,方便大家快速上手。下面就由小編為您介紹的人工智能機器的十大算法。

人工智能機器的十大算法人工智能機器的十大算法

1- 線性回歸

     線性回歸可能是統(tǒng)計學(xué)和機器學(xué)習(xí)中最為知名、最易于理解的一個算法。

     預(yù)測建模主要關(guān)注的是如何最小化模型的誤差,或是如何在一個可解釋性代價的基礎(chǔ)上做出最為準確的預(yù)測。我們將借用、重用和竊取包括統(tǒng)計學(xué)在內(nèi)的多個不同領(lǐng)域的算法,并將其用于這些目的。

     線性回歸所表示的是描述一條直線的方程,通過輸入變量的特定權(quán)重系數(shù)(B)來找出輸入變量(x)和輸出變量(y)之間最適合的映射關(guān)系。

線性回歸

    例如:y = B0 + B1 * x

     給定輸入x,我們可以預(yù)測出y的值。線性回歸學(xué)習(xí)算法的目標是找到系數(shù)B0和B1的值。

    找出數(shù)據(jù)的線性回歸模型有多種不同的技巧,例如將線性代數(shù)解用于普通最小二乘法和梯度下降優(yōu)化問題。

     線性回歸業(yè)已存在200多年,并已被廣泛研究過。使用該算法的一些竅門,是盡可能地去除非常相似的相關(guān)變量以及數(shù)據(jù)中的噪聲。這是一個快速、簡單而又好用的算法。

2 - 邏輯回歸

     邏輯回歸是機器學(xué)習(xí)借自統(tǒng)計領(lǐng)域的另一項技術(shù),用于解決二元分類問題(有兩個類值的問題)。

     邏輯回歸就像線性回歸,因為它的目標是找出每個輸入變量的加權(quán)系數(shù)值。與線性回歸不同的是,邏輯回歸預(yù)測輸出值的函數(shù)是非線性的,也被稱為邏輯函數(shù)。

      邏輯回歸的函數(shù)圖像看起來是一個大的S形,并將任何值轉(zhuǎn)換至0到1的區(qū)間。這種形式非常有用,因為我們可以用一個規(guī)則把邏輯函數(shù)的值轉(zhuǎn)化成0和1(例如,如果函數(shù)值小于0.5,則輸出1),從而預(yù)測類別。

邏輯回歸

      基于模型學(xué)習(xí)的方式,邏輯回歸的輸出值也可以用來預(yù)測給定數(shù)據(jù)實例屬于類別0和類別1的概率。當(dāng)你的預(yù)測需要更多依據(jù)時,這一點會非常有用。

       跟線性回歸一樣,當(dāng)你剔除與輸出變量無關(guān)或與之除非常相似(相關(guān))的屬性后,邏輯回歸的效果會更好。對于二元分類問題,它是一個易于上手、快速而又有效的模型。

3 - 線性判別分析

      一般來說,邏輯回歸僅限于二元分類問題。 但如果分類類別超過兩個,線性判別分析就成為你首選的線性分類算法。

      線性判別分析的表達式非常簡單。 它由數(shù)據(jù)的統(tǒng)計屬性組成,并計算每個類別的屬性值。對于單個輸入變量,它包括:

    每個類別的平均值。

     所有類別的方差。

線性判別分析

      線性判別分析通過計算每個類別的差別值,并對擁有最大值的類別進行預(yù)測。 該方法假定數(shù)據(jù)服從高斯分布(鐘形曲線),因此預(yù)測前從數(shù)據(jù)中移除異常值會是一個很好的習(xí)慣。對于分類預(yù)測問題來說,它是一個簡單而又強大的方法。

4 - 分類和回歸樹

     決策樹是用于預(yù)測建模的一種重要機器學(xué)習(xí)算法。

     決策樹模型的表現(xiàn)形式為二叉樹,也就是來自算法和數(shù)據(jù)結(jié)構(gòu)方面的二叉樹,沒有什么特別。樹上每個節(jié)點代表一個輸入變量(x)與一個基于該變量的分離點(假定這個變量是數(shù)字)。

決策樹

     葉節(jié)點包含了用于預(yù)測的輸出變量(y)。預(yù)測是通過遍歷樹的分離點開始,直到抵達每一個葉節(jié)點,并輸出該葉節(jié)點的分類值。

     決策樹算法學(xué)習(xí)起來很快,預(yù)測速度也很快。決策樹對于各種各樣的問題都能做出準確的預(yù)測,并且無需對數(shù)據(jù)做任何特殊的預(yù)處理。

5 - 樸素貝葉斯

      樸素貝葉斯是一種簡單而又強大的預(yù)測建模算法。

     該模型由兩種概率組成,它們都能從訓(xùn)練數(shù)據(jù)中直接計算出來:1)每個類別的概率; 2)對于給定的x值,每個類別的條件概率。 一旦計算出來,概率模型就可以用于使用貝葉斯定理對新的數(shù)據(jù)進行預(yù)測。 當(dāng)你的數(shù)據(jù)是實值時,通常會假定一個高斯分布(鐘形曲線),這樣你就很容易計算出這些數(shù)據(jù)的概率。

樸素貝葉斯

     樸素貝葉斯假定每個輸入變量都是獨立,所以被稱為“樸素的”。這是一個強假設(shè),對真實數(shù)據(jù)而言有點不切實際,但該方法在大范圍的復(fù)雜問題上非常有效。

6 - K-最近鄰算法

     K-最近鄰算法是一種非常簡單和有效。它的模型所表示是整個訓(xùn)練數(shù)據(jù)集,看上去很簡單,對吧?

      對于給定的訓(xùn)練數(shù)據(jù),通過搜索整個數(shù)據(jù)集中K個最相似的實例(鄰居),匯總這K個實例的輸出變量可以預(yù)測新的數(shù)據(jù)點。對于回歸問題,它可能是輸出變量的平均值;對于分類問題,它可能是模式(或最常見的)類別值。

      使用K-最近鄰算法的訣竅,是在于如何確定數(shù)據(jù)實例之間的相似性。最簡單的方法,如果你的屬性在歐幾里德距離上尺度相同(例如均以英寸為單位),那么基于每個輸入變量之間的差異,你就可以直接計算其數(shù)值來確定相似性。

      K-最近鄰算法可能需要大量的內(nèi)存或存儲空間來儲存所有數(shù)據(jù),但只有在預(yù)測時才會執(zhí)行計算(或?qū)W習(xí))。你也可以隨時更新和管理你的訓(xùn)練實例,以保持預(yù)測的準確性。

      距離或緊密度的概念在非常高的維度(大量的輸入變量)中可能會失效,因為輸入變量的數(shù)量對于算法性能有著很大的負面影響。這就是維度災(zāi)難。這就要求你只使用那些與預(yù)測輸出變量最相關(guān)的輸入變量。

7 - 學(xué)習(xí)向量量化

      K-最近鄰算法的一個缺點是你需要使用整個訓(xùn)練數(shù)據(jù)集。而作為人工神經(jīng)網(wǎng)絡(luò),學(xué)習(xí)向量量化算法(簡稱LVQ)允許你選擇訓(xùn)練實例的數(shù)量,并能準確地學(xué)習(xí)這些實例所應(yīng)有的特征。

學(xué)習(xí)向量量化

       學(xué)習(xí)向量量化算法所表示的是碼本向量的集合。這些向量在初始化的時候隨機選擇出來,并在學(xué)習(xí)算法的多次迭代中優(yōu)化成最能概括訓(xùn)練數(shù)據(jù)集的集合。在學(xué)習(xí)完成后,碼本向量可以像K-最近鄰算法一樣進行預(yù)測。通過計算每個碼本向量和新數(shù)據(jù)實例之間的距離來找到最相似的鄰居(最佳匹配碼本向量),然后返回最佳匹配單元的類別值或(在回歸情況下的實際值)作為預(yù)測。如果能重新調(diào)整數(shù)據(jù)使其處于相同的區(qū)間(如0到1之間),則可以獲得最佳的預(yù)測結(jié)果。

     如果K-最近鄰算法在你的數(shù)據(jù)集上已經(jīng)給出了很好的預(yù)測結(jié)果,那么可以嘗試用學(xué)習(xí)向量量化算法來減少整個訓(xùn)練數(shù)據(jù)集的內(nèi)存存儲需求。

8 - 支持向量機

     支持向量機可能是最受歡迎、討論最為廣泛的機器學(xué)習(xí)算法之一。

      超平面是輸入變量空間內(nèi)的一條分割線。在支持向量機中,超平面可以通過類別(0類或1類)最佳分割輸入變量空間。在二維空間內(nèi),超平面可被視為一條線,我們假設(shè)所有的輸入點都可以被該線完全分開。支持向量機的目標是找到一個分離系數(shù),讓一個超平面能夠?qū)Σ煌悇e的數(shù)據(jù)進行最佳分割。

支持向量機

      超平面與最近的數(shù)據(jù)點之間的距離被稱為邊距。在分離兩個類上具有最大邊距的超平面被稱為最佳超平面。超平面的確定只跟這些點及分類器的構(gòu)造有關(guān)。這些點被稱為支持向量,它們支持并定義超平面。在實踐中,可以使用優(yōu)化算法來找到能夠最大化邊距的系數(shù)。

     支持向量機可能是最為強大的“開箱即用”分類器之一,值得你嘗試。

9 - bagging算法和隨機森林

     隨機森林是最流行、最強大的機器學(xué)習(xí)算法之一。它是一種被稱為Bootstrap Aggregation或Bagging的機器學(xué)習(xí)集成算法。

      Bootstrap是一種從數(shù)據(jù)樣本中估算數(shù)量的強大統(tǒng)計方法。換句話說,你需要抽取大量的數(shù)據(jù)樣本、計算平均值,然后再計算所有均值的平均,以便更好地估計整體樣本的真實平均值。

      bagging算法也使用相同的方式,但用于估計整個統(tǒng)計模型的最常見方法是決策樹。訓(xùn)練數(shù)據(jù)中的多個樣本將被取樣,然后對每個數(shù)據(jù)樣本建模。對新數(shù)據(jù)進行預(yù)測時,每個模型都會進行預(yù)測,并對每個預(yù)測結(jié)果進行平均,以更好地估計真實的輸出值。

隨機森林

      隨機森林是對bagging算法的一種調(diào)整,它不是選擇最佳分割點來創(chuàng)建決策樹,而是通過引入隨機性來得到次優(yōu)分割點。

    因此,針對每個數(shù)據(jù)樣本所創(chuàng)建的模型,會與其他方式有所不同,但仍能以其獨特和不同的方式準確預(yù)測。結(jié)合所有模型的預(yù)測,可以更好地估計潛在的真實輸出。

     如果用方差較高的算法(如決策樹)能夠獲得較好的結(jié)果,那么通過bagging算法通常可以獲得更好的結(jié)果。

10 - Boosting和AdaBoost算法

      Boosting是一項從多個弱分類器中構(gòu)建強分類器的集成預(yù)測技術(shù)。它從訓(xùn)練數(shù)據(jù)中構(gòu)建模型,然后通過修正前一個模型的錯誤創(chuàng)造出第二個模型。

       以此類推,模型不斷疊加,直至能夠完美預(yù)測訓(xùn)練數(shù)據(jù)集,或達到可添加的模型的數(shù)量上限。在針對二元分類所開發(fā)的boosting算法中,AdaBoost是第一個成功的。它是理解boosting算法的最佳起點。現(xiàn)代boosting方法基于AdaBoost而構(gòu)建,最典型的例子是隨機梯度加速器。以上內(nèi)容就是小編為您介紹的人工智能機器的十大算法。

[免責(zé)聲明]

文章標題: 人工智能機器的十大算法

文章內(nèi)容為網(wǎng)站編輯整理發(fā)布,僅供學(xué)習(xí)與參考,不代表本網(wǎng)站贊同其觀點和對其真實性負責(zé)。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時溝通。發(fā)送郵件至36dianping@36kr.com,我們會在3個工作日內(nèi)處理。

消息通知
咨詢?nèi)腭v
商務(wù)合作
主站蜘蛛池模板: 又色又爽又高潮免费观看| 国产福利日本一区二区三区 | 韩国三级中文字幕hd| 亚洲va无码va在线va天堂| 成全动漫在线观看免费高清| 婷婷丁香社区| 吃奶揉捏奶头高潮视频在线观看 | 国产在线乱码一区二区三区| cijilu在线视频| 欧美性猛交xxxx乱大交蜜桃| 777午夜精品免费观看| 日欧137片内射在线视频播放 | 3d动漫精品啪啪一区二区下载| 《熟妇的荡欲》电影| 精品国产乱子伦一区二区三区| 天天躁夜夜躁狠狠综合| 亚洲伊人久久综合影院| 日韩综合夜夜香内射| caoporn成人免费公开| 女人扒开屁股让男人桶| 在线看片免费人成视频大全| 欧美日韩精品久久久免费观看| 久久久亚洲欧洲日产国码aⅴ| 国内精品久久久久国产盗摄 | 最近中文字幕2019免费| 亚洲精品美女久久777777| 国产在aj精品| 天堂av男人在线播放| 漂亮人妻被强了bd影片| 毛片无码国产| 人妻熟女av一区二区三区| 久久久噜噜噜www成人网| 丝袜制服av熟女♀| 久久久久久人妻精品一区| 秋霞a级毛片在线看| 东京热一精品无码av| 夜色网| 欧美牲交黑粗硬大| 国产日产欧产美| 国产精品亚洲一区二区三区| a毛片免费全部播放|