久久精品国产亚洲高清|精品日韩中文乱码在线|亚洲va中文字幕无码久|伊人久久综合狼伊人久久|亚洲不卡av不卡一区二区|精品久久久久久久蜜臀AV|国产精品19久久久久久不卡|国产男女猛烈视频在线观看麻豆

    1. <style id="76ofp"></style>

      <style id="76ofp"></style>
      <rt id="76ofp"></rt>
      <form id="76ofp"><optgroup id="76ofp"></optgroup></form>
      1. 千鋒教育-做有情懷、有良心、有品質(zhì)的職業(yè)教育機(jī)構(gòu)

        手機(jī)站
        千鋒教育

        千鋒學(xué)習(xí)站 | 隨時隨地免費學(xué)

        千鋒教育

        掃一掃進(jìn)入千鋒手機(jī)站

        領(lǐng)取全套視頻
        千鋒教育

        關(guān)注千鋒學(xué)習(xí)站小程序
        隨時隨地免費學(xué)習(xí)課程

        當(dāng)前位置:首頁  >  應(yīng)聘面試  >  Python面試題  > Python技巧|機(jī)器學(xué)習(xí)方向企業(yè)面試題(一)

        Python技巧|機(jī)器學(xué)習(xí)方向企業(yè)面試題(一)

        來源:千鋒教育
        發(fā)布人:小千
        時間: 2021-04-12 09:45:00 1618191900

              Python的機(jī)器學(xué)習(xí)方向是近年來不少大廠非常注重的方向之一,這也讓不少同學(xué)都開始轉(zhuǎn)行學(xué)習(xí)機(jī)器學(xué)習(xí)領(lǐng)域,這里小千為大家整理了一下大廠在機(jī)器學(xué)習(xí)方向的面試題,大家在面試前看一下說不準(zhǔn)就能壓到寶~~

        1

              1.有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)有什么區(qū)別?

              有監(jiān)督學(xué)習(xí):對具有標(biāo)記的訓(xùn)練樣本進(jìn)行學(xué)習(xí),以盡可能對訓(xùn)練樣本集外的數(shù)據(jù)進(jìn)行分類預(yù)測。(LR,SVM,BP,RF,GBDT)

              無監(jiān)督學(xué)習(xí):對未標(biāo)記的樣本進(jìn)行訓(xùn)練學(xué)習(xí),比發(fā)現(xiàn)這些樣本中的結(jié)構(gòu)知識。(KMeans,DL)

              2.什么是正則化?

              正則化是針對過擬合而提出的,以為在求解模型最優(yōu)的是一般優(yōu)化最小的經(jīng)驗風(fēng)險,現(xiàn)在在該經(jīng)驗風(fēng)險上加入模型復(fù)雜度這一項(正則化項是模型參數(shù)向量的范數(shù)),并使用一個rate比率來權(quán)衡模型復(fù)雜度與以往經(jīng)驗風(fēng)險的權(quán)重,如果模型復(fù)雜度越高,結(jié)構(gòu)化的經(jīng)驗風(fēng)險會越大,現(xiàn)在的目標(biāo)就變?yōu)榱私Y(jié)構(gòu)經(jīng)驗風(fēng)險的最優(yōu)化,可以防止模型訓(xùn)練過度復(fù)雜,有效的降低過擬合的風(fēng)險。奧卡姆剃刀原理,能夠很好的解釋已知數(shù)據(jù)并且十分簡單才是好的模型。

              3.什么是生成模型和判別模型?

              生成模型:由數(shù)據(jù)學(xué)習(xí)聯(lián)合概率分布P(X,Y),然后求出條件概率分布P(Y|X)作為預(yù)測的模型,即生成模型:P(Y|X)= P(X,Y)/ P(X)。(樸素貝葉斯、Kmeans)

              生成模型可以還原聯(lián)合概率分布p(X,Y),并且有較快的學(xué)習(xí)收斂速度,還可以用于隱變量的學(xué)習(xí)

              判別模型:由數(shù)據(jù)直接學(xué)習(xí)決策函數(shù)Y=f(X)或者條件概率分布P(Y|X)作為預(yù)測的模型,即判別模型。(k近鄰、決策樹、SVM)

              直接面對預(yù)測,往往準(zhǔn)確率較高,直接對數(shù)據(jù)在各種程度上的抽象,所以可以簡化模型

              4.線性分類器與非線性分類器的區(qū)別以及優(yōu)劣

              如果模型是參數(shù)的線性函數(shù),并且存在線性分類面,那么就是線性分類器,否則不是。

              常見的線性分類器有:LR,貝葉斯分類,單層感知機(jī)、線性回歸;常見的非線性分類器:決策樹、RF、GBDT、多層感知機(jī);SVM兩種都有(看線性核還是高斯核)

              線性分類器速度快、編程方便,但是可能擬合效果不會很好;非線性分類器編程復(fù)雜,但是效果擬合能力強(qiáng);

              5.特征比數(shù)據(jù)量還大時,選擇什么樣的分類器?

              線性分類器,因為維度高的時候,數(shù)據(jù)一般在維度空間里面會比較稀疏,很有可能線性可分

              對于維度極低的特征,你是選擇線性還是非線性分類器?非線性分類器,因為低維空間可能很多特征都跑到一起了,導(dǎo)致線性不可分

              下面是吳恩達(dá)的見解:

              1) 如果Feature的數(shù)量很大,跟樣本數(shù)量差不多,這時候選用LR或者是Linear Kernel的SVM

              2.)如果Feature的數(shù)量比較小,樣本數(shù)量一般,不算大也不算小,選用SVM+Gaussian Kernel

              3.)如果Feature的數(shù)量比較小,而樣本數(shù)量很多,需要手工添加一些feature變成第一種情況

              6. 為什么一些機(jī)器學(xué)習(xí)模型需要對數(shù)據(jù)進(jìn)行歸一化?

              歸一化化就是要把你需要處理的數(shù)據(jù)經(jīng)過處理后(通過某種算法)限制在你需要的一定范圍內(nèi)。

              1)歸一化后加快了梯度下降求最優(yōu)解的速度。等高線變得顯得圓滑,在梯度下降進(jìn)行求解時能較快的收斂。如果不做歸一化,梯度下降過程容易走之字,很難收斂甚至不能收斂

              2)把有量綱表達(dá)式變?yōu)闊o量綱表達(dá)式, 有可能提高精度。一些分類器需要計算樣本之間的距離(如歐氏距離),例如KNN。如果一個特征值域范圍非常大,那么距離計算就主要取決于這個特征,從而與實際情況相悖(比如這時實際情況是值域范圍小的特征更重要)

              3) 邏輯回歸等模型先驗假設(shè)數(shù)據(jù)服從正態(tài)分布。

              7.哪些機(jī)器學(xué)習(xí)算法不需要做歸一化處理?

              概率模型不需要歸一化,因為它們不關(guān)心變量的值,而是關(guān)心變量的分布和變量之間的條件概率,如決策樹、rf。而像adaboost、gbdt、xgboost、svm、lr、KNN、KMeans之類的最優(yōu)化問題就需要歸一化。

              8.標(biāo)準(zhǔn)化與歸一化的區(qū)別

              簡單來說,標(biāo)準(zhǔn)化是依照特征矩陣的列處理數(shù)據(jù),其通過求z-score的方法,將樣本的特征值轉(zhuǎn)換到同一量綱下。歸一化是依照特征矩陣的行處理數(shù)據(jù),其目的在于樣本向量在點乘運算或其他核函數(shù)計算相似性時,擁有統(tǒng)一的標(biāo)準(zhǔn),也就是說都轉(zhuǎn)化為“單位向量”。

              9.隨機(jī)森林如何處理缺失值

              方法一(na.roughfix)簡單粗暴,對于訓(xùn)練集,同一個class下的數(shù)據(jù),如果是分類變量缺失,用眾數(shù)補上,如果是連續(xù)型變量缺失,用中位數(shù)補。

              方法二(rfImpute)這個方法計算量大,至于比方法一好壞?不好判斷。先用na.roughfix補上缺失值,然后構(gòu)建森林并計算proximity matrix,再回頭看缺失值,如果是分類變量,則用沒有缺失的觀測實例的proximity中的權(quán)重進(jìn)行投票。如果是連續(xù)型變量,則用proximity矩陣進(jìn)行加權(quán)平均的方法補缺失值。然后迭代4-6次。

              10. 如何進(jìn)行特征選擇?

              特征選擇是一個重要的數(shù)據(jù)預(yù)處理過程,主要有兩個原因:一是減少特征數(shù)量、降維,使模型泛化能力更強(qiáng),減少過擬合;二是增強(qiáng)對特征和特征值之間的理解

              常見的特征選擇方式:

              1) 去除方差較小的特征

              2.)正則化。1正則化能夠生成稀疏的模型。L2正則化的表現(xiàn)更加穩(wěn)定,由于有用的特征往往對應(yīng)系數(shù)非零。

              3)隨機(jī)森林,對于分類問題,通常采用基尼不純度或者信息增益,對于回歸問題,通常采用的是方差或者最小二乘擬合。一般不需要feature engineering、調(diào)參等繁瑣的步驟。它的兩個主要問題,1是重要的特征有可能得分很低(關(guān)聯(lián)特征問題),2是這種方法對特征變量類別多的特征越有利(偏向問題)。

              4)穩(wěn)定性選擇。是一種基于二次抽樣和選擇算法相結(jié)合較新的方法,選擇算法可以是回歸、SVM或其他類似的方法。它的主要思想是在不同的數(shù)據(jù)子集和特征子集上運行特征選擇算法,不斷的重復(fù),最終匯總特征選擇結(jié)果,比如可以統(tǒng)計某個特征被認(rèn)為是重要特征的頻率(被選為重要特征的次數(shù)除以它所在的子集被測試的次數(shù))。理想情況下,重要特征的得分會接近100%。稍微弱一點的特征得分會是非0的數(shù),而最無用的特征得分將會接近于0。

              以上就是第一期Python機(jī)器學(xué)習(xí)方向的企業(yè)面試題及其答案了,最后對Python開發(fā)感興趣的同學(xué),不妨來千鋒教育Python培訓(xùn)班了解一下Python培訓(xùn)課程,針對不同階段的同學(xué)準(zhǔn)備了初級入門、高手進(jìn)階、實戰(zhàn)項目等多種Python視頻教程,絕對能夠幫助你更好的學(xué)習(xí)Python開發(fā)。想要獲取免費Python學(xué)習(xí)路線和學(xué)習(xí)資料可以添加我們的Python技術(shù)交流qq群:790693323  加群找群管理領(lǐng)取即可,Python相關(guān)技術(shù)問題也可以加群解決,等你來哦~~~~

        tags:
        聲明:本站稿件版權(quán)均屬千鋒教育所有,未經(jīng)許可不得擅自轉(zhuǎn)載。
        10年以上業(yè)內(nèi)強(qiáng)師集結(jié),手把手帶你蛻變精英
        請您保持通訊暢通,專屬學(xué)習(xí)老師24小時內(nèi)將與您1V1溝通
        免費領(lǐng)取
        今日已有369人領(lǐng)取成功
        劉同學(xué) 138****2860 剛剛成功領(lǐng)取
        王同學(xué) 131****2015 剛剛成功領(lǐng)取
        張同學(xué) 133****4652 剛剛成功領(lǐng)取
        李同學(xué) 135****8607 剛剛成功領(lǐng)取
        楊同學(xué) 132****5667 剛剛成功領(lǐng)取
        岳同學(xué) 134****6652 剛剛成功領(lǐng)取
        梁同學(xué) 157****2950 剛剛成功領(lǐng)取
        劉同學(xué) 189****1015 剛剛成功領(lǐng)取
        張同學(xué) 155****4678 剛剛成功領(lǐng)取
        鄒同學(xué) 139****2907 剛剛成功領(lǐng)取
        董同學(xué) 138****2867 剛剛成功領(lǐng)取
        周同學(xué) 136****3602 剛剛成功領(lǐng)取
        相關(guān)推薦HOT
        【Python面試題】談?wù)勀銓Α昂镒友a丁”(monkey patching)的理解

        “猴子補丁”是動態(tài)類型語言的一個特性,代碼運行時在不修改源代碼的前提下改變代碼中的方法、屬性、函數(shù)等以達(dá)到熱補?。╤ot patch)的效果。詳情>>

        2022-08-23 10:29:17
        【Python面試題】使用Python代碼實現(xiàn)遍歷一個文件夾的操作

        Python標(biāo)準(zhǔn)庫os模塊的walk函數(shù)提供了遍歷一個文件夾的功能,它返回一個生成器。import os g = os.walk('/Users/Hao/Downloads/') for path, dir...詳情>>

        2022-08-23 10:29:09
        【Python面試題】如何理解python中的封裝,繼承,多態(tài)的

        封裝:封裝就是把對象的屬性和行為結(jié)合成一個獨立的整體,把內(nèi)部的實現(xiàn)細(xì)節(jié)隱藏起來,不能被外界所看見,調(diào)用的人只能執(zhí)行,而看不到實現(xiàn)的細(xì)節(jié)...詳情>>

        2022-08-23 10:29:06
        【Python面試題】運行下面的代碼是否會報錯

        擴(kuò)展:如果不希望代碼運行時動態(tài)的給對象添加新屬性,可以在定義類時使用__slots__魔法。例如,我們可以在上面的A中添加一行__slots__ = ('__va...詳情>>

        2022-08-23 10:29:03
        【Python面試題】閱讀下面的代碼說出運行結(jié)果。

        在沒有多重繼承的情況下,向?qū)ο蟀l(fā)出一個消息,如果對象沒有對應(yīng)的方法,那么向上(父類)搜索的順序是非常清晰的。如果向上追溯到object類(所...詳情>>

        2022-08-23 10:29:00
        快速通道
        集贤县| 简阳市| 望都县| 金寨县| 霍林郭勒市| 类乌齐县| 甘南县| 阿图什市| 襄城县| 泊头市| 定州市| 道真| 临城县| 长宁区| 托克托县| 宜黄县| 柳河县| 庆元县| 阿坝县| 平原县| 江口县| 苍山县| 土默特右旗| 盱眙县| 枝江市| 平湖市| 昆明市| 辉南县| 星座| 富源县| 巫溪县| 凉山| 会泽县| 洛阳市| 璧山县| 建始县| 德昌县| 柘荣县| 金昌市| 五大连池市| 铜鼓县|