很可惜 T 。T 您現(xiàn)在還不是作者身份,不能自主發(fā)稿哦~
如有投稿需求,請(qǐng)把文章發(fā)送到郵箱tougao@appcpx.com,一經(jīng)錄用會(huì)有專人和您聯(lián)系
咨詢?nèi)绾纬蔀榇河鹱髡哒?qǐng)聯(lián)系:鳥哥筆記小羽毛(ngbjxym)
作者|飛狐沖沖
機(jī)器學(xué)習(xí)無疑是當(dāng)前數(shù)據(jù)分析領(lǐng)域的一個(gè)熱點(diǎn)內(nèi)容,其理論和方法已經(jīng)廣泛應(yīng)用于解決工程應(yīng)用的復(fù)雜問題,很多人在平時(shí)的工作中都或多或少會(huì)用到機(jī)器學(xué)習(xí)的算法。
在機(jī)器學(xué)習(xí)領(lǐng)域,沒有算法能完美地解決所有問題。比如說,神經(jīng)網(wǎng)絡(luò)并不是在任何情況下都能比決策樹更有優(yōu)勢(shì),反之亦然。它們要受很多因素的影響,比如你的數(shù)據(jù)集的規(guī)?;蚪Y(jié)構(gòu)。其結(jié)果是,在用給定的測(cè)試集來評(píng)估性能并挑選算法時(shí),你應(yīng)當(dāng)根據(jù)具體的問題來采用不同的算法。例如,如果模型要求可解釋性較強(qiáng),首先想到的就是邏輯(線性)回歸,如果模型要求準(zhǔn)確度較高且速度較快,首先想到的是Xgboost,如果數(shù)據(jù)量巨大且很稀疏,首先想到怎么用神經(jīng)網(wǎng)絡(luò)解決此問題。
因此,如何選擇機(jī)器學(xué)習(xí)算法、選擇哪一個(gè)算法以及算法建模時(shí)該注意哪些問題成了工程師的一個(gè)難題,本文的目的總結(jié)了常用機(jī)器學(xué)習(xí)算法優(yōu)缺點(diǎn),供大家在工作、學(xué)習(xí)甚至面試中參考。機(jī)器學(xué)習(xí)主要分為有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí),本文從這兩方面進(jìn)行了梳理。
有監(jiān)督學(xué)習(xí)是指模型學(xué)習(xí)時(shí)有特定目標(biāo),即目標(biāo)是人工標(biāo)注的,主要用做分類或者回歸。常用的有監(jiān)督學(xué)習(xí)主要有knn、邏輯(線性)回歸、決策樹、隨機(jī)森林、adaboost、GBDT、xgboost、svm、樸素貝葉斯、人工神經(jīng)網(wǎng)絡(luò)等算法。
KNN可以說是最簡(jiǎn)單的分類算法,和另一種機(jī)器學(xué)習(xí)算法K均值算法有點(diǎn)像,但有著本質(zhì)區(qū)別(K均值算法是無監(jiān)督算法)。KNN的全稱是K Nearest Neighbors,意思是K個(gè)最近的鄰居,KNN的原理就是當(dāng)預(yù)測(cè)一個(gè)新的值x的時(shí)候,根據(jù)它距離最近的K個(gè)點(diǎn)是什么類別來判斷x屬于哪個(gè)類別。
KNN算法的優(yōu)點(diǎn):
1、理論成熟,簡(jiǎn)單易用,相比其他算法,KNN算是比較簡(jiǎn)潔明了的算法,工程上非常容易實(shí)現(xiàn);
2、模型訓(xùn)練時(shí)間快,訓(xùn)練時(shí)間復(fù)雜度為O(n),KNN算法是惰性的;
3、對(duì)數(shù)據(jù)沒有假設(shè),準(zhǔn)確度高,對(duì)異常值不敏感。
KNN算法的缺點(diǎn):
1、對(duì)內(nèi)存要求較高,因?yàn)樵撍惴ù鎯?chǔ)了所有訓(xùn)練數(shù)據(jù);
2、KNN每一次分類都會(huì)重新進(jìn)行一次全局運(yùn)算,且對(duì)于樣本容量大的數(shù)據(jù)集計(jì)算量比較大(一般涉及到距離計(jì)算的模型都會(huì)有這種缺點(diǎn),如后面講的SVM、密度聚類等)。
邏輯回歸是分類模型,線性回歸是回歸模型,邏輯回歸和線性回歸原理相似,邏輯回歸其實(shí)僅為在線性回歸的基礎(chǔ)上,套用了一個(gè)邏輯函數(shù)。
線性回歸的損失函數(shù)為均方誤差類損失,邏輯回歸的損失函數(shù)為交叉熵?fù)p失。邏輯回歸的損失函數(shù)為什么選擇交叉熵?fù)p失而不選擇均方誤差是面試中經(jīng)常問道的問題,這里簡(jiǎn)單說一下:使用MSE作為損失函數(shù)的話,它的梯度是和sigmod函數(shù)的導(dǎo)數(shù)有關(guān)的,如果當(dāng)前模型的輸出接近0或者1時(shí),就會(huì)非常小,接近0,使得求得的梯度很小,損失函數(shù)收斂的很慢。但是我們使用交叉熵的話就不會(huì)出現(xiàn)這樣的情況,它的導(dǎo)數(shù)就是一個(gè)差值,誤差大的話更新的就快,誤差小的話就更新的慢點(diǎn),這正是我們想要的。
邏輯(線性)回歸的優(yōu)點(diǎn):
1、可解釋行強(qiáng)。
本人認(rèn)為這是邏輯(線性)回歸最大的優(yōu)點(diǎn),應(yīng)該是機(jī)器學(xué)習(xí)算法中可解釋最強(qiáng)的,因?yàn)樗?xùn)練的參數(shù)即為每個(gè)特征的權(quán)重,并且能夠定位到每個(gè)樣本的可解釋,而且它的輸出為概率值;
2、計(jì)算量小,速度很快,存儲(chǔ)資源低,工程上實(shí)現(xiàn)簡(jiǎn)單,廣泛應(yīng)用于工業(yè)界;
邏輯(線性)回歸的缺點(diǎn):
它最大的缺點(diǎn)就是對(duì)特征工程要求較高,主要體現(xiàn)在以下方面:
1、需要解決特征共線性問題,如果特征共線性較高,訓(xùn)練的權(quán)重不滿秩,有模型不收斂的可能;
2、對(duì)于異常值和缺失值非常敏感,需要提前進(jìn)行數(shù)據(jù)處理;
3、模型訓(xùn)練前需要特征歸一化,不然進(jìn)行梯度下降尋找最優(yōu)值時(shí)會(huì)收斂很慢或者不收斂;
4、對(duì)于非線性連續(xù)特征需要連續(xù)特征離散化。
當(dāng)然除了以上缺點(diǎn),還有它的容易欠擬合,準(zhǔn)確度并不是很高(個(gè)人認(rèn)為強(qiáng)于決策樹,弱于SVM、GBDT等強(qiáng)分類器)。
決策樹的生成算法有ID3, C4.5和C5.0等。決策樹是一種樹形結(jié)構(gòu),其中每個(gè)內(nèi)部節(jié)點(diǎn)表示一個(gè)屬性上的判斷,每個(gè)分支代表一個(gè)判斷結(jié)果的輸出,最后每個(gè)葉節(jié)點(diǎn)代表一種分類結(jié)果。
決策樹的優(yōu)點(diǎn):
1、計(jì)算量相對(duì)較小, 且容易轉(zhuǎn)化成分類規(guī)則. 只要沿著樹根向下一直走到葉, 沿途的分裂條件就能夠唯一確定一條分類的謂詞;
2、有一定的可解釋性,樹的結(jié)構(gòu)可視化;
3、具有一定的特征選擇能力,能夠自己處理不相關(guān)特征。
決策樹的缺點(diǎn):
1、屬于弱分類器,且容易過擬合,可用bagging的方式減小方差(如隨機(jī)森林),boosting的方式減少偏差(如GBDT、xgboost);
2、于各類別樣本數(shù)量不一致的數(shù)據(jù), 信息增益偏向于那些更多數(shù)值的特征;
3、容易忽略數(shù)據(jù)集中屬性的相互關(guān)聯(lián)。
是以決策樹為基學(xué)習(xí)器的集成學(xué)習(xí)算法,如果分類模型,多個(gè)決策樹進(jìn)行投票處理,如果為回歸模型,多個(gè)決策樹結(jié)果平均值處理。
隨機(jī)森林的優(yōu)點(diǎn):
1、隨機(jī)森林具有防止過擬合能力,精度比大多數(shù)單個(gè)算法要好;
2、隨機(jī)森林分類器可以處理缺失值;
3、于有袋外數(shù)據(jù)(OOB),可以在模型生成過程中取得真實(shí)誤差的無偏估計(jì),且不損失訓(xùn)練數(shù)據(jù)量在訓(xùn)練過程中,能夠檢測(cè)到feature間的互相影響,且可以得出feature的重要性,具有一定參考意義;
4、每棵樹可以獨(dú)立、同時(shí)生成,容易做成并行化方法;
5、具有一定的特征選擇能力。
隨機(jī)森林的缺點(diǎn):
1、隨機(jī)森林已經(jīng)被證明在某些噪音較大的分類或回歸問題上會(huì)過擬。
2、對(duì)于有不同取值的屬性的數(shù)據(jù),取值劃分較多的屬性會(huì)對(duì)隨機(jī)森林產(chǎn)生更大的影響,所以隨機(jī)森林在這種數(shù)據(jù)上產(chǎn)出的屬性權(quán)值是不可信的。
GBDT是通過采用加法模型(即基函數(shù)的線性組合),以及不斷減小訓(xùn)練過程產(chǎn)生的殘差來達(dá)到將數(shù)據(jù)分類或者回歸的算法,它是決策樹的boosting算法,在傳統(tǒng)機(jī)器學(xué)習(xí)算法里面是對(duì)真實(shí)分布擬合的最好的幾種算法之一。
GBDT的優(yōu)點(diǎn):
1、GBDT屬于強(qiáng)分類器,一般情況下比邏輯回歸和決策樹預(yù)測(cè)精度要高;
2、GBDT可以自己選擇損失函數(shù),當(dāng)損失函數(shù)為指數(shù)函數(shù)時(shí),GBDT變?yōu)锳daboost算法;
3、GBDT可以做特征組合,往往在此基礎(chǔ)上和其他分類器進(jìn)行配合。
GBDT的缺點(diǎn):
1、由于弱學(xué)習(xí)器之間存在依賴關(guān)系,難以并行訓(xùn)練數(shù)據(jù);
2、和其他樹模型一樣,不適合高維稀疏特征。
XGBoost的全稱是eXtreme Gradient Boosting,它是經(jīng)過優(yōu)化的分布式梯度提升庫(kù),旨在高效、靈活且可移植。XGBoost是大規(guī)模并行boosting tree的工具,它是目前最快最好的開源 boosting tree工具包,比常見的工具包快10倍以上。在數(shù)據(jù)科學(xué)方面,有大量的Kaggle選手選用XGBoost進(jìn)行數(shù)據(jù)挖掘比賽,是各大數(shù)據(jù)科學(xué)比賽的必殺武器;在工業(yè)界大規(guī)模數(shù)據(jù)方面,XGBoost的分布式版本有廣泛的可移植性,支持在Kubernetes、Hadoop、SGE、MPI、 Dask等各個(gè)分布式環(huán)境上運(yùn)行,使得它可以很好地解決工業(yè)界大規(guī)模數(shù)據(jù)的問題。它是GBDT的進(jìn)階,也就是Xgboost有著GBDT所有的優(yōu)點(diǎn)。
此外與GBDT相比,xgBoosting有以下進(jìn)步:
1、收斂速度增快:
GBDT在優(yōu)化時(shí)只用到一階導(dǎo)數(shù),xgBoosting對(duì)代價(jià)函數(shù)做了二階Talor展開,引入了一階導(dǎo)數(shù)和二階導(dǎo)數(shù);
2、正則化,一定程度防止過擬合。
XGBoost 在代價(jià)函數(shù)里加入了正則項(xiàng),用于控制模型的復(fù)雜度。
正則項(xiàng)里包含了樹的葉子節(jié)點(diǎn)個(gè)數(shù)、每個(gè)葉子節(jié)點(diǎn)上輸出的 score 的 L2 模的平方和。
從 Bias-variancetradeoff 角度來講,正則項(xiàng)降低了模型的 variance,使學(xué)習(xí)出來的模型更加簡(jiǎn)單,防止過擬合;
3、并行處理。
XGBoost 工具支持并行。
Boosting 不是一種串行的結(jié)構(gòu)嗎?
怎么并行的?
注意 XGBoost 的并行不是 tree 粒度的并行,XGBoost 也是一次迭代完才能進(jìn)行下一次迭代的(第 t 次迭代的代價(jià)函數(shù)里包含了前面 t-1 次迭代的預(yù)測(cè)值)。
XGBoost 的并行是在特征粒度上的。
我們知道,決策樹的學(xué)習(xí)最耗時(shí)的一個(gè)步驟就是對(duì)特征的值進(jìn)行排序(因?yàn)橐_定最佳分割點(diǎn)),XGBoost 在訓(xùn)練之前,預(yù)先對(duì)數(shù)據(jù)進(jìn)行了排序,然后保存為block結(jié)構(gòu),后面的迭代中重復(fù)地使用這個(gè)結(jié)構(gòu),大大減小計(jì)算量。
這個(gè) block 結(jié)構(gòu)也使得并行成為了可能,在進(jìn)行節(jié)點(diǎn)的分裂時(shí),需要計(jì)算每個(gè)特征的增益,最終選增益最大的那個(gè)特征去做分裂,那么各個(gè)特征的增益計(jì)算就可以開多線程進(jìn)行;
1、Shrinkage(縮減):
相當(dāng)于學(xué)習(xí)速率。
XGBoost 在進(jìn)行完一次迭代后,會(huì)將葉子節(jié)點(diǎn)的權(quán)重乘上該系數(shù),主要是為了削弱每棵樹的影響,讓后面有更大的學(xué)習(xí)空間。
傳統(tǒng)GBDT的實(shí)現(xiàn)也有學(xué)習(xí)速率;
2、列抽樣:
XGBoost 借鑒了隨機(jī)森林的做法,支持列抽樣,不僅能降低過擬合,還能減少計(jì)算。
這也是XGBoost異于傳統(tǒng)GBDT的一個(gè)特性;
3、缺失值處理:
對(duì)于特征的值有缺失的樣本,XGBoost 采用的稀疏感知算法可以自動(dòng)學(xué)習(xí)出它的分裂方向;
4、內(nèi)置交叉驗(yàn)證:
XGBoost 允許在每一輪 Boosting 迭代中使用交叉驗(yàn)證。
因此,可以方便地獲得最優(yōu)Boosting 迭代次數(shù)。
而 GBM 使用網(wǎng)格搜索,只能檢測(cè)有限個(gè)值。
Xgboost缺點(diǎn):
1、和其他樹模型一樣,不適合高維稀疏特征;
2、算法參數(shù)過多,調(diào)參復(fù)雜,需要對(duì) XGBoost 原理十分清楚才能很好的使用 XGBoost。
SVM即支持向量機(jī),它是將向量映射到一個(gè)更高維的空間里,在這個(gè)空間里建立有一個(gè)最大間隔超平面。在分開數(shù)據(jù)的超平面的兩邊建有兩個(gè)互相平行的超平面,分隔超平面使兩個(gè)平行超平面的距離最大化。假定平行超平面間的距離或差距越大,分類器的總誤差越小。
SVM的優(yōu)點(diǎn):
1、使用核函數(shù)可以向高維空間進(jìn)行映射;
2、屬于強(qiáng)分類器,準(zhǔn)確的較高;
3、能夠處理非線性特征的相互作用。
SVM的缺點(diǎn):
1、SVM最大的缺點(diǎn),本人認(rèn)為會(huì)耗費(fèi)大量的機(jī)器內(nèi)存和運(yùn)算時(shí)間,這也是為什么隨著數(shù)據(jù)量越來越多,SVM在工業(yè)界運(yùn)用越來越少的原因;
2、對(duì)缺失數(shù)據(jù)敏感;
3、對(duì)非線性問題沒有通用解決方案,有時(shí)候很難找到一個(gè)合適的核函數(shù)。
樸素貝葉斯算法是基于貝葉斯定理和特征條件獨(dú)立假設(shè)的分類方法,屬于生成式模型。
樸素貝葉斯的優(yōu)點(diǎn):
1、樸素貝葉斯模型發(fā)源于古典數(shù)學(xué)理論,有著堅(jiān)實(shí)的數(shù)學(xué)基礎(chǔ),以及穩(wěn)定的分類效率;
2、對(duì)大數(shù)量訓(xùn)練和查詢時(shí)具有較高的速度。
即使使用超大規(guī)模的訓(xùn)練集,針對(duì)每個(gè)項(xiàng)目通常也只會(huì)有相對(duì)較少的特征數(shù),并且對(duì)項(xiàng)目的訓(xùn)練和分類也僅僅是特征概率的數(shù)學(xué)運(yùn)算而已;
3、對(duì)小規(guī)模的數(shù)據(jù)表現(xiàn)很好,能個(gè)處理多分類任務(wù),適合增量式訓(xùn)練(即可以實(shí)時(shí)的對(duì)新增的樣本進(jìn)行訓(xùn)練;
4、對(duì)缺失數(shù)據(jù)不太敏感,算法也比較簡(jiǎn)單,常用于文本分類;
5、樸素貝葉斯對(duì)結(jié)果解釋容易理解。
樸素貝葉斯的缺點(diǎn):
1、理論上,樸素貝葉斯模型與其他分類方法相比具有最小的誤差率。但是實(shí)際上并非總是如此,這是因?yàn)闃闼刎惾~斯模型假設(shè)屬性之間是相互獨(dú)立的,而這個(gè)假設(shè)在實(shí)際應(yīng)用中往往并不成立的。雖然在屬性相關(guān)性較小時(shí),樸素貝葉斯性能良好。但是,在屬性個(gè)數(shù)比較多或者屬性之間相關(guān)性較大時(shí),分類效果并不好;
2、需要知道先驗(yàn)概率,并且先驗(yàn)概率在很多時(shí)候多是取決于假設(shè),假設(shè)的模型可以有多種,從而導(dǎo)致在某些時(shí)候會(huì)由于假設(shè)的先驗(yàn)?zāi)P投沟妙A(yù)測(cè)效果不佳;
3、因?yàn)槭峭ㄟ^先驗(yàn)和數(shù)據(jù)來決定后驗(yàn)的概率來決定分類的,所以分類決策存在一定的錯(cuò)誤率;
4、對(duì)輸入數(shù)據(jù)的表達(dá)形式很敏感。
以上都是傳統(tǒng)有監(jiān)督機(jī)器學(xué)習(xí)算法,但傳統(tǒng)的機(jī)器學(xué)習(xí)算法在數(shù)據(jù)量面前,會(huì)觸及一個(gè)天花板,一旦到達(dá)極限,傳統(tǒng)機(jī)器學(xué)習(xí)算法將無法跟上數(shù)據(jù)增長(zhǎng)的步伐,性能則停滯不前。而數(shù)據(jù)越多,神經(jīng)網(wǎng)絡(luò)越浪!隨著現(xiàn)在數(shù)據(jù)量越來越多,人工神經(jīng)網(wǎng)絡(luò)運(yùn)用越來越廣泛。
人工神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn):
1、可以充分逼近任意復(fù)雜的非線性關(guān)系;
2、所有定量或定性的信息都等勢(shì)分布貯存于網(wǎng)絡(luò)內(nèi)的各神經(jīng)元,故有很強(qiáng)的魯棒性和容錯(cuò)性;
3、采用并行分布處理方法,使得快速進(jìn)行大量運(yùn)算成為可能;
4、可學(xué)習(xí)和自適應(yīng)不知道或不確定的系統(tǒng);
5、能夠同時(shí)處理定量、定性知識(shí)。
人工神經(jīng)網(wǎng)絡(luò)的缺點(diǎn):
1、黑盒過程,不能觀察之間的學(xué)習(xí)過程,輸出結(jié)果難以解釋,會(huì)影響到結(jié)果的可信度和可接受程度;
2、學(xué)習(xí)時(shí)間過長(zhǎng),有可能陷入局部極小值,甚至可能達(dá)不到學(xué)習(xí)的目的;
3、神經(jīng)網(wǎng)絡(luò)需要大量的參數(shù),如網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)、權(quán)值和閾值的初始值。
無監(jiān)督學(xué)習(xí)輸入數(shù)據(jù)沒有被標(biāo)記,也沒有確定的結(jié)果,樣本數(shù)據(jù)類別未知,需要根據(jù)樣本間的相似性對(duì)樣本集進(jìn)行分類。常用的無監(jiān)督模型主要指各種聚類,主要有K均值聚類、層次聚類、密度聚類等。
K-Means的主要優(yōu)點(diǎn):
1、原理簡(jiǎn)單,容易實(shí)現(xiàn);
2、可解釋度較強(qiáng)。
K-Means的主要缺點(diǎn):
1、K值很難確定;
2、聚類效果依賴于聚類中心的初始化,收斂到局部最優(yōu);
3、對(duì)噪音和異常點(diǎn)敏感;
4、對(duì)于非凸數(shù)據(jù)集或類別規(guī)模差異太大的數(shù)據(jù)效果不好。
密度聚類優(yōu)點(diǎn):
1、可以對(duì)任意形狀的稠密數(shù)據(jù)集進(jìn)行聚類,相對(duì)的K均值之類的聚類算法一般只適用于凸數(shù)據(jù)集;
2、可以在聚類的同時(shí)發(fā)現(xiàn)異常點(diǎn),對(duì)數(shù)據(jù)集中的異常點(diǎn)不敏感;
3、聚類結(jié)果沒有偏倚,相對(duì)的,K-Means之類的聚類算法初始值對(duì)聚類結(jié)果有很大影響。
密度聚類缺點(diǎn):
1、如果樣本集的密度不均勻、聚類間距差相差很大時(shí),聚類質(zhì)量較差,這時(shí)用DBSCAN聚類一般不適合;
2、如果樣本集較大時(shí),聚類收斂時(shí)間較長(zhǎng),此時(shí)可以對(duì)搜索最近鄰時(shí)建立的KD樹或者球樹進(jìn)行規(guī)模限制來改進(jìn);
3、調(diào)參相對(duì)于傳統(tǒng)的K-Means之類的聚類算法稍復(fù)雜,主要需要對(duì)距離閾值?,鄰域樣本數(shù)閾值MinPts聯(lián)合調(diào)參,不同的參數(shù)組合對(duì)最后的聚類效果有較大影響。
層次聚類優(yōu)點(diǎn):
1、距離和規(guī)則的相似度容易定義,限制少。
2、不需要預(yù)先制定聚類數(shù)。
3、可以發(fā)現(xiàn)類的層次關(guān)系。
4、可以聚類成其它形狀。
層次聚類的缺點(diǎn):
1、計(jì)算復(fù)雜度太高。
2、奇異值也能產(chǎn)生很大影響。
3、算法很可能聚類成鏈狀。
總之,選擇哪一個(gè)算法必須要適用于你自己的問題,這就要求選擇正確的機(jī)器學(xué)習(xí)任務(wù)。但很多情況下好的數(shù)據(jù)卻要優(yōu)于好的算法,設(shè)計(jì)優(yōu)良特征和做特征工程更有意義,但只有了解每個(gè)機(jī)器算法的原理及優(yōu)缺點(diǎn),才能根據(jù)不同的機(jī)器學(xué)習(xí)算法做相應(yīng)的特征工程。(對(duì)特征工程感興趣的同學(xué)可以參考我在公眾號(hào)一個(gè)數(shù)據(jù)人的自留地寫的另一篇文章:機(jī)器學(xué)習(xí)中的特征工程。
-END-
本文為作者獨(dú)立觀點(diǎn),不代表鳥哥筆記立場(chǎng),未經(jīng)允許不得轉(zhuǎn)載。
《鳥哥筆記版權(quán)及免責(zé)申明》 如對(duì)文章、圖片、字體等版權(quán)有疑問,請(qǐng)點(diǎn)擊 反饋舉報(bào)
我們致力于提供一個(gè)高質(zhì)量?jī)?nèi)容的交流平臺(tái)。為落實(shí)國(guó)家互聯(lián)網(wǎng)信息辦公室“依法管網(wǎng)、依法辦網(wǎng)、依法上網(wǎng)”的要求,為完善跟帖評(píng)論自律管理,為了保護(hù)用戶創(chuàng)造的內(nèi)容、維護(hù)開放、真實(shí)、專業(yè)的平臺(tái)氛圍,我們團(tuán)隊(duì)將依據(jù)本公約中的條款對(duì)注冊(cè)用戶和發(fā)布在本平臺(tái)的內(nèi)容進(jìn)行管理。平臺(tái)鼓勵(lì)用戶創(chuàng)作、發(fā)布優(yōu)質(zhì)內(nèi)容,同時(shí)也將采取必要措施管理違法、侵權(quán)或有其他不良影響的網(wǎng)絡(luò)信息。
一、根據(jù)《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》《中華人民共和國(guó)未成年人保護(hù)法》等法律法規(guī),對(duì)以下違法、不良信息或存在危害的行為進(jìn)行處理。
1. 違反法律法規(guī)的信息,主要表現(xiàn)為:
1)反對(duì)憲法所確定的基本原則;
2)危害國(guó)家安全,泄露國(guó)家秘密,顛覆國(guó)家政權(quán),破壞國(guó)家統(tǒng)一,損害國(guó)家榮譽(yù)和利益;
3)侮辱、濫用英烈形象,歪曲、丑化、褻瀆、否定英雄烈士事跡和精神,以侮辱、誹謗或者其他方式侵害英雄烈士的姓名、肖像、名譽(yù)、榮譽(yù);
4)宣揚(yáng)恐怖主義、極端主義或者煽動(dòng)實(shí)施恐怖活動(dòng)、極端主義活動(dòng);
5)煽動(dòng)民族仇恨、民族歧視,破壞民族團(tuán)結(jié);
6)破壞國(guó)家宗教政策,宣揚(yáng)邪教和封建迷信;
7)散布謠言,擾亂社會(huì)秩序,破壞社會(huì)穩(wěn)定;
8)宣揚(yáng)淫穢、色情、賭博、暴力、兇殺、恐怖或者教唆犯罪;
9)煽動(dòng)非法集會(huì)、結(jié)社、游行、示威、聚眾擾亂社會(huì)秩序;
10)侮辱或者誹謗他人,侵害他人名譽(yù)、隱私和其他合法權(quán)益;
11)通過網(wǎng)絡(luò)以文字、圖片、音視頻等形式,對(duì)未成年人實(shí)施侮辱、誹謗、威脅或者惡意損害未成年人形象進(jìn)行網(wǎng)絡(luò)欺凌的;
12)危害未成年人身心健康的;
13)含有法律、行政法規(guī)禁止的其他內(nèi)容;
2. 不友善:不尊重用戶及其所貢獻(xiàn)內(nèi)容的信息或行為。主要表現(xiàn)為:
1)輕蔑:貶低、輕視他人及其勞動(dòng)成果;
2)誹謗:捏造、散布虛假事實(shí),損害他人名譽(yù);
3)嘲諷:以比喻、夸張、侮辱性的手法對(duì)他人或其行為進(jìn)行揭露或描述,以此來激怒他人;
4)挑釁:以不友好的方式激怒他人,意圖使對(duì)方對(duì)自己的言論作出回應(yīng),蓄意制造事端;
5)羞辱:貶低他人的能力、行為、生理或身份特征,讓對(duì)方難堪;
6)謾罵:以不文明的語(yǔ)言對(duì)他人進(jìn)行負(fù)面評(píng)價(jià);
7)歧視:煽動(dòng)人群歧視、地域歧視等,針對(duì)他人的民族、種族、宗教、性取向、性別、年齡、地域、生理特征等身份或者歸類的攻擊;
8)威脅:許諾以不良的后果來迫使他人服從自己的意志;
3. 發(fā)布垃圾廣告信息:以推廣曝光為目的,發(fā)布影響用戶體驗(yàn)、擾亂本網(wǎng)站秩序的內(nèi)容,或進(jìn)行相關(guān)行為。主要表現(xiàn)為:
1)多次發(fā)布包含售賣產(chǎn)品、提供服務(wù)、宣傳推廣內(nèi)容的垃圾廣告。包括但不限于以下幾種形式:
2)單個(gè)帳號(hào)多次發(fā)布包含垃圾廣告的內(nèi)容;
3)多個(gè)廣告帳號(hào)互相配合發(fā)布、傳播包含垃圾廣告的內(nèi)容;
4)多次發(fā)布包含欺騙性外鏈的內(nèi)容,如未注明的淘寶客鏈接、跳轉(zhuǎn)網(wǎng)站等,誘騙用戶點(diǎn)擊鏈接
5)發(fā)布大量包含推廣鏈接、產(chǎn)品、品牌等內(nèi)容獲取搜索引擎中的不正當(dāng)曝光;
6)購(gòu)買或出售帳號(hào)之間虛假地互動(dòng),發(fā)布干擾網(wǎng)站秩序的推廣內(nèi)容及相關(guān)交易。
7)發(fā)布包含欺騙性的惡意營(yíng)銷內(nèi)容,如通過偽造經(jīng)歷、冒充他人等方式進(jìn)行惡意營(yíng)銷;
8)使用特殊符號(hào)、圖片等方式規(guī)避垃圾廣告內(nèi)容審核的廣告內(nèi)容。
4. 色情低俗信息,主要表現(xiàn)為:
1)包含自己或他人性經(jīng)驗(yàn)的細(xì)節(jié)描述或露骨的感受描述;
2)涉及色情段子、兩性笑話的低俗內(nèi)容;
3)配圖、頭圖中包含庸俗或挑逗性圖片的內(nèi)容;
4)帶有性暗示、性挑逗等易使人產(chǎn)生性聯(lián)想;
5)展現(xiàn)血腥、驚悚、殘忍等致人身心不適;
6)炒作緋聞、丑聞、劣跡等;
7)宣揚(yáng)低俗、庸俗、媚俗內(nèi)容。
5. 不實(shí)信息,主要表現(xiàn)為:
1)可能存在事實(shí)性錯(cuò)誤或者造謠等內(nèi)容;
2)存在事實(shí)夸大、偽造虛假經(jīng)歷等誤導(dǎo)他人的內(nèi)容;
3)偽造身份、冒充他人,通過頭像、用戶名等個(gè)人信息暗示自己具有特定身份,或與特定機(jī)構(gòu)或個(gè)人存在關(guān)聯(lián)。
6. 傳播封建迷信,主要表現(xiàn)為:
1)找人算命、測(cè)字、占卜、解夢(mèng)、化解厄運(yùn)、使用迷信方式治病;
2)求推薦算命看相大師;
3)針對(duì)具體風(fēng)水等問題進(jìn)行求助或咨詢;
4)問自己或他人的八字、六爻、星盤、手相、面相、五行缺失,包括通過占卜方法問婚姻、前程、運(yùn)勢(shì),東西寵物丟了能不能找回、取名改名等;
7. 文章標(biāo)題黨,主要表現(xiàn)為:
1)以各種夸張、獵奇、不合常理的表現(xiàn)手法等行為來誘導(dǎo)用戶;
2)內(nèi)容與標(biāo)題之間存在嚴(yán)重不實(shí)或者原意扭曲;
3)使用夸張標(biāo)題,內(nèi)容與標(biāo)題嚴(yán)重不符的。
8.「飯圈」亂象行為,主要表現(xiàn)為:
1)誘導(dǎo)未成年人應(yīng)援集資、高額消費(fèi)、投票打榜
2)粉絲互撕謾罵、拉踩引戰(zhàn)、造謠攻擊、人肉搜索、侵犯隱私
3)鼓動(dòng)「飯圈」粉絲攀比炫富、奢靡享樂等行為
4)以號(hào)召粉絲、雇用網(wǎng)絡(luò)水軍、「養(yǎng)號(hào)」形式刷量控評(píng)等行為
5)通過「蹭熱點(diǎn)」、制造話題等形式干擾輿論,影響傳播秩序
9. 其他危害行為或內(nèi)容,主要表現(xiàn)為:
1)可能引發(fā)未成年人模仿不安全行為和違反社會(huì)公德行為、誘導(dǎo)未成年人不良嗜好影響未成年人身心健康的;
2)不當(dāng)評(píng)述自然災(zāi)害、重大事故等災(zāi)難的;
3)美化、粉飾侵略戰(zhàn)爭(zhēng)行為的;
4)法律、行政法規(guī)禁止,或可能對(duì)網(wǎng)絡(luò)生態(tài)造成不良影響的其他內(nèi)容。
二、違規(guī)處罰
本網(wǎng)站通過主動(dòng)發(fā)現(xiàn)和接受用戶舉報(bào)兩種方式收集違規(guī)行為信息。所有有意的降低內(nèi)容質(zhì)量、傷害平臺(tái)氛圍及欺凌未成年人或危害未成年人身心健康的行為都是不能容忍的。
當(dāng)一個(gè)用戶發(fā)布違規(guī)內(nèi)容時(shí),本網(wǎng)站將依據(jù)相關(guān)用戶違規(guī)情節(jié)嚴(yán)重程度,對(duì)帳號(hào)進(jìn)行禁言 1 天、7 天、15 天直至永久禁言或封停賬號(hào)的處罰。當(dāng)涉及欺凌未成年人、危害未成年人身心健康、通過作弊手段注冊(cè)、使用帳號(hào),或者濫用多個(gè)帳號(hào)發(fā)布違規(guī)內(nèi)容時(shí),本網(wǎng)站將加重處罰。
三、申訴
隨著平臺(tái)管理經(jīng)驗(yàn)的不斷豐富,本網(wǎng)站出于維護(hù)本網(wǎng)站氛圍和秩序的目的,將不斷完善本公約。
如果本網(wǎng)站用戶對(duì)本網(wǎng)站基于本公約規(guī)定做出的處理有異議,可以通過「建議反饋」功能向本網(wǎng)站進(jìn)行反饋。
(規(guī)則的最終解釋權(quán)歸屬本網(wǎng)站所有)