原稿----一種基于機器學(xué)習(xí)的加權(quán) Slope One 算法改進參考模板_第1頁
原稿----一種基于機器學(xué)習(xí)的加權(quán) Slope One 算法改進參考模板_第2頁
原稿----一種基于機器學(xué)習(xí)的加權(quán) Slope One 算法改進參考模板_第3頁
原稿----一種基于機器學(xué)習(xí)的加權(quán) Slope One 算法改進參考模板_第4頁
原稿----一種基于機器學(xué)習(xí)的加權(quán) Slope One 算法改進參考模板_第5頁
已閱讀5頁,還剩3頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

1、一種基于機器學(xué)習(xí)的加權(quán)Slope One算法改進張玉連1,2,郇思思1,3,梁順攀1,2 1 (燕山大學(xué)信息科學(xué)與工程學(xué)院,河北秦皇島066004)2 (燕山大學(xué)信息科學(xué)與工程學(xué)院計算機教學(xué)實驗中心,河北秦皇島066004)3 (河北省計算機虛擬技術(shù)與系統(tǒng)集成重點實驗室,河北秦皇島066004)E-mail :huansisi_ysu摘要:Slope One算法是一種基于內(nèi)存的協(xié)同過濾推薦算法,但在計算時,內(nèi)存消耗過大、預(yù)測結(jié)果準(zhǔn)確度不高,尤其當(dāng)用戶數(shù)量和項目數(shù)量較大時,算法的執(zhí)行效率會很低。基于此,本文將一種基于模型的算法融合到基于內(nèi)存的Slope One算法中,提出一種使用機器學(xué)習(xí)中最小二

2、乘法改進的加權(quán)Slope One算法,該算法簡單直觀且計算高效,可以克服傳統(tǒng)基于內(nèi)存推薦算法的諸多缺點。最后,在Filmtrust和Movielens數(shù)據(jù)集上的對比實驗結(jié)果表明,融合偏差因子的加權(quán)Slope One算法在這兩個稀疏度不同的數(shù)據(jù)集下,均能獲得較高的推薦準(zhǔn)確度。關(guān)鍵詞:協(xié)同過濾;機器學(xué)習(xí);最小二乘法;加權(quán)Slope One算法1 / 8中圖分類號:TP 文獻標(biāo)識碼:A文章編號:Improved Weighted Slope One Algorithm Based on Machine LearningZHANG Yu-lian1,2,HUAN Si-s

3、i1,3, LIANG Shun-pan1,21 (Information Science and Engineering College, Yanshan University, Qinhuangdao 066004, China)2 (The Basic Computer Teaching Experiment Center, Information Science and Engineering College, Yanshan University, Qinhuangdao 066004, China)3 (The Key Laboratory for Computer Virtual

4、 Technology and System Integration of Hebei Province, Qinhuangdao 066004, China)Abstract: Slope One algorithm is a memory-based collaborative filtering recommendation algorithm, but in computing, the algorithms memory consumption is too large, and prediction accuracy is low, especially when the user

5、 and item number is larger. Therefore, this article puts forward integrate model-based and memory-based methods together ,called improved weighted Slope One algorithm based on machine learning, the algorithm is intuitive and efficient, can overcome the traditional disadvantages of the

6、 memory-based recommendation algorithms. Finally, experiments on the well-known datasets Filmtrust and Movielens show that the biased integrating least squares technique into weighted Slope One algorithm in the case of different sparse datasets can both achieve great improvement of prediction accura

7、cy. Key words: collaborative filtering;machine learning; least squares technique ;weighted Slope One algorithm1引言 隨著互聯(lián)網(wǎng)的發(fā)展和普及,信息過載問題愈加嚴(yán)重。在面對海量數(shù)據(jù)時,用戶如何從冗余的信息中找到自己需要的內(nèi)容,便成了一個值得研究的課題1。為有效解決信息過濾問題,推薦系統(tǒng)應(yīng)運而生。協(xié)同過濾(Collaborative Filtering, CF)算法是推薦系統(tǒng)中較常用的算法之一2,是目前發(fā)展的最成熟的推薦技術(shù),它僅僅通過分析用戶的歷史行為便可為用戶進行推薦。按照內(nèi)存的占用程

8、度和算法的計算效率,協(xié)同過濾推薦算法可分為兩類:基于內(nèi)存的協(xié)同過濾(Memory-Based Collaborative Filtering)和基于模型的協(xié)同過濾(Model-Based Collaborative Filtering)。目前,推薦算法的研究集中在基于內(nèi)存的推薦上3-8,它為研究者提供了一種簡單直觀的方法進行預(yù)測,但內(nèi)存消耗太大,且預(yù)測效果不明顯。而基于模型的方法將數(shù)學(xué)模型與推薦算法相結(jié)合9,為研究者提供了一種內(nèi)存占用少且高效的方式進行預(yù)測。為融合基于內(nèi)存和基于模型推薦算法各自的優(yōu)點,將機器學(xué)習(xí)中較為常用的最小二乘法與Slope One算法(Slope One Algorith

9、m, SO)結(jié)合對用戶進行推薦。最小二乘法是機器學(xué)習(xí)方法中一種數(shù)字優(yōu)化技術(shù),計算預(yù)測值與實際評分值的誤差平方和來得到最佳函數(shù)匹配9。Slope One算法是Lemire等人4提出的一種基于項目的協(xié)同過濾算法,它運算簡便、易于實現(xiàn)和維護且具有良好的可擴展性等優(yōu)點,但并未考慮到項目間相似度,在處理稍大規(guī)模的數(shù)據(jù)時,會遇到內(nèi)存耗費過大,且所得預(yù)測結(jié)果準(zhǔn)確度低等問題。針對以上問題,本文提出一種基于機器學(xué)習(xí)的加權(quán)Slope One算法 (Improved Weighted Slope One Algorithm Based on Machine Learning),算法基本

10、思想為:(1)基于內(nèi)存的方法簡單直觀,易于理解,而基于模型的方法在普遍比基于內(nèi)存的方法可以得到更準(zhǔn)確的預(yù)測結(jié)果,本文考慮將基于模型和基于內(nèi)存的推薦方法兩者的優(yōu)點,提出一種新的算法為用戶產(chǎn)生推薦;(2)加權(quán)Slope One算法在進行計算產(chǎn)生預(yù)測時,將系統(tǒng)中所有的項目視為平等的,僅計算了共同評論兩個項目的用戶的個數(shù),并沒有詳細(xì)評定兩個項目間的相似性。本文使用梯度下降的方法為兩項目間相似度進行衡量,動態(tài)調(diào)節(jié)預(yù)測評分,進而提高預(yù)測準(zhǔn)確度。2相關(guān)工作 協(xié)同過濾推薦算法是常用的推薦算法之一,其中,基于內(nèi)存的協(xié)同過濾推薦算法2是現(xiàn)下研究者們比較常用的推薦算法, Slope One算法4 (Slope On

11、e algorithm, SO)就是一種基于項目的協(xié)同過濾推薦算法,它通過計算用戶已評分項目間的偏差來產(chǎn)生預(yù)測,即使用線性關(guān)系來表示項目間的關(guān)系,具有計算簡便、易于實現(xiàn)和維護、能為新用戶提供推薦服務(wù)、具有高效的查詢相應(yīng)、具有合理的準(zhǔn)確性等優(yōu)點。但該算法在計算時,將項目間的相似度一視同仁,并未對相似度問題進行詳細(xì)的衡量。文獻4中還提出了一種加權(quán)Slope One算法(Weighted Slope One algorithm, WSO),它考慮了同時評論兩個項目的用戶數(shù)量,但對項目間的不同卻一視同仁,沒有細(xì)致的區(qū)別開,這使得預(yù)測結(jié)果相較于Slope One算法預(yù)測結(jié)果的改善并不明顯。Wang等人5

12、用Slope One算法填充用戶-項目矩陣中的空缺值,而后使用基于用戶的算法進行預(yù)測,提高了推薦的準(zhǔn)確度。文獻6也使用上述方法進行填充,不同的是在產(chǎn)生推薦時使用了基于項目的推薦算法。這兩種方法都對用戶-評分矩陣進行填充,但是這個方法存在偶然性,所得預(yù)測結(jié)果并不穩(wěn)定。Gao等人7將基于內(nèi)容的算法與Slope One算法相結(jié)合,但該模型在數(shù)據(jù)稀疏和可擴展性上所得的效果并不理想。如上所述,考慮到在現(xiàn)有的推薦系統(tǒng)中,由于用戶數(shù)量和項目數(shù)量的快速增長,導(dǎo)致算法在進行計算時內(nèi)存占用過度,導(dǎo)致運行較慢等問題。為提高算法效率,降低計算的復(fù)雜性,本文考慮將基于模型的協(xié)同過濾推薦算法也融入到算法改進中。其中,最小

13、二乘法9是機器學(xué)習(xí)方法中最簡單有效的算法之一,使用最小二乘法可以簡便地獲得未知的預(yù)測數(shù)據(jù),并使得預(yù)測數(shù)據(jù)與實際評分值之間的誤差平方和最小。文獻9就使用了最小二乘法對推薦算法進行改進,基本獲得了較好的預(yù)測結(jié)果,但是算法的穩(wěn)定性不強,在數(shù)據(jù)集較為稀疏時,得到的預(yù)測結(jié)果并不理想。3相關(guān)定義Lemire等人在文獻4提出了一種新的協(xié)同過濾推薦算法,即Slope One算法(Slope One algorithm,SO),它是一種基于項目的協(xié)同過濾推薦算法。該算法在實踐中展現(xiàn)了自身的諸多優(yōu)點,例如計算簡單方便、易于實現(xiàn)和維護、能為新用戶提供較為準(zhǔn)確的推薦、具有快速的查詢響應(yīng)、具有較高的推薦準(zhǔn)確性等優(yōu)點,它

14、是通過計算用戶共同評分項目之間的偏差來產(chǎn)生預(yù)測,相較于傳統(tǒng)的協(xié)同過濾推薦算法,本算法展現(xiàn)了自身良好的計算性能。定義1. Slope One算法Slope One算法的計算過程,即找出如的函數(shù)形式,對兩項目間的相似關(guān)系進行表示,即為每對項目根據(jù)其中一個項目的評分來預(yù)測另一個項目的評分。等式中的b表示兩個項目被同一用戶評分的評分偏差,x表示用戶對已知項目的評分值。那么,給定兩個項目i和j(),偏差計算公式devij如下所示: (1)其中,rui表示用戶u對項目i的評分,Sij表示同時對項目i與j()有評分的用戶集合,表示用戶集合Sij中用戶的數(shù)量。得到項目i與j()之間的偏差devij后,用戶u即

15、可對項目i進行預(yù)測,預(yù)測公式preui如下: (2)其中,S(u)表示用戶u所評分的所有項目的集合,表示集合中至少有一個項目(即i除外的項目)與項目i同時被用戶u評分的項目集合。定義2. 加權(quán)Slope One算法上面講到的Slope One算法沒有考慮到同時被評分的項目的數(shù)量,顯而易見,如果被不同用戶同時進行評分的共同項目數(shù)量越多,那么預(yù)測結(jié)果就會越準(zhǔn)確。故Lemire等人在文獻4中還提出加權(quán)Slope One算法(Weighted Slope One Algorithm, WSO)如下: (3)等式中的表示共同評論項目i和j()的用戶個數(shù)。4基于機器學(xué)習(xí)的加權(quán)Slope One算法改進接下

16、來,首先介紹一種基于最小二乘法的傳統(tǒng)Slope One算法改進,然后再介紹四種基于最小二乘法的加權(quán)Slope One算法改進。4.1 基于最小二乘法的Slope One算法改進本文首先提出了一種基于最小二乘法的Slope One算法改進 (Integrating Least Squares Technique into Slope One Algorithm,LSO)。LSO算法的預(yù)測公式與加權(quán)Slope One算法的預(yù)測公式相似,由于在實驗時,加權(quán)Slope One算法所得的預(yù)測結(jié)果要略優(yōu)于Slope One算法,因此,本文依照加權(quán)Slope One算法模式,先提出了基于最小二乘法的Slop

17、e One算法,預(yù)測公式如下所示: (4)其中,將初始值設(shè)為1,即為原始的Slope One算法。通過解決最小二乘法的問題來確定的取值: (5)其中,表示測試集中用戶對項目評分的真實值,最小二乘法通過真實評分值與預(yù)測評分值得殘差平方和最小來確定擬合曲線的位置,從而得到更為接近真實評分值的預(yù)測值。本文將使用梯度下降的方法來確定最合適的值:if 其中,為預(yù)測偏差,計算方式為,表示劃分的測試集中用戶對項目評分的真實數(shù)值,表示使用Slope One算法預(yù)測所得到的用戶對項目的評分預(yù)測值。是學(xué)習(xí)速率,其選取需要通過交叉驗證,即反復(fù)試驗來確定其取值。4.2基于最小二乘法的加權(quán)Slope One算法改進接下

18、來,提出一種基于最小二乘法的加權(quán)Slope One算法 (Integrating Least Squares Technique into Weighted Slope One Algorithm,LWSO)。由于加權(quán)Slope One算法考慮了權(quán)重問題,故在考慮因子時,可將因子視為衡量項目與項目的相似程度的指標(biāo)10,則改進后的預(yù)測公式如下所示: (6)其中,的初始值仍設(shè)為1,即為加權(quán)Slope One算法。仍然通過解決最小二乘法的問題來確定的取值: (7)之后,依舊采用梯度下降的方法來確定最合適的值,但是,為了對比不同的梯度下降方法對預(yù)測結(jié)果的影響,本文采用兩種不同的梯度下降方式來驗證LWS

19、O算法,分別命名為LWSO1和LWSO2。LWSO1的梯度下降方式和LSO采用的方式一樣,如下所示:if 其中,為預(yù)測偏差,計算方式為,與3.2中計算方式一樣,不同的是,表示使用加權(quán)Slope One算法預(yù)測所得的用戶對項目的評分預(yù)測值。而LWSO2的梯度下降方式則采用如下形式:if 顯然,第二種梯度下降方式比第一種梯度下降方式在梯度間隔的選取時更為密集,之后的實驗將驗證兩種梯度間隔的選取對實驗結(jié)果的影響。4.3融合偏差因子的加權(quán)Slope One算法改進在現(xiàn)實生活中,人們在網(wǎng)上購物或者瀏覽網(wǎng)頁進行評價時,往往會加入自己的偏見,這就是所謂的用戶偏見,考慮到用戶及項目的偏好,則需要對原始數(shù)據(jù)進行

20、歸一化處理,用以消除用戶及項目的偏好對算法的影響,因此,本文在接下來的改進中,把用戶偏好問題也考慮到算法中,提出了一種新的融合偏差因子的加權(quán)Slope One算法(The Biased Integrating Least Squares Technique into Weighted Slope One Algorithm,BLWSO)。本文先定義用戶u對項目i的偏好如下: (8)其中,是定值,即數(shù)據(jù)集中所有項目所得評分的平均值,是用戶偏差,表示某個用戶對已評分項目的所有評分平均值相對于數(shù)據(jù)集中所有評分平均分的偏差,是項目偏差,表示某個項目所得評分的平均分相對于數(shù)據(jù)集中所有評分平均分的偏差。改

21、進后的預(yù)測公式如下所示: (9)其中,的初始值仍設(shè)為1,和 初始化為0。通過解決最小二乘法的問題來確定的取值: (10)其中,加號后面的部分是為了防止訓(xùn)練過擬合。依舊采用梯度下降的方法來確定最合適的、和值,同上一種方法一樣,為了對比不同的梯度下降方法對預(yù)測結(jié)果的影響,BLWSO算法也將采用兩種不同的梯度下降方式來驗證,分別命名為BLWSO1和BLWSO2。BLWSO1采用的梯度下降方式如下所示:if 而BLWSO2的梯度下降方式采用如下形式:if 5實驗及結(jié)果分析 5.1 數(shù)據(jù)集為了更好的驗證提出的五個算法的優(yōu)劣,本文分別使用兩個數(shù)據(jù)集對其進行試驗。1)Filmtrust數(shù)據(jù)集。在這個數(shù)據(jù)集中

22、,包含有1508個用戶對2071部電影共35497條評分記錄。該數(shù)據(jù)集的評分范圍為0.5-4.0分,用戶給電影所打的評分越高,表示該用戶對這部電影的喜愛程度越高。數(shù)據(jù)集的稀疏度為98.86%。2)Movielens數(shù)據(jù)集。這個數(shù)據(jù)集中,包含943個用戶對1682部電影共100000條評分記錄,該數(shù)據(jù)集的評分范圍也為1-5分,據(jù)稀疏度為93.70%。選擇數(shù)據(jù)集的標(biāo)準(zhǔn),是為了驗證在稀疏度相差較大的兩個數(shù)據(jù)集中,改進后的五種方法是否都能獲得較為理想的預(yù)測結(jié)果。為了防止訓(xùn)練過擬合,在實驗時,采用了五折交叉驗證法進行實驗,即將這兩個數(shù)據(jù)集分別均等的劃為5份,取其中4份為訓(xùn)練集,剩下的1份為測試集。然后分

23、別進行五次實驗,那么這五次實驗所得結(jié)果的平均值即為實驗結(jié)果。5.2 測量指標(biāo)本實驗采用平均絕對誤差MAE(Mean Absolute Error, MAE)和均方根誤差RMSE(Root Mean Squared Error, RMSE)對提出的五種方法的預(yù)測準(zhǔn)確度進行驗證。MAE計算方法如下: (11)其中,rui為用戶u對項目i的實際評分,preui為用戶u對用戶i通過預(yù)測算法計算出來的預(yù)測評分。T為測試集,表示測試集中元素的個數(shù)。MAE越小,說明算法結(jié)果預(yù)測值與用戶評分真實值越接近,結(jié)果就越準(zhǔn)確,預(yù)測效果越好。RMSE計算方法如下: (12)同樣,RMSE值越小,表示預(yù)測值與評分真實值越

24、接近,預(yù)測效果越好。5.3 實驗結(jié)果與討論本文設(shè)計了2組實驗,來驗證這五種算法在不同數(shù)據(jù)集下的算法性能。即分別在Filmtrust和Movielens數(shù)據(jù)集上將改進后的五種算法LSO、LWSO1、LWSO2、BLWSO1和BLWSO2算法分別與文獻4中提出的SO算法和WSO算法進行比較。實驗1 在Filmtrust數(shù)據(jù)集中,按各個算法進行計算,得到結(jié)果預(yù)測值,計算得出MAE(圖1)和RMSE值(圖2)并進行比較。其中,橫坐標(biāo)按照梯度下降的迭代次數(shù)進行設(shè)置,迭代次數(shù)分別為10、20、100次。由于文獻4中提出的原始SO算法和加權(quán)SO算法在計算時不用迭代,故它們的MAE和RMSE結(jié)果沒有任何變化趨

25、勢,所得結(jié)果在圖上表示即為一條直線。同時,由于它們的MAE和RMSE值比改進后的算法結(jié)果值偏大,為了使改進后的五種算法的MAE和RMSE值變化趨勢更加明顯,故用表1將原始SO算法和加權(quán)SO算法的結(jié)果單獨進行展示。圖1 各算法在Filmtrust數(shù)據(jù)集上MAE值比較Figure 1 Comparison of MAE between relevant recommendation algorithms on the Filmtrust dataset.圖2 各算法在Filmtrust數(shù)據(jù)集上RMSE值比較Figure 2 Comparison of RMSE between relevant r

26、ecommendation algorithms on the Filmtrust dataset.表1 SO、WSO算法在Filmtrust數(shù)據(jù)集上MAE和RMSE值比較Table 1 Comparison of MAE and RMSE between SO、WSO algorithms on the Filmtrust dataset.MAERMSESO0.6372876630.845336008WSO0.6347011950.840286949從圖1 、圖2、表1中的數(shù)據(jù)可以看出,在Filmtrust數(shù)據(jù)集中, BLWSO2算法相比其他幾個算法而言,包括文獻4中提出的原始的SO算法和W

27、SO算法,能獲得更小的MAE值,但同時考慮到預(yù)測準(zhǔn)確度和算法的表現(xiàn)性能上來看,BLWSO1算法的效果更好。另外,比較兩幅圖在不同迭代次數(shù)時的MAE和RMSE值,可以看出,隨著迭代次數(shù)的增多,LSO和LWSO1算法的性能一直很穩(wěn)定,迭代次數(shù)的多少對其產(chǎn)生的影響不大。LWSO2、BLWSO1和BLWSO2算法收斂速度很快,且當(dāng)?shù)螖?shù)越多時,MAE和RMSE值也更小,預(yù)測結(jié)果越準(zhǔn)確。實驗2 在Movielens數(shù)據(jù)集上,分別對提出的五個算法進行計算,同實驗1一樣,將MAE(圖3)和RMSE值(圖4)進行比較,橫坐標(biāo)也按照梯度下降的迭代次數(shù)進行設(shè)置,迭代次數(shù)分別為10、20、100次。為了方便實驗結(jié)

28、果與Filmtrust數(shù)據(jù)集實驗結(jié)果進行對比,實驗2中的其他設(shè)置與實驗1相同。結(jié)果如圖3、圖4和表2所示:圖3 各算法在Movielens數(shù)據(jù)集上MAE值比較Figure 3 Comparison of MAE between relevant recommendation algorithms on the Movielens dataset.圖4 各算法在Movielens數(shù)據(jù)集上RMSE值比較Figure 4 Comparison of RMSE between relevant recommendation algorithms on the Movielens dataset.表2

29、SO、WSO算法在Movielens數(shù)據(jù)集上MAE和RMSE值比較Table 2 Comparison of MAE and RMSE between SO、WSO algorithms on the Movielens dataset.MAERMSESO0.7448660790.946691342WSO0.7408973390.940817242從圖3、圖4和表2分析得出,在Movielens數(shù)據(jù)集上,MAE和RMSE值的實驗結(jié)果所呈現(xiàn)的趨勢與在Filmtrust數(shù)據(jù)集上一致,都呈現(xiàn)下降趨勢。隨著迭代次數(shù)的增多,改進后的算法計算所得到的MAE和RMSE值,都比在Filmtrust數(shù)據(jù)集中所得

30、的結(jié)果要好,算法穩(wěn)定性也略優(yōu)于Filmtrust數(shù)據(jù)集。與Filmtrust數(shù)據(jù)集中一樣,隨著迭代次數(shù)的增多,LSO和LWSO1算法的性能一直很穩(wěn)定,迭代次數(shù)的多少對其產(chǎn)生的影響不大。本文提出的BLWSO2方法在Movielens數(shù)據(jù)集也能獲得較準(zhǔn)確的推薦結(jié)果。另外,各個算法在Movielens數(shù)據(jù)集上算法的收斂速度比Filmtrust慢,說明本文提出的算法在數(shù)據(jù)稠密的情況下能獲得更好的結(jié)果和穩(wěn)定性??傮w而言,BLWSO2算法相比本文提出的其他算法,MAE和RMSE值小很多,預(yù)測評分較準(zhǔn)確,推薦精度較高,預(yù)測質(zhì)量較好,具有良好的擴展性。綜合圖1-4中LWSO1和LWSO2算法、BLWSO1和B

31、LWSO2的算法結(jié)果可知,最小二乘法在不同的梯度下降方式中,所得的預(yù)測結(jié)果也是不同的,雖然變化趨勢一致,但是第二種梯度下降方式明顯比第一種梯度下降方式所得的預(yù)測結(jié)果更加準(zhǔn)確,說明了第二種梯度下降的選取方式更加合理,由于梯度間跨度較小,故算法的收斂速度變慢,變化趨勢更加明顯。6結(jié)束語 本文重點研究了加權(quán)Slope One算法改進,該算法在計算時并未對項目間相似度進行詳細(xì)的劃分,同時考慮到基于模型的算法所得的結(jié)果普遍優(yōu)于基于內(nèi)存的算法,因此,本文在此基礎(chǔ)上分別提出了五種方法,并將文獻4中提出的SO和WSO算法與改進后的五種算法在兩個數(shù)據(jù)集上分別進行比較,實驗表明,改進后的五種算法相較于SO和WSO

32、算法預(yù)測結(jié)果更為準(zhǔn)確。其中,BLWSO2算法的表現(xiàn)結(jié)果更為突出,預(yù)測結(jié)果好。同時,本文也驗證了最小二乘法在不同的梯度下降的方式中所得的結(jié)果也是不同的,梯度間隔越小,數(shù)值選取越密集,算法的收斂速度越慢,趨勢變化越明顯,反之收斂速度變快。在未來的改進中,如何將加權(quán)Slope One算法使用其他機器學(xué)習(xí)的算法進行改進并提高算法的預(yù)測精度,更好的在數(shù)據(jù)稀疏的情況下高效的進行推薦,以及更合理滿足用戶偏好將是工作的中心和重點。References: 1 Xu Hai-ling, Wu Xiao, Li Xiao-dong, et al. Comparison study of Internet recom

33、mendation system J. Journal of Software, 2009, 20(2):350-362.2 Wang Peng, Wang Jing-Jing, Yu Neng-hai. A kernel and user-based collaborative filtering recommendation algorithmJ. Journal of Computer Research and Development, 2013, 50(7): 1444s-1451.3 Luo Jun, Zhu Wen-qi. User similarity function cons

34、idering weight of items similarity J. Computer Engineer-ing and Applications, 2013.4 Lemire D, Maclachlan A. Slope One Predictors for Online Rating-Based Collaborative FilteringC. In: Proceedings of the Fifth SIAM International Conference on Data Mining, 2005, 471-480. 5 Wang P, Ye H W. A Personalized Recommendation Algorithm Combining Slope One Scheme and User Based Collaborative FilteringC. In: Proceedings of the 2009 International Conference on Industrial and Information Systems, 2009: 152-154. 6 Zhang D J. An

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論