999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于回歸的房價預測模型研究

2020-09-22 02:15:52王景行
全國流通經濟 2020年19期

摘要:本文關注房價的影響因素,從79個影響特征中選擇重要的特征,并且使用特征處理方案來得到更優特征,用以訓練多個回歸模型,包括Lasso回歸模型,以及XGBoost回歸模型,最終使用Stacking模型融合方案來預測房價。在測試數據集中的表現模型融合優于單模型結果,所以最終使用模型融合方案來對房價做預測。通過此次房價預測,旨在發現房屋價格的影響因素以及得到房屋預測模型用以將來遷移學習其他地域的房屋價格預測。

關鍵詞:模型融合;線性回歸;房價預測;建模分析

中圖分類號:F299.23?文獻識別碼:A?文章編號:2096-3157(2020)19-0120-03

一、研究背景

隨著大數據時代的到來,具備大數據思想至關重要,人工智能技術在各行各業的應用已是隨處可見。在生產制造業,人工智能技術可以極大地提高生產效率,節省勞動成本,提升產品質量;在服務業,可以優化行業現有產品和服務,提升其質量和勞動生產率;金融、醫療等領域,也因人工智能技術的加入而愈發繁榮,人們的生活也因為其更加便利。

房屋作為每個公民的必需品,在生活中的地位非常重要,買房已成為人們談論較多的話題,如何在合適的時間買房賣房也成為了人們關注焦點,因此在這樣的背景下,產生了本次的房價預測相關問題。目前在房價預測領域主要體現在兩個問題上:一是選擇合適的數學模型來預測房價走向,用以評估房價的變化;二是尋找引起房價變化的原因,國家可借此來幫助市場協調房價變化,公民可以根據時事來判斷入手時機。本文主要分析第一個問題,即選擇合適的數學模型來幫助預測房價。

本文將從波士頓的房價數據為著手點,以該市的房屋的相關屬性來作為特征,篩選重要信息,并且將一些信息做適當處理,最終用以預測該市的其他房屋價格。

二、研究方法

1.線性回歸算法簡介

(1)算法思想

在統計學中,線性回歸[2](Linear Regression)是利用稱為線性回歸方程的最小平方函數對一個或多個自變量和因變量之間關系進行建模的一種回歸分析[3][4]。這種函數是一個或多個稱為回歸系數的模型參數的線性組合。一元線性回歸,即只含有一個自變量的線性回歸模型。

(2)模型求解(梯度下降法)

梯度下降法,即利用沿著梯度下降最快的方向求偏導數,得到損失函數的全局最小值時的參數θ,涉及到偏導數、學習速度、更新、收斂等問題[6][7]。首先對θ賦值,這個值可以是隨機的,也可以是一個零向量;然后改變θ的值,使得J(θ)按梯度下降的方向進行減少; 當J(θ)下降到無法下降時為止,即J(θ)對θ的導數為0時,比較J(θ)的值是否有變化。

對損失函數J(θ)求偏導,得到:

更新過程可以理解成:θi沿著梯度下降最快的方向進行遞減的過程。

等式左邊的θi表示更新之前的值,等式右邊表示沿著梯度方向減少的量,α表示步長,也稱作學習速度,這個值需要人工手動設置。

不斷更新θi的值直到J(θ)收斂,可以通過比較J(θ)的前后兩個值是否有發生變化(繼續下降),當沒有發生變化時表示已經達到了最小值(可能是局部最小值)。

2.XGBoost算法簡介

(1)算法思想

XGBoost是Boosting[8][9][10]算法的其中一種。Boosting算法的思想是將許多弱分類器集成在一起形成一個強分類器。因為XGBoost是一種提升樹模型,所以它是將許多樹模型集成在一起,形成一個很強的分類器。而所用到的樹模型則是CART回歸樹模型。

該算法思想就是不斷地添加樹,不斷地進行特征分裂來生長一棵樹,每次添加一個樹,其實是學習一個新函數,去擬合上次預測的殘差。當我們訓練完成得到k棵樹,我們要預測一個樣本的分數,其實就是根據這個樣本的特征,在每棵樹中會落到對應的一個葉子節點,每個葉子節點就對應一個分數,最后只需要將每棵樹對應的分數加起來就是該樣本的預測值。

(2)XGBoost模型介紹

在了解了什么是XGBoost之后,那么如何能夠學習這個模型呢?答案是,所有監督學習模型都是如此:定義目標函數并對其進行優化。首先,定義目標函數如下:

接下來,在目標函數基礎上,我們開始考慮每一棵樹的學習過程,由于不能夠用一棵樹完成最終的目標,所以我們需要每一次在上一次的基礎上做目標逼近。我們使用一個加法策略:修復我們學到的東西,并一次添加一個新樹。然后我們有:

由公式可知,每一次更加逼近我們的目標值obj最小。由于一般的模型會采用均方誤差(MSE)來作為損失函數,所以目標函數又變成了:

更一般的,我們不僅僅采用MSE來作為損失函數,還會考慮將目標函數做泰勒二階展開,以方便模型優化。

3.Stacking 融合模型介紹

Stacking簡單理解就是講幾個簡單的模型,一般采用將它們進行K折交叉驗證[3]輸出預測結果,然后將每個模型輸出的預測結果合并為新的特征,并使用新的模型加以訓練。

三、實驗及結果

1.實驗過程

(1)數據預處理

我們采用Python中的Pandas來加載數據,并做數據展示,訓練數據展示如表所示。

每一行就是一個房屋,每一列是房屋的屬性或者價格。一共包含有79列的房屋屬性。由于房屋價格在做數據描述時,能夠發現其大致符合高斯分布[5],所以我們加入了房屋價格的平滑處理,我們最終得到訓練集的特征大小為1460×79,其中1460為房屋數目,79為特征數目,還有一列對應的房屋價格label的數據。與此同時,也有1459×79大小的測試集。

(2)訓練模型

本項目中的模型訓練,共采用三種方案來考慮。第一種方案為線性回歸。將相關特征作為輸入,目的是為擬合一條符合房屋價格分布的曲線。第二種方案為采用XGBoost算法來做回歸預測。第三種方案為采用兩者綜合,使用stacking的集成方案來完成房價預測。

①回歸模型

Lasso回歸為在普通回歸基礎上添加了L1正則化,增大稀疏性的同時也增大了模型的泛化能力。在訓練好該模型后,查看相關模型參數如圖1所示。

這里分別摘取影響大小為前后10條的模型特征,由圖1可知,比較正相關的特征有GrLiveArea(生活區面積)。我們也可以嘗試繪制相關性系數矩陣來得到特征的有效性。我們使用fold為5的交叉驗證方案,損失值為RMSE(均方根誤差)來確定模型的有效性,經過訓練后,獲取其RMSE為0.128。說明該結果較好,但仍有一定的提升空間。

②XGBoost

XGBoost作為boosting算法的一種,因為其訓練速度快,泛化性強著稱,在本項目中,使用其回歸模型來做房價預測。由于boost算法是按照決策樹迭代更新的,所以根據迭代次數查看訓練和測試的RMSE圖像后,訓練迭代次數的增長,訓練集的RMSE逐漸減少,但是測試時的RMSE在迭代90次左右后進入拐點,下降速率降低,所以采用迭代次數為100次左右效果是最好的。

③ Stacking

Stacking集成方案為將數據提前拆分為兩部分:第一部分為初始模型訓練,第二部分為二級模型訓練。第一部分將訓練兩個模型:Lasso回歸模型與XGBoost回歸模型。第二部分數據將使用這兩個模型做預測,得到的兩個預測結果再做線性擬合,得到二級模型。查看兩個一級模型的相關性如圖2所示。

由圖2可以看出,兩個模型在一定程度上是符合正相關的,所以使用這兩個模型來做線性擬合,是有意義的嘗試。

2.實驗結果

本文一共采用了三種方案來做房屋價格預測,分別是線性回歸、XGboost回歸模型、Stacking集成方案,其中第三種方案為前兩種的方案模型融合。最終結果顯示,第三種方案的平均RMSE為0.113,低于前兩種模型結果,是一個很好的方案。

四、研究結論與建議

綜上所述,本文采用了Lasso線性回歸、XGboost以及兩者的集成融合stacking模型,最終得到多項結果,也證明了我們提出的融合模型效果最佳,也對測試集中的其他房屋做出了預測,得到房屋的預測結果。與此同時,探索了多個特征對房屋預測模型的影響,思考了大數據、人工智能在幫助我們解決生活中的問題可能性。這次解決房價預測,也能夠遷移到國內的房價預測方案,該模型為將來國內城市的房屋預測提供了模型基礎。

通過本次房屋預測模型的建立,能夠得到影響房屋總價值的不僅僅是房屋居住總面積這一個重量級特征,還有街道名稱、裝修完整度等其他影響特征,并且有些看起來不是很重要的特征也能夠影響房價,例如房屋類型、功能等。數據幫助我們篩選出重要的特征,排除了一些“想當然”的結果,能夠更好地抓住事情的本質,這就是大數據輔助我們解決生活中的事情的實際例子。

參考文獻:

[1]Tianqi Chen.A Scalable Tree Boosting System[D].CN:ACm,2016.

[2]T Chen,C Guestrin.Regression shrinkage and selection via the lasso[D].united american:princeton university,1996.

[3]李航.統計學習方法[M].北京:清華大學出版社,2012:10.

[4]周志華.機器學習[M].北京:清華大學出版社,2017:53.

[5]Qcon 2017 feature engineering by Gabriel Moreira.

[6]Thomas M Cover,Joy A.Thomas.Elements of Information Theory.2006.

[7]Christopher M.Bishop.Pattern Recognition and Machine Learning.Springer-Verlag.2006.

[8]J H Friedman.Greedy Function Approximation:A Gradient BoostingMachine[EB/OL].https://statweb.stanford.edu/~jhf/ftp/trebst.pdf.

[9]J H Friedman.Stochastic Gradient Boosting[EB/OL].https://statweb.stanford.edu/~jhf/ftp/stobst.pdf.

[10]J H Friedman.Stochastic Gradient Boosting[EB/OL].https://statweb.stanford.edu/~jhf/ftp/stobst.pdf.

作者簡介:

王景行,唐山市第二中學學生。

主站蜘蛛池模板: 五月激情综合网| 在线亚洲小视频| 日韩欧美在线观看| 波多野结衣中文字幕一区| 亚洲一级毛片| 国产成人综合久久精品尤物| 欧美亚洲欧美区| 成人无码区免费视频网站蜜臀| 激情在线网| 国产91色在线| 五月激情婷婷综合| 久久久噜噜噜| 精品伊人久久大香线蕉网站| 亚洲精品成人片在线播放| 亚洲国产精品VA在线看黑人| 欧美97欧美综合色伦图| 久草青青在线视频| 国产幂在线无码精品| 国产成人AV男人的天堂| 国产精品久线在线观看| 中文字幕在线观看日本| 亚洲自拍另类| 亚洲国产精品久久久久秋霞影院| 亚洲伊人天堂| a级毛片网| 久久99精品久久久久纯品| 亚洲国产精品人久久电影| 国产网站免费看| 亚洲人成人伊人成综合网无码| 亚洲中文无码av永久伊人| av天堂最新版在线| 久久精品女人天堂aaa| 欧美精品亚洲日韩a| 亚洲第一黄色网| 中国黄色一级视频| 无码专区在线观看| 亚洲福利一区二区三区| 亚洲第一av网站| 五月激情综合网| 国产免费黄| 日韩视频精品在线| 成年女人18毛片毛片免费| 欧类av怡春院| 国产精品久久久久久久久| 韩日免费小视频| 粉嫩国产白浆在线观看| 视频一本大道香蕉久在线播放| 55夜色66夜色国产精品视频| www.狠狠| 青青热久麻豆精品视频在线观看| 国产午夜人做人免费视频中文| 国产迷奸在线看| 一本大道视频精品人妻| 久久久久久久久久国产精品| 人妻少妇久久久久久97人妻| 成年免费在线观看| 色妞www精品视频一级下载| 99国产精品国产| 日韩成人免费网站| 亚洲中文无码h在线观看| 在线观看精品国产入口| 亚洲欧美日韩另类在线一| 亚洲欧美人成电影在线观看| 欧美精品黑人粗大| 日韩AV手机在线观看蜜芽| 欧美日韩v| 欧美另类图片视频无弹跳第一页| 九九视频免费在线观看| 东京热高清无码精品| 亚洲美女视频一区| 丁香综合在线| 国产视频自拍一区| 亚洲无码高清一区二区| 好久久免费视频高清| 国产精品部在线观看| 亚洲成人精品| 欧美日韩一区二区在线播放| 色偷偷男人的天堂亚洲av| 在线人成精品免费视频| 在线精品亚洲一区二区古装| a亚洲天堂| 亚洲精品图区|