如何用 Python 预测房价走势?

如何用 Python 预测房价走势?

买房应该是大多数都会要面临的一个选择,当前经济和政策背景下,未来房价会涨还是跌?这是很多人都关心的一个话题。今天分享的这篇文章,以波士顿的房地产市场为例,根据低收入人群比例、老师学生数量等特征,利用 Python 进行了预测,给大家做一个参考。

Github:https://github.com/NemoHoHaloAi

Kaggle:https://www.kaggle.com/holoong9291

该分享源于Udacity机器学习进阶中的一个mini作业项目,用于入门非常合适,刨除了繁琐的部分,保留了最关键、基本的步骤,能够对机器学习基本流程有一个最清晰的认识。

项目描述

利用马萨诸塞州波士顿郊区的房屋信息数据训练和测试一个模型,并对模型的性能和预测能力进行测试;

项目分析

数据集字段解释:

  1. <code>RM/<code>: 住宅平均房间数量;

  2. <code>LSTAT/<code>: 区域中被认为是低收入阶层的比率;

  3. <code>PTRATIO/<code>: 镇上学生与教师数量比例;

  4. <code>MEDV/<code>: 房屋的中值价格(目标特征,即我们要预测的值);

其实现在回过头来看,前三个特征应该都是挖掘后的组合特征,比如RM,通常在原始数据中会分为多个特征:一楼房间、二楼房间、厨房、卧室个数、地下室房间等等,这里应该是为了教学简单化了;

MEDV为我们要预测的值,属于回归问题,另外数据集不大(不到500个数据点),小数据集上的回归问题,现在的我初步考虑会用SVM,稍后让我们看看当时的选择;

Show Time

Step 1 导入数据

注意点:

  1. 如果数据在多个csv中(比如很多销售项目中,销售数据和店铺数据是分开两个csv的,类似数据库的两张表),这里一般要连接起来;

  2. 训练数据和测试数据连接起来,这是为了后续的数据处理的一致,否则训练模型时会有问题(比如用训练数据训练的模型,预测测试数据时报错维度不一致);

  3. 观察下数据量,数据量对于后续选择算法、可视化方法等有比较大的影响,所以一般会看一下;

  4. pandas内存优化,这一点项目中目前没有,但是我最近的项目有用到,简单说一下,通过对特征字段的数据类型向下转换(比如int64

    转为int8)降低对内存的使用,这里很重要,数据量大时很容易撑爆个人电脑的内存存储;

上代码:

  1. <code># 载入波士顿房屋的数据集/<code>

  2. <code>data = pd.read_csv('housing.csv')/<code>

  3. <code>prices = data['MEDV']/<code>

  4. <code>features = data.drop('MEDV', axis =1)/<code>


  5. <code># 完成/<code>


  6. <code>print

    "Boston housing dataset has {} data points with {} variables each.".format(*data.shape)/<code>

Step 2 分析数据

加载数据后,不要直接就急匆匆的上各种处理手段,加各种模型,先慢一点,对数据进行一个初步的了解,了解其各个特征的统计值、分布情况、与目标特征的关系,最好进行可视化,这样会看到很多意料之外的东西;

基础统计运算

统计运算用于了解某个特征的整体取值情况,它的最大最小值,平均值中位数,百分位数等等,这些都是最简单的对一个字段进行了解的手段;

上代码:

  1. <code>#目标:计算价值的最小值/<code>

  2. <code>minimum_price = np.min(prices)# prices.min/<code>


  3. <code>#目标:计算价值的最大值/<code>

  4. <code>maximum_price = np.max(prices)# prices.max/<code>


  5. <code>#目标:计算价值的平均值/<code>

  6. <code>mean_price = np.mean(prices)# prices.mean/<code>


  7. <code>#目标:计算价值的中值/<code>

  8. <code>median_price = np.median(prices)# prices.median/<code>


  9. <code>#目标:计算价值的标准差/<code>

  10. <code>std_price = np.std(prices)# prices.std/<code>

特征观察

这里主要考虑各个特征与目标之间的关系,比如是正相关还是负相关,通常都是通过对业务的了解而来的,这里就延伸出一个点,机器学习项目通常来说,对业务越了解,越容易得到好的效果,因为所谓的特征工程其实就是理解业务、深挖业务的过程;

比如这个问题中的三个特征:

  • RM:房间个数明显应该是与房价正相关的;

  • LSTAT:低收入比例一定程度上表示着这个社区的级别,因此应该是负相关;

  • PTRATIO:学生/教师比例越高,说明教育资源越紧缺,也应该是负相关;

上述这三个点,同样可以通过可视化的方式来验证,事实上也应该去验证而不是只靠主观猜想,有些情况下,主观感觉与客观事实是完全相反的,这里要注意;

Step 3 数据划分

为了验证模型的好坏,通常的做法是进行cv,即交叉验证,基本思路是将数据平均划分N块,取其中N-1块训练,并对另外1块做预测,并比对预测结果与实际结果,这个过程反复N次直到每一块都作为验证数据使用过;

上代码:

  1. <code># 提示:导入train_test_split/<code>

  2. <code>fromsklearn.model_selectionimporttrain_test_split/<code>


  3. <code>X_train, X_test, y_train, y_test = train_test_split(features, prices, test_size=0.2, random_state=RANDOM_STATE)/<code>

  4. <code>printX_train.shape/<code>

  5. <code>printX_test.shape/<code>

  6. <code>printy_train.shape/<code>

  7. <code>printy_test.shape/<code>

Step 4 定义评价函数

这里主要是根据问题来定义,比如分类问题用的最多的是准确率(精确率、召回率也有使用,具体看业务场景中更重视什么),回归问题用RMSE(均方误差)等等,实际项目中根据业务特点经常会有需要去自定义评价函数的时候,这里就比较灵活;

Step 5 模型调优

通过GridSearch对模型参数进行网格组合搜索最优,注意这里要考虑数据量以及组合后的可能个数,避免运行时间过长哈。

上代码:

  1. <code>fromsklearn.model_selectionimportKFold,GridSearchCV/<code>

  2. <code>fromsklearn.treeimportDecisionTreeRegressor/<code>

  3. <code>fromsklearn.metricsimportmake_scorer/<code>



  4. <code>deffit_model(X, y):/<code>

  5. <code>""" 基于输入数据 [X,y],利于网格搜索找到最优的决策树模型"""

    /<code>


  6. <code>cross_validator = KFold/<code>


  7. <code>regressor = DecisionTreeRegressor/<code>


  8. <code>params = {'max_depth':[1,2,3,4,5,6,7,8,9,10]}/<code>


  9. <code>scoring_fnc = make_scorer(performance_metric)/<code>


  10. <code>grid = GridSearchCV(estimator=regressor, param_grid=params, scoring=scoring_fnc, cv=cross_validator)/<code>


  11. <code># 基于输入数据 [X,y],进行网格搜索/<code>

  12. <code>grid = grid.fit(X, y)/<code>


  13. <code># 返回网格搜索后的最优模型/<code>

  14. <code>returngrid.best_estimator_/<code>

可以看到当时项目中选择的是决策树模型,现在看,树模型在这种小数据集上其实是比较容易过拟合的,因此可以考虑用SVM代替,你也可以试试哈,我估计是SVM效果最好;

学习曲线

通过绘制分析学习曲线,可以对模型当前状态有一个基本了解,如下图:

如何用 Python 预测房价走势?

可以看到,超参数max_depth为1和3时,明显训练分数过低,这说明此时模型有欠拟合的情况,而当max_depth为6和10时,明显训练分数和验证分析差距过大,说明出现了过拟合,因此我们初步可以猜测,最佳参数在3和6之间,即4,5中的一个,其他参数一样可以通过学习曲线来进行可视化分析,判断是欠拟合还是过拟合,再分别进行针对处理;

小结

通过以上的几步,可以非常简单、清晰的看到一个机器学习项目的全流程,其实再复杂的流程也是这些简单步骤的一些扩展,而更难的往往是对业务的理解,没有足够的理解很难得到好的结果,体现出来就是特征工程部分做的好坏,这里就需要各位小伙伴们奋发图强了,路漫漫啊。

项目链接

  • 通篇浏览可以通过nbviewer来看;

  • 项目源文件、数据集文件可以通过GitHub波士顿项目获取,欢迎Follow、Fork、Star;

最后

大家可以到我的Github上看看有没有其他需要的东西,目前主要是自己做的机器学习项目、Python各种脚本工具、数据分析挖掘项目以及Follow的大佬、Fork的项目等:https://github.com/NemoHoHaloAi

回复下方「关键词」,获取优质资源

回复关键词「 pybook03」,立即获取主页君与小伙伴一起翻译的《Think Python 2e》电子版

回复关键词「入门资料」,立即获取主页君整理的 10 本 Python 入门书的电子版

回复关键词「m」,立即获取Python精选优质文章合集

回复关键词「book 数字」,将数字替换成 0 及以上数字,有惊喜好礼哦~


分享到:


相關文章: