奶茶店项目创业计划书 当前位置:首页>奶茶店项目创业计划书>正文

奶茶店项目创业计划书

发布时间:2019-01-18

原标题:机器学习训练模型的一般错误

如果是平时听到奥斯卡这么说,宁荣荣一定会以为他是试图占自己便宜。可此时奥斯卡的话语却听不出一点开玩笑的意思。他的目光始终盯视着不远处的对手,声音也明显变得凝重起来。

电脑编程培训

接下来,唐三说出了一句令唐昊和阿银完全震撼的话,“爸,我要帮你恢复右臂和左腿。妈,我要让你像小舞这样复活成人,虽然我没有绝对的把握,但我的方法对你们肯定有益无害。”
相反,坐在隔壁的残血和黑云却有点紧张感,他们虽然表面完全不动声色,静坐不语,但内心的紧张和刺激还是让他们的皮肤和汗毛都有点微微的颤动,显示出他们的内心并不平静。事实上,要想做到像雪飞鸿一样悠然,并不是强大的实力就可以做到的,雪飞鸿久经残酷的训练,已经把紧张和恐惧这些负面情绪磨得差不多了。

唐三只是点了下头,并没有说话,他能清晰地感觉到戴沐自身上的肌肉已经完全绷紧,蓄势待发的样子就像一头下山猛虎一般。

前言

在我们构建完机器学习模型,经常会遇到训练得到模型无法正确预测,这之后我们往往会采取下面的一些方案:

  • 增加训练数据
  • 减少特征的个数
  • 增加更多的特征
  • 增加多项式特征(X1*X2 ...)
  • 增大lambda的值
  • 减小lambda的值

若是不了解模型具体的问题所在,而根据随便拿出一个方案去试错,这往往都是既费力又费心,往往个把月过去了仍然在进行模型的调试。

CV 数据集 [数据集处理]

将一个数据集先按下面进行划分:

  • Training set: 60%
  • Cross validation set: 20%
  • Test set: 20%

计算模型误差 [误差计算]

1.线性回归,直接使用代价函数即可,如下:

for i = 1:m
    %依次递增的数据量进行训练模型
    theta = trainLinearReg(X(1:i,:), y(1:i), lambda);
    %train数据集的测试,使用时去除lambda
    error_train(i) =linearRegCostFunction(X(1:i,:), y(1:i), theta, 0);
    %cv数据集的测试
    error_val(i) = linearRegCostFunction(Xval, yval, theta, 0);
end

2.logistic回归,引出0-1错分率:

过拟合和欠拟合 [误差分析]

欠拟合:高偏差,Jcv近似于Jtrain。
过拟合:高方差,Jcv远大于Jtrain。
这2个问题是机器学习中最经典的错误情况,很多现象也是由它们一手操办的,来看看下面的3种情况:


样本

根据上面误差计算部分得来的Training set和cv set得到相应图片


High bias:Jcv与Jtrain非常接近,加入过多样本,对模型的优化没作用


High variance:Jcv远大于Jtrain,增加样本,可以对模型进行优化


多项式特征

多项式特征的选择的多少往往也会给我们带来很大的麻烦,过多的多项式特征会使模型过拟合,而过少的多项式特征会使模型欠拟合。
那么我们该如何进行多项式的选择,下面便引入解决方案:

  1. 使用training set训练每一个多项式,得出相应的theta值。
  2. 使用cv set获得误差最小的多项式。
  3. 最后使用test set对多项式进行评估。

lambda

正规化的引入,就是为了防止过拟合,而lambda对拟合程度有着很大影响。若是没有lambda则会出现过拟合现象;而若是lambda过大则会出现欠拟合现象。

那怎么选择一个较好的lambda呢?
方法类似于多项式特征的选取,稍有不同的就是自己要定义lambda集合。

测试代码段

for i = 1:length(lambda_vec)
        lambda = lambda_vec(i);
        theta = trainLinearReg(X, y, lambda);
        %评估时切记不可在cv set和test set中加入lambda值
        error_train(i) = linearRegCostFunction(X, y, theta, 0);
        error_val(i) = linearRegCostFunction(Xval, yval, theta, 0);
end

测试结果:

学习曲线

很多情况下因为特征很多,我们往往很难将数据展现出来,而可视化的数据往往给我们的分析带来了很大的帮助;learning curve的绘制无疑是一大助手,learning curve通常是由training set和cv set的误差绘制出来的,中间最重要的就是将training set使用递增的方式进行训练,而cv set则是全部进行使用。如【计算模型误差的代码部分】。

编辑:成邓戏马

发布:2019-01-18 13:07:42

当前文章:http://nsmsa.com.cn/house/uiosmac7mm.html

蜜源佣金 网络营销培训 卓德佣金日返 有什么新奇的生意门路 2018年做什么最赚钱 app注册推广是什么 yy兼职网赚日结工资 宝妈在家如何挣钱

47579 98627 10648 65563 28715 2563888745 83588 50396

责任编辑:乙董通