今天 Coursera 上的 Machine learning 开课了. 后面还有一个 Compiler 课程. - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
typing
V2EX    分享发现

今天 Coursera 上的 Machine learning 开课了. 后面还有一个 Compiler 课程.

  •  
  •   typing 2014 年 3 月 4 日 6404 次点击
    这是一个创建于 4363 天前的主题,其中的信息可能已经有所发展或是发生改变。
    期待好久了. 看自己的那些同学们搞的火热, 我也挺好奇, 这次入门一下.

    此外我还有一个Upcoming的课程, 是Compiler, 也在coursera, 3月17日开课. 听其他同学推荐也非常不错.
    Compiler是我大学就学过的, 这次只为练手.
    30 条回复    2014-06-05 19:26:03 +08:00
    andyliu
        1
    andyliu  
       2014 年 3 月 4 日 via Android
    留个链接 楼主
    typing
        2
    typing  
    OP
       2014 年 3 月 4 日 via Android
    xiaogui
        3
    xiaogui  
       2014 年 3 月 4 日
    @typing 题外话,楼主注册 Coursera 账号是,完整姓名如何填写的?中文?拼音?
    typing
        4
    typing  
    OP
       2014 年 3 月 4 日
    @xiaogui 我就用我的拼音(注意Last name是姓). 其他的也应该行吧...又不是办护照那么正规
    xiaogui
        5
    xiaogui  
       2014 年 3 月 4 日
    @typing 嘿嘿,主要看有些课程提供认证证书。
    AlexYang
        6
    AlexYang  
       2014 年 3 月 4 日
    多谢楼主
    deanguqiang
        7
    deanguqiang  
       2014 年 3 月 4 日
    上过前一期的课程。讲的比较浅,适合初学者。
    arbipher
        8
    arbipher  
       2014 年 3 月 4 日
    Machine Learning 第一期课友路过。850过。
    mikewoo
        9
    mikewoo  
       2014 年 3 月 4 日
    也准备跟一下Machine learning
    exch4nge
        10
    exch4nge  
       2014 年 3 月 4 日
    刚去报完名,回来逛v2ex,就发现这个贴了!楼主握个手!
    typing
        11
    typing  
    OP
       2014 年 3 月 5 日
    每天中午休息的时候和晚上抓时间上会课. 课程本身并不复杂, 所以在一种欢乐的气氛中进行.

    如果numerical PDE也能有这种给你掰开揉碎讲的课程就好了(现在工作上它正折磨我...).

    另外说到即将开始的Compilers, 我就不得不说C++ grand master certification(http://www.cppgm.org/).
    看了那个课程的计划之后有一种"考试前一天还什么都不会"的感觉.
    oldcai
        12
    oldcai  
    PRO
       2014 年 3 月 25 日
    额,这个这个,请问一下,Machine learning ml-005的作业Gradient descent for one variable的cost要迭代到多少才算通过啊,我
    theta =

    0.62615
    1.01028

    J_history =

    19.00239
    2.62444
    0.54737
    0.28394
    0.25052
    0.24628
    0.24573
    0.24565
    0.24563
    0.24562

    最后cost = 0.24562
    还是提示错误
    T__T
    oldcai
        13
    oldcai  
    PRO
       2014 年 3 月 25 日
    @andyliu
    @typing
    @xiaogui
    @deanguqiang
    @arbipher
    @mikewoo
    @exch4nge

    有同学么,请问。


    感觉我好像是对的呀,就是提交提示错误。
    arbipher
        14
    arbipher  
       2014 年 3 月 25 日   1
    @oldcai 请你至少告诉我是哪个文件。。。
    arbipher
        15
    arbipher  
       2014 年 3 月 25 日
    @oldcai 我傻逼了。。。等我装个octave先。。。
    oldcai
        16
    oldcai  
    PRO
       2014 年 3 月 25 日
    @arbipher ^__^ 感谢回复哈
    是第三个,gradientDescent.m
    arbipher
        17
    arbipher  
       2014 年 3 月 25 日   1
    @oldcai 我晚上回去帮你看下吧。。。我在咖啡馆里,不好意思挂迅雷下软件。。。
    arbipher
        18
    arbipher  
       2014 年 3 月 26 日   1
    @oldcai 我没有你这幅图,我们的题目一样吗。。。
    我在ex1里面有gradientDescent.m这个文件, YOUR CODE HERE里面:
    theta = .......;
    我就写了一行。。。

    J_history =
    ...
    4.4836
    4.4836
    4.4836
    4.4836
    4.4836
    4.4835
    4.4835
    4.4835
    4.4835
    4.4834
    4.4834
    4.4834

    Theta found by gradient descent: -3.630291 1.166362
    For population = 35,000, we predict a profit of 4519.767868
    For population = 70,000, we predict a profit of 45342.450129
    oldcai
        19
    oldcai  
    PRO
       2014 年 3 月 26 日
    @arbipher 这个图我是为了直观所以自己画出来看的。
    我是用的考试数据~
    看起来你的这个是练习数据,我的练习数据的结果是:
    J_history =

    14.9840
    9.0562
    6.9989
    ……
    4.5740
    4.5739
    4.5737
    4.5735
    4.5734
    4.5732

    Theta found by gradient descent: -2.867800 1.089762
    For population = 35,000, we predict a profit of 9463.666241
    For population = 70,000, we predict a profit of 47605.328274

    确实没有你的结果更收敛。
    是不是你feature normalize过呀?
    oldcai
        20
    oldcai  
    PRO
       2014 年 3 月 26 日
    @arbipher 谢谢!
    我公式记错了,1/m记成了1/(2m),哈哈,通过了。
    mikewoo
        21
    mikewoo  
       2014 年 3 月 27 日
    @oldcai 拖延症的路过,刚刚才把题目做好,考试数据是什么啊
    我做的结果跟@arbipher 一样,
    oldcai
        22
    oldcai  
    PRO
       2014 年 3 月 27 日
    @mikewoo 嗯,后来改好了参数我也一样了。
    不过也不叫考试数据吧,我说的有问题。是作业数据,是提交的时候打印出来,然后看到的。
    oldcai
        23
    oldcai  
    PRO
       2014 年 3 月 28 日
    @arbipher
    @mikewoo
    嘿,你们的ex1_multi.m的习题里面的预测结果normalEqn的结果和gradientDescent一样么。
    我提交的作业中,Gradient Descent for Multiple Variables和Normal Equations的结果是正确的,但是预测出来的那个1650平方尺,3个卧室的房子差价有几个数量级。。
    arbipher
        24
    arbipher  
       2014 年 3 月 28 日   1
    @oldcai

    heta computed from gradient descent:
    334302.063993
    100087.116006
    3673.548451

    Predicted price of a 1650 sq-ft, 3 br house (using gradient descent):
    $289314.620338


    Theta computed from the normal equations:
    89597.909542
    139.210674
    -8738.019112

    Predicted price of a 1650 sq-ft, 3 br house (using normal equations):
    $293081.464335

    我的结果,没有几个数量级的差价。
    arbipher
        25
    arbipher  
       2014 年 3 月 28 日   1
    我每次回这个帖子的时候,v2ex都正好被Chrome的StayFucosd插件把block,然后我得用Safari再打开看一遍到底有没有发出去。。。
    oldcai
        26
    oldcai  
    PRO
       2014 年 3 月 29 日
    @arbipher 哟西,看样子还是我学的不牢,估计哪里又出问题了,谢谢,我继续琢磨下。
    oldcai
        27
    oldcai  
    PRO
       2014 年 3 月 30 日
    @arbipher 好奇怪,是不是我的式子列的不对呀
    用的你的theta的数据,两个都是同样的算法,可是就是差别几个数量级呢
    [1 1650 3]*[334302.063993;100087.116006;3673.548451] = 1.6549e+08
    [1 1650 3]*[89597.909542;139.210674;-8738.019112] = 2.9308e+05
    arbipher
        28
    arbipher  
       2014 年 3 月 30 日   1
    @oldcai
    [1 1650 3]*[334302.063993;100087.116006;3673.548451] = 1.6549e+08
    这个式子不对。sigma呢。
    oldcai
        29
    oldcai  
    PRO
       2014 年 3 月 30 日
    @arbipher 嗯嗯,我明白了,还要在原X基础上-mu并且./sigma,谢谢,预测结果已经相互接近了。
    感觉真爽~
    typing
        30
    typing  
    OP
       2014 年 6 月 5 日
    今天收到了Machine Learning的结业证书. 一段旅程结束了.
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     2504 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 36ms UTC 14:05 PVG 22:05 LAX 06:05 JFK 09:05
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86