1. 实现基于用户的协同过滤; 2. 实现基于物品的协同过滤; 3. 实现基于模型(矩阵分解)的协同过滤。 4. 对每种推荐算法的推荐结果,用Top10个推荐歌曲的准确率和召回率评价推荐系统的性能。
1. 实现基于用户的协同过滤; 2. 实现基于物品的协同过滤; 3. 实现基于模型(矩阵分解)的协同过滤。 4. 对每种推荐算法的推荐结果,用Top10个推荐歌曲的准确率和召回率评价推荐系统的性能。
1. 为什么Bagging能改进模型性能? 2. 随机森林中随机体现在哪些方面? 3. 随机森林和GBDT的基学习器都是决策树。请问这两种模型中的决策树有什么不同。 4. 请简述LightGBM的训练速度问什么比XGBoost快。 5. 采用tfidf特征,采用LightGBM(gbdt)完成Otto商品分类,尽可能将超参数调到最优,并用该模型对测试数据进行测试,提交Kaggle网站,提交排名。 6. 采用tfidf特征,采用LightGBM(goss)完成Otto商品分类,尽可能将超参数调到最优,并用该模型对测试数据进行测试,提交Kaggle网站,提交排名。
Faster-RCNN源码详解
1. 为什么要引入核函数? 2. 给出合页损失的数学形式并画出图形。 3. 什么是支持向量?为什么SVM中只有一小部分的训练样本是支持向量(稀疏的)? 4. 决策树中特征分裂的准则有哪些? 5. SVM模型并没有概率解释。为了使SVM模型能输出概率,我们应该设置哪个参数? 6. 采用train_test_split,从将数据集中随机抽取10000条记录,用于下述作业中模型的训练(原始数据集太大,剩余数据抛弃)。 7. 根据6中得到的训练数据,训练线性SVM,并对超参数(正则惩罚项、C)进行超参数调优,并分析不同C对应的训练误差和交叉验证得到的测试误差的变化趋势。 8. 根据6中得到的训练数据,训练RBF核SVM,并对超参数(C和gamma)进行超参数调优,并分析参数C和gamma对模型复杂度的影响,以及对训练误差和交叉验证得到的测试误差的影响。
1. 适当的特征工程 2. 用LightGBM完成任务,并用交叉验证对模型的超参数(learning_rate、n_estimators、num_leaves、max_depth、min_data_in_leaf、colsample_bytree、subsample)进行调优。 或者用XGBoost完成任务,并用交叉验证对模型的超参数(learning_rate、n_estimators、max_depth、min_child_weight、colsample_bytree、subsample、reg_lambda、reg_)进行调优。 3. 对最终模型给出特征重要性
最近一年贡献:0 次
最长连续贡献:0 日
最近连续贡献:0 日
贡献度的统计数据包括代码提交、创建任务 / Pull Request、合并 Pull Request,其中代码提交的次数需本地配置的 git 邮箱是 Gitee 帐号已确认绑定的才会被统计。