kylewang

@kylewang_ai

kylewang 暂无简介

所有 个人的 我参与的
Forks 暂停/关闭的

    kylewang/llm-note

    kylewang/DBNet

    DBNet算法原理及源码详解

    kylewang/BatchNormalization

    BatchNormalization笔记

    kylewang/YOLO-V1

    YOLO-V1源码详解

    kylewang/Mask-RCNN

    Mask-RCNN源码详解

    kylewang/Faster-RCNN

    Faster-RCNN源码详解

    kylewang/Retinanet

    Retinanet原理及代码笔记

    kylewang/推荐系统-下

    采用Wide and Deep模型,对Criteo提供的Kaggle竞赛数据进行CTR预估。

    kylewang/推荐系统-上

    1. 实现基于用户的协同过滤; 2. 实现基于物品的协同过滤; 3. 实现基于模型(矩阵分解)的协同过滤。 4. 对每种推荐算法的推荐结果,用Top10个推荐歌曲的准确率和召回率评价推荐系统的性能。

    kylewang/非监督学习-下

    1. 分词:由于企业描述是文本信息,需要对文本信息进行特征提取。文本分词可采用Jieba分词: https://github.com/fxsjy/jieba http://blog.csdn.net/FontThrone/article/details/72782499 2. 特征提取: 去掉停用词后(stopwords.txt),采用TFIDF作为每个文本的特征描述。 3. 采用KMeans聚类算法,根据第2 步得到特征对企业进行聚类, 尝试K=5,10,15,20,30,..., 50, 并选择合适的度量指标,选择最佳的K。

    kylewang/非监督学习-上

    1. 观察Otto商品的特征进行PCA各维的方差,可以得到什么结论?2. 对Otto商品tfidf特征,进行PCA降维,给出各维方差的分布图。3. 采用train_test_split,从将数据集中随机抽取10000条记录(原始数据集太大,剩余数据抛弃,此部分SVM作业已经完成)。对这部分数据进行PCA降维,保留85%的能量。4. 对3中得到的数据(对降维后的数据),训练RBF核SVM,并对超参数(C和gamma)进行超参数调优。结果和用原始数据的情况比较(SVM部分作业结果)。

    kylewang/计算机视觉引论

    1. 视觉系统都有哪些构成要素? 以机械臂视觉控制系统为例,说明视觉系统的构成要素。 2. 尝试从模仿人类视觉处理流程的角度,阐述本对课程内容组织的理解。 3. 什么是光通量和辐照度?说明几个常见光源的光通量,以及几个常见照明环境的辐照度。 4. 结合颜色空间示意图,简述HSI颜色空间中各通道的物理意义,并结合图像实例说明。 5. 说明彩色图像传感器及γ校正的基本原理。

    kylewang/集成机器学习算法-GBDT-XGboost-LightGBM-下

    1. 适当的特征工程 2. 用LightGBM完成任务,并用交叉验证对模型的超参数(learning_rate、n_estimators、num_leaves、max_depth、min_data_in_leaf、colsample_bytree、subsample)进行调优。 或者用XGBoost完成任务,并用交叉验证对模型的超参数(learning_rate、n_estimators、max_depth、min_child_weight、colsample_bytree、subsample、reg_lambda、reg_)进行调优。 3. 对最终模型给出特征重要性

    kylewang/集成机器学习算法-GBDT-XGboost-LightGBM-上

    1. 为什么Bagging能改进模型性能? 2. 随机森林中随机体现在哪些方面? 3. 随机森林和GBDT的基学习器都是决策树。请问这两种模型中的决策树有什么不同。 4. 请简述LightGBM的训练速度问什么比XGBoost快。 5. 采用tfidf特征,采用LightGBM(gbdt)完成Otto商品分类,尽可能将超参数调到最优,并用该模型对测试数据进行测试,提交Kaggle网站,提交排名。 6. 采用tfidf特征,采用LightGBM(goss)完成Otto商品分类,尽可能将超参数调到最优,并用该模型对测试数据进行测试,提交Kaggle网站,提交排名。

    kylewang/SVM算法以及决策树算法-下

    1. 对数据做数据探索分析 2. 适当的特征工程 3. 采用5折交叉验证,用正确率作为评价指标,对线性SVM和RBF核的SVM模型超参数调优。

    kylewang/SVM算法以及决策树算法-上

    1. 为什么要引入核函数? 2. 给出合页损失的数学形式并画出图形。 3. 什么是支持向量?为什么SVM中只有一小部分的训练样本是支持向量(稀疏的)? 4. 决策树中特征分裂的准则有哪些? 5. SVM模型并没有概率解释。为了使SVM模型能输出概率,我们应该设置哪个参数? 6. 采用train_test_split,从将数据集中随机抽取10000条记录,用于下述作业中模型的训练(原始数据集太大,剩余数据抛弃)。 7. 根据6中得到的训练数据,训练线性SVM,并对超参数(正则惩罚项、C)进行超参数调优,并分析不同C对应的训练误差和交叉验证得到的测试误差的变化趋势。 8. 根据6中得到的训练数据,训练RBF核SVM,并对超参数(C和gamma)进行超参数调优,并分析参数C和gamma对模型复杂度的影响,以及对训练误差和交叉验证得到的测试误差的影响。

    kylewang/TensorFlow模型的训练与优化-下

    如何修改隐层数量,修改后会起到什么样的效果 如何神经元个数,起到了什么样的效果 如何在模型中添加L1/L2正则化,正则化起什么作⽤ 使⽤不同的初始化⽅式对模型有什么影响

    kylewang/TensorFlow模型的训练与优化-上

    对模型结构的理解 对模型训练过程(梯度如何计算,参数如何更新)的理解 对计算图的理解 解释这⾥的模型为什么效果⽐较差

    kylewang/深度学习入门

    解释为什么这⾥的感知器代码⽆法完成异或功能

    kylewang/逻辑回归算法

    1. 对数据做数据探索分析 2. 适当的特征工程 3. 采用5折交叉验证,分别用log似然损失和正确率,对Logistic回归模型的正则超参数调优。

搜索帮助