Toggle navigation
MrTriste's Blog
Home
About
Tags
Tags
活着就是一场修行
Python
编码
感知机
人工智能
机器学习
KNN
markdown
LaTex
朴素贝叶斯
损失函数
决策树
随机森林
分类
聚类
回归
GBDT
提升树
XGBoost
集成学习
bootstrap
bagging
AdaBoost
链接
交叉熵
softmax
sigmoid
Python
Python encode & decode总结
UTF-8 Unicode Ascii 等编码关系
编码
Python encode & decode总结
UTF-8 Unicode Ascii 等编码关系
感知机
感知机
梯度下降、对偶形式
人工智能
交叉熵损失函数
sigmoid,softmax,推导,好处
决策树损失函数Nt的理解
决策树损失函数Nt的理解
CART树之剪枝
CART树之剪枝
集成学习
关于集成学习和集成树的一些总结
提升树
分类问题和回归问题的提升树
GBDT
梯度提升决策树
杂知识点
一些模型中用到的基本概念
决策树
特征选择 ID3 C4.5 CART
损失函数有感
误差计算 防止过拟化
朴素贝叶斯
极大似然估计 贝叶斯估计
KNN k近邻法
k近邻法的构造及搜索
感知机
梯度下降、对偶形式
机器学习
交叉熵损失函数
sigmoid,softmax,推导,好处
决策树损失函数Nt的理解
决策树损失函数Nt的理解
CART树之剪枝
CART树之剪枝
集成学习
关于集成学习和集成树的一些总结
XGBoost
XGBoost
提升树
分类问题和回归问题的提升树
GBDT
梯度提升决策树
杂知识点
一些模型中用到的基本概念
随机森林
随机森林
决策树
特征选择 ID3 C4.5 CART
损失函数有感
误差计算 防止过拟化
朴素贝叶斯
极大似然估计 贝叶斯估计
KNN k近邻法
k近邻法的构造及搜索
感知机
梯度下降、对偶形式
KNN
KNN k近邻法
k近邻法的构造及搜索
markdown
markdown中使用LaTex
LaTex
markdown中使用LaTex
朴素贝叶斯
朴素贝叶斯
极大似然估计 贝叶斯估计
损失函数
交叉熵损失函数
sigmoid,softmax,推导,好处
损失函数有感
误差计算 防止过拟化
决策树
决策树损失函数Nt的理解
决策树损失函数Nt的理解
CART树之剪枝
CART树之剪枝
集成学习
关于集成学习和集成树的一些总结
决策树
特征选择 ID3 C4.5 CART
随机森林
集成学习
关于集成学习和集成树的一些总结
随机森林
随机森林
分类
提升树
分类问题和回归问题的提升树
杂知识点
一些模型中用到的基本概念
聚类
杂知识点
一些模型中用到的基本概念
回归
提升树
分类问题和回归问题的提升树
杂知识点
一些模型中用到的基本概念
GBDT
集成学习
关于集成学习和集成树的一些总结
GBDT
梯度提升决策树
提升树
集成学习
关于集成学习和集成树的一些总结
提升树
分类问题和回归问题的提升树
XGBoost
XGBoost
XGBoost
集成学习
集成学习
关于集成学习和集成树的一些总结
bootstrap
集成学习
关于集成学习和集成树的一些总结
bagging
集成学习
关于集成学习和集成树的一些总结
AdaBoost
集成学习
关于集成学习和集成树的一些总结
链接
一些URL
浏览网页中比较重要的链接
交叉熵
交叉熵损失函数
sigmoid,softmax,推导,好处
softmax
交叉熵损失函数
sigmoid,softmax,推导,好处
sigmoid
交叉熵损失函数
sigmoid,softmax,推导,好处