逻辑回归(Logistic Regression)虽然名字中包含"回归"一词,但实际上是一种用于解决分类问题的统计学习方法,而不是回归问题。它是一种线性模型,常用于二分类问题,也可以扩展到多分类问题。
逻辑回归模型假设输入特征的线性组合,然后通过一个称为逻辑函数(也称为sigmoid函数)将结果映射到一个概率值。对于二分类问题,模型表示如下:
其中 b0,b1,b2,…,bn 是模型参数,x1,x2,…,xn 是输入特征。
?
模型的输出值可以解释为样本属于类别1
的概率,通常当输出概率大于等于0.5
时,模型预测样本属于类别1
;当输出概率小于0.5
时,模型预测样本属于类别0
。
逻辑回归的训练过程涉及最大化似然函数(最大似然估计)或最小化对数损失函数。通常使用梯度下降等优化算法进行参数优化。
scikit-learn
):from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score, classification_report
# 假设X是特征矩阵,y是目标变量
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 创建逻辑回归模型
model = LogisticRegression()
# 训练模型
model.fit(X_train, y_train)
# 预测
y_pred = model.predict(X_test)
# 评估模型性能
accuracy = accuracy_score(y_test, y_pred)
report = classification_report(y_test, y_pred)
print(f'Accuracy: {accuracy}')
print(f'Classification Report:\n{report}')
上述示例演示了使用 scikit-learn
库中的逻辑回归实现的基本步骤。在实际应用中,需要根据具体问题进行特征工程、调参等处理。