作者 | Mohamed Inat
来源 | Medium
编辑 | 代码医生团队
在本文中,将演示计算机视觉问题,它结合了两种最先进的技术:深度学习和Apache Spark。将利用深度学习管道的强大功能来 解决多类图像分类问题。
深度学习管道是一个高级深度学习框架,通过Spark MLlib Pipelines API 促进常见的深度学习工作流程。它目前支持TensorFlow和Keras以及TensorFlow后端。
https://spark.apache.org/mllib/?source=post_page---------------------------
https://docs.databricks.com/applications/deep-learning/single-node-training/deep-learning-pipelines.html?source=post_page---------------------------
该库来自Databricks,并利用Spark的两个最强大的方面:
- 本着Spark和Spark MLlib的精神,它提供了易于使用的API,可以在极少数代码行中实现深度学习。
- 它使用Spark强大的分布式引擎来扩展大规模数据集的深度学习。
迁移学习
迁移学习一般是机器学习中的一种技术,侧重于在解决一个问题时保存所获得的知识(权重和偏见),并进一步将其应用于不同但相关的问题。
深度学习管道提供实用程序来对图像执行传输学习,这是开始使用深度学习的最快方法之一。借助Featurizer的概念, Deep Learning Pipelines可以在Spark-Cluster上实现快速传输学习。现在它为转移学习提供了以下神经网络:
- InceptionV3
- Xception
- ResNet50
- VGG16
- VGG19
出于演示目的,将仅使用InceptionV3模型。
以下示例将Spark中的InceptionV3模型和多项逻辑回归组合在一起。从深度学习管道效用函数称为DeepImageFeaturizer自动剥离一个预先训练神经网络的最后一层,并使用从以前的所有层的输出为特征的回归算法。
数据集
孟加拉语脚本有十个数字(字母或符号表示从0到9的数字)。使用位置基数为10的数字系统在孟加拉语中写入大于9的数字。
选择NumtaDB作为数据集的来源。这是孟加拉手写数字数据的集合。该数据集包含来自2,700多名贡献者的85,000多个数字。但是不打算在整个数据集上工作,而是随机选择每个类别的50张图像。
图1:每个文件夹包含50个图像[类(0到9)]
看看下面在十个文件夹中的内容。为了演示目的,重命名下面显示的相应类标签的每个图像。
图2:孟加拉手写数字
首先,将所有图像加载到Spark Data Frame。然后建立模型并训练它。之后,将评估训练模型的性能。
加载图片
数据集(从0到9)包含近500个手写的Bangla数字(每个类别50个图像)。在这里使用目标列手动将每个图像加载到spark数据框架中。加载整个数据集后,将训练集和最终测试集随机分成8:2比例。
目标是使用训练数据集训练模型,最后使用测试数据集评估模型的性能。
代码语言:javascript复制# necessary import
from pyspark.sql import SparkSession
from pyspark.ml.image import ImageSchema
from pyspark.sql.functions import lit
from functools import reduce
# create a spark session
spark = SparkSession.builder.appName(‘DigitRecog’).getOrCreate()
# loaded image
zero = ImageSchema.readImages("0").withColumn("label", lit(0))
one = ImageSchema.readImages("1").withColumn("label", lit(1))
two = ImageSchema.readImages("2").withColumn("label", lit(2))
three = ImageSchema.readImages("3").withColumn("label", lit(3))
four = ImageSchema.readImages("4").withColumn("label", lit(4))
five = ImageSchema.readImages("5").withColumn("label", lit(5))
six = ImageSchema.readImages("6").withColumn("label", lit(6))
seven = ImageSchema.readImages("7").withColumn("label", lit(7))
eight = ImageSchema.readImages("8").withColumn("label", lit(8))
nine = ImageSchema.readImages("9").withColumn("label", lit(9))
dataframes = [zero, one, two, three,four,
five, six, seven, eight, nine]
# merge data frame
df = reduce(lambda first, second: first.union(second), dataframes)
# repartition dataframe
df = df.repartition(200)
# split the data-frame
train, test = df.randomSplit([0.8, 0.2], 42)
在这里,可以执行各种Exploratory DATA 一对Spark数据帧nalysis。也可以查看数据框架的架构。
代码语言:javascript复制df.printSchema()
root
|-- image: struct (nullable = true)
| |-- origin: string (nullable = true)
| |-- height: integer (nullable = false)
| |-- width: integer (nullable = false)
| |-- nChannels: integer (nullable = false)
| |-- mode: integer (nullable = false)
| |-- data: binary (nullable = false)
|-- label: integer (nullable = false)
还可以使用.toPandas()将Spark-DataFrame转换为Pandas-DataFrame 。
模型训练
在这里,将Spark中的InceptionV3模型和逻辑回归结合起来。所述DeepImageFeaturizer自动剥离一个预训练神经网络的最后一层,并使用从所有的前面的层的输出作为特征在于用于逻辑回归算法。
由于逻辑回归是一种简单快速的算法,因此这种迁移学习训练可以快速收敛。
代码语言:javascript复制from pyspark.ml.evaluation import MulticlassClassificationEvaluator
from pyspark.ml.classification import LogisticRegression
from pyspark.ml import Pipeline
from sparkdl import DeepImageFeaturizer
# model: InceptionV3
# extracting feature from images
featurizer = DeepImageFeaturizer(inputCol="image",
outputCol="features",
modelName="InceptionV3")
# used as a multi class classifier
lr = LogisticRegression(maxIter=5, regParam=0.03,
elasticNetParam=0.5, labelCol="label")
# define a pipeline model
sparkdn = Pipeline(stages=[featurizer, lr])
spark_model = sparkdn.fit(train) # start fitting or training
评估
现在是时候评估模型性能了。现在想要评估测试数据集上的四个评估指标,例如F1-得分,精度,召回,准确度。
代码语言:javascript复制from pyspark.ml.evaluation import MulticlassClassificationEvaluator
# evaluate the model with test set
evaluator = MulticlassClassificationEvaluator()
tx_test = spark_model.transform(test)
print('F1-Score ', evaluator.evaluate(tx_test,
{evaluator.metricName: 'f1'}))
print('Precision ', evaluator.evaluate(tx_test,
{evaluator.metricName: 'weightedPrecision'}))
print('Recall ', evaluator.evaluate(tx_test,
{evaluator.metricName: 'weightedRecall'}))
print('Accuracy ', evaluator.evaluate(tx_test,
{evaluator.metricName: 'accuracy'}))
在这里得到结果。它一直很有希望到现在为止。
代码语言:javascript复制F1-Score 0.8111782234361806
Precision 0.8422058244785519
Recall 0.8090909090909091
Accuracy 0.8090909090909091
混淆矩阵
在这里,将使用混淆矩阵总结分类模型的性能。
代码语言:javascript复制import matplotlib.pyplot as plt
import numpy as np
import itertools
def plot_confusion_matrix(cm, classes,
normalize=False,
title='Confusion matrix',
cmap=plt.cm.GnBu):
plt.imshow(cm, interpolation='nearest', cmap=cmap)
plt.title(title)
tick_marks = np.arange(len(classes))
plt.xticks(tick_marks, classes, rotation=45)
plt.yticks(tick_marks, classes)
fmt = '.2f' if normalize else 'd'
thresh = cm.max() / 2.
for i, j in itertools.product(range(cm.shape[0]), range(cm.shape[1])):
plt.text(j, i, format(cm[i, j], fmt),
horizontalalignment="center",
color="white" if cm[i, j] > thresh else "black")
plt.tight_layout()
plt.ylabel('True label')
plt.xlabel('Predicted label')
对于这一点,需要转换Spark非数据帧到Pandas非数据帧的第一 和 再 调用混淆矩阵与真实和预测的标签。
代码语言:javascript复制from sklearn.metrics import confusion_matrix
y_true = tx_test.select("label")
y_true = y_true.toPandas()
y_pred = tx_test.select("prediction")
y_pred = y_pred.toPandas()
cnf_matrix = confusion_matrix(y_true, y_pred,labels=range(10))
想象一下混淆矩阵
代码语言:javascript复制import seaborn as sns
%matplotlib inline
sns.set_style("darkgrid")
plt.figure(figsize=(7,7))
plt.grid(False)
# call pre defined function
plot_confusion_matrix(cnf_matrix, classes=range(10))
图3:10个孟加拉数字的混淆矩阵(0到9)
分类报告
在这里,还可以通过评估矩阵获得每个类别的分类报告。
代码语言:javascript复制from sklearn.metrics import classification_report
target_names = ["Class {}".format(i) for i in range(10)]
print(classification_report(y_true, y_pred, target_names = target_names))
它将证明每个类标签预测的模型性能要好得多。
代码语言:javascript复制precision recall f1-score support
Class 0 1.00 0.92 0.96 13
Class 1 0.57 1.00 0.73 8
Class 2 0.64 1.00 0.78 7
Class 3 0.88 0.70 0.78 10
Class 4 0.90 1.00 0.95 9
Class 5 0.67 0.83 0.74 12
Class 6 0.83 0.62 0.71 8
Class 7 1.00 0.80 0.89 10
Class 8 1.00 0.80 0.89 20
Class 9 0.70 0.54 0.61 13
micro avg 0.81 0.81 0.81 110
macro avg 0.82 0.82 0.80 110
weighted avg 0.84 0.81 0.81 110
ROC AUC得分
找到这个模型的ROC AUC得分点。从下面这段代码:
代码语言:javascript复制from sklearn.metrics import roc_curve, auc, roc_auc_score
from sklearn.preprocessing import LabelBinarizer
def multiclass_roc_auc_score(y_test, y_pred, average="macro"):
lb = LabelBinarizer()
lb.fit(y_test)
y_test = lb.transform(y_test)
y_pred = lb.transform(y_pred)
return roc_auc_score(y_test, y_pred, average=average)
print('ROC AUC score:', multiclass_roc_auc_score(y_true,y_pred))
它得分0.901。
预测样本
看看它的一些预测,与真实标签的比较。
代码语言:javascript复制# all columns after transformations
print(tx_test.columns)
# see some predicted output
tx_test.select('image', "prediction", "label").show()
结果如下
代码语言:javascript复制['image', 'label', 'features', 'rawPrediction', 'probability', 'prediction']
------------------ ---------- --------
| image |prediction| label |
------------------ ---------- --------
|[file:/home/i...| 1.0| 1|
|[file:/home/i...| 8.0| 8|
|[file:/home/i...| 9.0| 9|
|[file:/home/i...| 1.0| 8|
|[file:/home/i...| 1.0| 1|
|[file:/home/i...| 1.0| 9|
|[file:/home/i...| 0.0| 0|
|[file:/home/i...| 2.0| 9|
|[file:/home/i...| 8.0| 8|
|[file:/home/i...| 9.0| 9|
|[file:/home/i...| 0.0| 0|
|[file:/home/i...| 4.0| 0|
|[file:/home/i...| 5.0| 9|
|[file:/home/i...| 1.0| 1|
|[file:/home/i...| 9.0| 9|
|[file:/home/i...| 9.0| 9|
|[file:/home/i...| 1.0| 1|
|[file:/home/i...| 1.0| 1|
|[file:/home/i...| 9.0| 9|
|[file:/home/i...| 3.0| 6|
-------------------- ---------- -----
only showing top 20 rows
仅显示前20行
写在最后
虽然使用了ImageNet重量,但模型非常有希望识别手写数字。此外还没有执行任何图像处理任务以实现更好的通用化。此外与ImageNet数据集相比,该模型仅使用极少量的数据进行训练。
在很高的层次上,每个Spark应用程序都包含一个驱动程序,可以在集群上启动各种并行操作。驱动程序包含应用程序的主要功能,并在群集上定义分布式数据集,然后对它们应用操作。
可以从下面的链接获取演示的源代码,
https://github.com/iphton?source=post_page---------------------------