tensorflow2.0——预测泰坦尼克号旅客生存概率(Keras应用实践)

tensorflow2.0——预测泰坦尼克号旅客生存概率(Keras应用实践),第1张

一、数据准备 1、导入相关的库
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
import urllib.request
import os
%matplotlib inline

print("Tensorflow版本是:",tf.__version__)
2、下载泰坦尼克号上旅客的数据集
data_url="http://biostat.mc.vanderbilt.edu/wili/pub/Main/DataSets/titanic3.xls"

data_file_path="E:/titanic3.xls"
 
if  not os.path.isfile(data_file_path):
    result=urllib.request.urlretrieve(data_url,data_file_path)
    print('downloaded;',result)
else:
    print(data_file_path,'data file already eists.')
3、使用Pandas读取处理数据
import numpy
import pandas as pd
 
# 读取数据文件,结果为DataFrame格式
df_data = pd.read_excel(data_file_path)
4、筛选提取需要的特征字段
# 筛选提取字段
selected_cols=['survived','name','pclass','sex','age','sibsp','parch','fare','embarked']
selected_df_data=df_data[selected_cols]
5、定义数据预处理函数
把前面数据预处理的命令全部封装到prepare_data函数中,方便后面调用
from sklearn import preprocessing
def prepare_data(df_data):
    df = df_data.drop(['name'],axis=1) # 删除姓名列
    age_mean = df['age'].mean()
    df['age'] = df['age'].fillna(age_mean) # 为缺失age记录填充值
    fare_mean = df['fare'].mean()
    df['fare'] = df['fare'].fillna(fare_mean) # 为缺失fare记录填充值
    df['sex'] = df['sex'].map({'female':0,'male':1}).astype(int) # 把sex值由字符串转换为数值
    df['embarked'] = df['embarked'].fillna('S') # 为缺失embarked记录填充值
    df['embarked'] = df['embarked'].map({'C':0,'Q':1,'S':2}).astype(int) # 把embarked值由字符串转换为数值
    
    ndarray_data = df.values # 转换为ndarray数组
    features = ndarray_data[:,1:] # 后7列是特征值
    label = ndarray_data[:,0] # 第0列是标签值
    # 特征值标准化
    minmax_scale = preprocessing.MinMaxScaler(feature_range=(0,1))
    norm_features = minmax_scale.fit_transform(features)
    
    return norm_features,label
6、得到处理后的数据集
x_data,y_data=prepare_data(selected_df_data)
7、划分训练集和测试集
train_size = int(len(x_data)*0.8)
x_train = x_data[:train_size]
y_train = y_data[:train_size]
x_test = x_data[train_size:]
y_test = y_data[train_size:]
转变为Dataset
train_dataset=tf.data.Dataset.from_tensor_slices((x_train,y_train))
valid_dataset=tf.data.Dataset.from_tensor_slices((x_test,y_test))
二、建立模型结构
model = tf.keras.models.Sequential()
model.add(tf.keras.layers.Dense(units=64,
                                input_dim=7,
                                use_bias=True,
                                kernel_initializer='uniform',
                                bias_initializer='zeros',
                                activation='relu'))
model.add(tf.keras.layers.Dense(units=32,
                                activation='sigmoid'))
model.add(tf.keras.layers.Dense(units=1,
                                activation='sigmoid'))
三、模型设置
model.summary()
model.compile(optimizer=tf.keras.optimizers.Adam(0.003),
              loss='binary_crossentropy',
              metrics=['accuracy'])
optimizer可以是优化器的名字,如'adam',也可以是优化器的实例 loss是损失函数名 sigmoid作为激活函数,一般损失函数选用binary_crossentropy softmax作为激活函数,一般损失函数选用categorical_crossentropy metrics 模型要训练和评估的度量值
四、模型训练
train_dataset=train_dataset.shuffle(buffer_size=10000)
train_dataset=train_dataset.batch(40)
train_history = model.fit(train_dataset,
                          epochs=100,
                          validation_data=train_dataset,     # 验证集所占比例
                          verbose=2)       
train_history.history
train_history.history.keys()
model.fit() 返回一个 History 对象,该对象包含一个字典,其中包括训练期间发生的所有情况

shuffle,打乱数据顺序,为后面训练做准备 

训练过程可视化
import matplotlib.pyplot as plt
%matplotlib inline

def visu_train_history(train_history,train_metric,validation_metric):
    plt.plot(train_history.history[train_metric])
    plt.plot(train_history.history[validation_metric])
    plt.title('Train History')
    plt.ylabel(train_metric)
    plt.xlabel('epoch')
    plt.legend(['train','validation'],loc='upper left')
    plt.show()
visu_train_history(train_history,'accuracy','val_accuracy')
visu_train_history(train_history, 'loss', 'val_loss')
五、模型评估
result = model.evaluate(x=x_test,
                        y=y_test,
                        verbose=2)
model.metrics_names
model.metrics_names: 评估结果返回值的标签
六、模型应用 1、加入Jack & Rose的数据
Jack_info = [0,'Jack',3,'male',23,1,0,5.0000,'S']
Rose_info = [1,'Rose',1,'female',20,1,0,100.0000,'S']
2、创建新的旅客DataFrame
new_passenger_pd=pd.DataFrame([Jack_info,Rose_info],columns=selected_cols)
3、在老的DataFrame中加入新的旅客信息
# 在老的DataFrame中加入新的旅客信息
all_passenger_pd=selected_df_data.append(new_passenger_pd)
七、应用模型进行预测 1、数据准备
# 数据准备
x_features, y_label=prepare_data(all_passenger_pd)
2、计算旅客生存概率
# 利用模型计算旅客生存概率
surv_probability=model.predict(x_features)
surv_probability[:5]v
八、查看预测结果
all_passenger_pd.insert(len(all_passenger_pd.columns),'surv_probability',surv_probability)

all_passenger_pd[-5:]

九、应用模型进行探索
找出模型预测生存概率大于90%但实际没有存活下来的旅客信息
all_passenger_pd[(all_passenger_pd['survived']==0)&(all_passenger_pd['surv_probability']>0.9)]
Allison一家的故事 上面前2条信息中的2人是一家人,其实Allison一家4口人都在泰坦尼克号上,对应数据 集的行号是1~4号 
all_passenger_pd[1:5]

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/915966.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-05-16
下一篇 2022-05-16

发表评论

登录后才能评论

评论列表(0条)

保存