Forest background
バイオインフォの森へようこそ
【ADHD血液診断】レプリケートを考慮して次元削減

【ADHD血液診断】レプリケートを考慮して次元削減

目次

0. はじめに

本記事は、以下の記事の続きになります。

https://www.bioinforest.com/adhd1-2

1. レプリケートの平均をとる

ライブラリをimportし、データをロードしてからレプリケートの平均をとります。

Text
import time
import pickle

import pandas as pd
import numpy as np

import matplotlib.pyplot as plt
import seaborn as sns

from scipy.stats import pearsonr
from sklearn.decomposition import PCA
from sklearn.manifold import TSNE
import umap
from scipy.sparse.csgraph import connected_components

import warnings
warnings.filterwarnings('ignore')

df_std = pd.read_csv("src/df_std.csv", index_col=0)

names = list(set([s.split("_rep")[0] for s in df_sample["Sample Name"].tolist()]))

data = []

for n in names:
    idxes = []

    for i, s in enumerate(df_sample["Sample Name"].tolist()):
        if n in s:
            idxes.append(i)

    # print(df_sample.iloc[idxes, 0])

    v = df_std.iloc[idxes, :].apply(lambda x: np.mean(x)).tolist()
    y = 0 if "CTRL" in n else 1
    v.append(y)
    data.append(v)

df_rep = pd.DataFrame(data, index=names, columns=df_std.columns.tolist()+["y"])

df_rep.to_csv("src/df_rep.csv")
df_rep.shape
Text
(76, 16043)
GLYCTK-AS1RN7SL762PKDM8...TNFSF10y
P14.2016-03-31T12_40_25.0220160771004.fc1.ch81.4689046.8548841.9585380.97926919.7893971
P14.2016-03-31T12_40_25.0220160771004.fc1.ch100.8379037.5411265.0274174.18951425.1370861
P14.2016-03-31T12_40_25.0220160771004.fc1.ch1205.6321485.6321488.44822120.1036381
P14.2016-03-31T12_40_25.0220160771004.fc1.ch152.70070813.5035410.9002362.70070822.5059021
P14.2016-03-31T12_40_25.0220160771004.fc1.ch192.55955320.4764220025.1689361
.....................
P13.2016-11-22T13_16_36.0234063021020.fc2.ch1109.7559171.393702038.0364640
P13.2016-11-22T13_16_36.0234063021020.fc2.ch15000042.6854780
P13.2016-11-22T13_16_36.0234063021020.fc2.ch24038.2285112.0120276.03608117.9405731
P13.2016-12-08T21_33_13.0249463261006.fc2.ch17071.3933850011.8988970
P13.2016-12-08T21_33_13.0249463261006.fc2.ch18063.391107008.804320

2. 標準化

Text
x = df_rep.iloc[:, :-1]
x_scaled = (x - x.mean()) / x.std()

3. PCA

まずは次元削減を実施し、現在のデータのまま十分にADHDであるか判定できそうか大雑把に調べます。

PCA、tSNE、UMAPの順に試していきます。

Text
pca = PCA()
pca.fit(x_scaled)

score = pd.DataFrame(pca.transform(x_scaled), index=x_scaled.index)

plt.scatter(score.iloc[:, 0], score.iloc[:, 1], c=df_xy.iloc[:, -1], cmap=plt.get_cmap('jet'))
clb = plt.colorbar()
clb.set_label('ADHD Status', labelpad=-20, y=1.1, rotation=0)
plt.xlabel('PC1')
plt.ylabel('PC2')
plt.show()

Text
# 寄与率
contribution_ratios = pd.DataFrame(pca.explained_variance_ratio_)
cumulative_contribution_ratios = contribution_ratios.cumsum()

cont_cumcont_ratios = pd.concat([contribution_ratios, cumulative_contribution_ratios], axis=1).T
cont_cumcont_ratios.index = ['contribution_ratio', 'cumulative_contribution_ratio']  # 行の名前を変更
# 寄与率を棒グラフで、累積寄与率を線で入れたプロット図を重ねて描画
x_axis = range(1, contribution_ratios.shape[0] + 1)  # 1 から成分数までの整数が x 軸の値
plt.rcParams['font.size'] = 18
plt.bar(x_axis, contribution_ratios.iloc[:, 0], align='center')  # 寄与率の棒グラフ
plt.plot(x_axis, cumulative_contribution_ratios.iloc[:, 0], 'r.-')  # 累積寄与率の線を入れたプロット図
plt.xlabel('Number of principal components')  # 横軸の名前
plt.ylabel('Contribution ratio(blue),\nCumulative contribution ratio(red)')  # 縦軸の名前。\n で改行しています
plt.show()

4. tSNE

Text
tsne = TSNE(n_components=2, random_state=42)
corrdinates = pd.DataFrame(tsne.fit_transform(x_scaled))

plt.scatter(corrdinates.iloc[:, 0], corrdinates.iloc[:, 1], c=df_xy.iloc[:, -1], cmap=plt.get_cmap('jet'))
clb = plt.colorbar()
clb.set_label('ADHD Status', labelpad=-20, y=1.1, rotation=0)
plt.xlabel('tSNE 1')
plt.ylabel('tSNE 2')
plt.show()

5. UMAP

Text
embedding = pd.DataFrame(umap.UMAP().fit_transform(x_scaled))

plt.scatter(embedding.iloc[:, 0], embedding.iloc[:, 1], c=df_xy.iloc[:, -1], cmap=plt.get_cmap('jet'))
clb = plt.colorbar()
clb.set_label('ADHD Status', labelpad=-20, y=1.1, rotation=0)
plt.xlabel('UMAP 1')
plt.ylabel('UMAP 2')
plt.show()

6. まとめ

レプリケートを考慮してもADHD患者と健常人はうまく分かれませんでした。

このまま機械学習のモデルを作成しても、通常はうまい判別モデルはできません。

モデル作成の前に一工夫する必要がありそうです。