วิธีการแบ่งข้อมูลออกเป็น 3 ชุด (การฝึกอบรมการตรวจสอบความถูกต้องและการทดสอบ)?


157

ฉันมีดาต้าเฟรมแพนด้าและฉันต้องการแบ่งเป็น 3 ชุดแยกกัน ฉันรู้ว่าการใช้train_test_splitจากsklearn.cross_validationหนึ่งสามารถแบ่งข้อมูลออกเป็นสองชุด (ฝึกและทดสอบ) อย่างไรก็ตามฉันไม่พบวิธีแก้ปัญหาเกี่ยวกับการแบ่งข้อมูลออกเป็นสามชุด โดยเฉพาะอย่างยิ่งฉันต้องการมีดัชนีของข้อมูลต้นฉบับ

ฉันรู้ว่าวิธีแก้ปัญหาคือต้องใช้train_test_splitสองครั้งและปรับดัชนี แต่มีวิธีมาตรฐาน / ในตัวมากกว่าในการแบ่งข้อมูลออกเป็น 3 ชุดแทนที่จะเป็น 2 หรือไม่?


5
สิ่งนี้ไม่ได้ตอบคำถามเฉพาะของคุณ แต่ฉันคิดว่าแนวทางที่เป็นมาตรฐานมากกว่านี้จะแบ่งออกเป็นสองชุดฝึกและทดสอบและเรียกใช้การตรวจสอบความถูกต้องข้ามชุดการฝึกซึ่งทำให้ไม่จำเป็นต้องมีชุด "การพัฒนา" แบบสแตนด์อโลน .
เดวิด

1
สิ่งนี้เกิดขึ้นก่อนหน้านี้และเท่าที่ฉันรู้ยังไม่มีวิธีการในตัวสำหรับสิ่งนั้น
ayhan

5
ฉันขอแนะนำให้ Hastie et al.'s The Elements of Statistical Learningสำหรับการอภิปรายว่าเหตุใดจึงต้องใช้สามชุดแทนที่จะเป็นสองชุด ( web.stanford.edu/~hastie/local.ftp/Springer/OLD/… Model การประเมินและบทคัดเลือก)
ayhan

2
@David ในบางรุ่นเพื่อป้องกันการติดตั้งมากเกินไปจำเป็นต้องมี 3 ชุดแทนที่จะเป็น 2 เนื่องจากในตัวเลือกการออกแบบของคุณคุณจะต้องปรับแต่งพารามิเตอร์เพื่อปรับปรุงประสิทธิภาพของชุดทดสอบ เพื่อป้องกันสิ่งนั้นจำเป็นต้องมีชุดการพัฒนา ดังนั้นการใช้การตรวจสอบความถูกต้องข้ามจะไม่เพียงพอ
CentAu

6
@ayhan URL ที่แก้ไขสำหรับหนังสือเล่มนั้นคือstatweb.stanford.edu/~tibs/ElemStatLearn/printings/… , บทที่ 7 (น. 219)
Camille Goudeseune

คำตอบ:


176

สารละลายที่เป็นหนอง เราจะสับชุดข้อมูลทั้งหมดก่อน ( df.sample(frac=1, random_state=42)) จากนั้นแยกชุดข้อมูลของเราออกเป็นส่วนต่อไปนี้:

  • 60% - ชุดรถไฟ
  • 20% - ชุดการตรวจสอบความถูกต้อง
  • 20% - ชุดทดสอบ

In [305]: train, validate, test = \
              np.split(df.sample(frac=1, random_state=42), 
                       [int(.6*len(df)), int(.8*len(df))])

In [306]: train
Out[306]:
          A         B         C         D         E
0  0.046919  0.792216  0.206294  0.440346  0.038960
2  0.301010  0.625697  0.604724  0.936968  0.870064
1  0.642237  0.690403  0.813658  0.525379  0.396053
9  0.488484  0.389640  0.599637  0.122919  0.106505
8  0.842717  0.793315  0.554084  0.100361  0.367465
7  0.185214  0.603661  0.217677  0.281780  0.938540

In [307]: validate
Out[307]:
          A         B         C         D         E
5  0.806176  0.008896  0.362878  0.058903  0.026328
6  0.145777  0.485765  0.589272  0.806329  0.703479

In [308]: test
Out[308]:
          A         B         C         D         E
4  0.521640  0.332210  0.370177  0.859169  0.401087
3  0.333348  0.964011  0.083498  0.670386  0.169619

[int(.6*len(df)), int(.8*len(df))]- เป็นindices_or_sections อาร์เรย์numpy.split ()

นี่คือการสาธิตเล็กน้อยสำหรับnp.split()การใช้งาน - มาแบ่งอาร์เรย์ 20 องค์ประกอบออกเป็นส่วนต่อไปนี้: 80%, 10%, 10%:

In [45]: a = np.arange(1, 21)

In [46]: a
Out[46]: array([ 1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20])

In [47]: np.split(a, [int(.8 * len(a)), int(.9 * len(a))])
Out[47]:
[array([ 1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11, 12, 13, 14, 15, 16]),
 array([17, 18]),
 array([19, 20])]

@root พารามิเตอร์ frac = 1 ทำอะไรกันแน่?
SpiderWasp42

1
@ SpiderWasp42 frac=1สั่งsample()ให้ฟังก์ชันส่งคืนแถวทั้งหมด ( 100%หรือเศษส่วน = 1.0)
MaxU

14
ขอบคุณ @MaxU ฉันต้องการพูดถึง 2 สิ่งเพื่อให้สิ่งต่างๆง่ายขึ้น ขั้นแรกใช้np.random.seed(any_number)ก่อนเส้นแบ่งเพื่อให้ได้ผลลัพธ์เดียวกันกับทุกการวิ่ง ประการที่สองที่จะทำให้อัตราส่วนที่ไม่เท่ากันเช่นการใช้งานtrain:test:val::50:40:10 [int(.5*len(dfn)), int(.9*len(dfn))]ในที่นี้องค์ประกอบแรกหมายถึงขนาดสำหรับtrain(0.5%) องค์ประกอบที่สองหมายถึงขนาดสำหรับval(1-0.9 = 0.1%) และความแตกต่างระหว่างสองแสดงขนาดสำหรับtest(0.9-0.5 = 0.4%) แก้ไขฉันถ้าฉันผิด :)
sync11

เป็นความผิดพลาดหรือไม่เมื่อคุณพูดว่า "นี่คือการสาธิตเล็ก ๆ สำหรับการใช้งาน np.split () - เรามาแบ่งอาร์เรย์ 20 องค์ประกอบออกเป็นส่วนต่างๆดังนี้ 90%, 10%, 10%:" ฉันค่อนข้างแน่ใจว่าคุณหมายถึง 80 %, 10%, 10%
Kevin

เฮ้ @MaxU ฉันมีเคสบางอย่างที่คล้ายกัน ฉันสงสัยว่าคุณสามารถดูให้ฉันดูได้ไหมและช่วยฉันที่นั่น นี่คือคำถามของฉันstackoverflow.com/questions/54847668/…
Deepak M

57

บันทึก:

ฟังก์ชั่นถูกเขียนขึ้นเพื่อจัดการกับการสร้างเซตแบบสุ่ม คุณไม่ควรพึ่งพาการแยกเซตที่ไม่สุ่มชุด

import numpy as np
import pandas as pd

def train_validate_test_split(df, train_percent=.6, validate_percent=.2, seed=None):
    np.random.seed(seed)
    perm = np.random.permutation(df.index)
    m = len(df.index)
    train_end = int(train_percent * m)
    validate_end = int(validate_percent * m) + train_end
    train = df.iloc[perm[:train_end]]
    validate = df.iloc[perm[train_end:validate_end]]
    test = df.iloc[perm[validate_end:]]
    return train, validate, test

สาธิต

np.random.seed([3,1415])
df = pd.DataFrame(np.random.rand(10, 5), columns=list('ABCDE'))
df

ป้อนคำอธิบายภาพที่นี่

train, validate, test = train_validate_test_split(df)

train

ป้อนคำอธิบายภาพที่นี่

validate

ป้อนคำอธิบายภาพที่นี่

test

ป้อนคำอธิบายภาพที่นี่


1
ฉันเชื่อว่าฟังก์ชันนี้ต้องการ df ที่มีค่าดัชนีตั้งแต่ 1 ถึง n ในกรณีของฉันฉันแก้ไขฟังก์ชันเพื่อใช้ df.loc เนื่องจากค่าดัชนีของฉันไม่จำเป็นต้องอยู่ในช่วงนี้
iOSBeginner

36

อย่างไรก็ตามวิธีการหนึ่งที่จะแบ่งชุดลงtrain, test, cvกับ0.6, 0.2, 0.2จะใช้train_test_splitวิธีการสองครั้ง

from sklearn.model_selection import train_test_split

x, x_test, y, y_test = train_test_split(xtrain,labels,test_size=0.2,train_size=0.8)
x_train, x_cv, y_train, y_cv = train_test_split(x,y,test_size = 0.25,train_size =0.75)

Suboptimal สำหรับชุดข้อมูลขนาดใหญ่
Maksym Ganenko

@MaksymGanenko คุณช่วยอธิบายได้ไหม?
blitu12345

คุณแนะนำให้แยกข้อมูลด้วยการดำเนินการสองอย่างแยกกัน การแยกข้อมูลแต่ละครั้งเกี่ยวข้องกับการคัดลอกข้อมูล ดังนั้นเมื่อคุณแนะนำให้ใช้การดำเนินการแยกสองรายการแทนที่จะเป็นการสร้างภาระให้กับทั้ง RAM และ CPU ดังนั้นโซลูชันของคุณจึงไม่เหมาะสม np.split()แยกข้อมูลที่ควรจะทำกับการทำงานครั้งเดียวเช่น sklearnนอกจากนี้ก็ไม่จำเป็นต้องพึ่งพาเพิ่มเติมเกี่ยวกับ
Maksym Ganenko

2
ข้อดีอีกอย่างของวิธีนี้คือคุณสามารถใช้พารามิเตอร์การแบ่งชั้น
Ami Tavory

1
แนวทางที่ง่ายและพอเพียง!
mgokhanbakal

10

นี่คือฟังก์ชัน Python ที่แยกดาต้าเฟรมของ Pandas ออกเป็นรถไฟการตรวจสอบและทดสอบดาต้าเฟรมด้วยการสุ่มตัวอย่างแบบแบ่งชั้น ดำเนินการแยกนี้โดยเรียกฟังก์ชันของ scikit-learn train_test_split()สองครั้ง

import pandas as pd
from sklearn.model_selection import train_test_split

def split_stratified_into_train_val_test(df_input, stratify_colname='y',
                                         frac_train=0.6, frac_val=0.15, frac_test=0.25,
                                         random_state=None):
    '''
    Splits a Pandas dataframe into three subsets (train, val, and test)
    following fractional ratios provided by the user, where each subset is
    stratified by the values in a specific column (that is, each subset has
    the same relative frequency of the values in the column). It performs this
    splitting by running train_test_split() twice.

    Parameters
    ----------
    df_input : Pandas dataframe
        Input dataframe to be split.
    stratify_colname : str
        The name of the column that will be used for stratification. Usually
        this column would be for the label.
    frac_train : float
    frac_val   : float
    frac_test  : float
        The ratios with which the dataframe will be split into train, val, and
        test data. The values should be expressed as float fractions and should
        sum to 1.0.
    random_state : int, None, or RandomStateInstance
        Value to be passed to train_test_split().

    Returns
    -------
    df_train, df_val, df_test :
        Dataframes containing the three splits.
    '''

    if frac_train + frac_val + frac_test != 1.0:
        raise ValueError('fractions %f, %f, %f do not add up to 1.0' % \
                         (frac_train, frac_val, frac_test))

    if stratify_colname not in df_input.columns:
        raise ValueError('%s is not a column in the dataframe' % (stratify_colname))

    X = df_input # Contains all columns.
    y = df_input[[stratify_colname]] # Dataframe of just the column on which to stratify.

    # Split original dataframe into train and temp dataframes.
    df_train, df_temp, y_train, y_temp = train_test_split(X,
                                                          y,
                                                          stratify=y,
                                                          test_size=(1.0 - frac_train),
                                                          random_state=random_state)

    # Split the temp dataframe into val and test dataframes.
    relative_frac_test = frac_test / (frac_val + frac_test)
    df_val, df_test, y_val, y_test = train_test_split(df_temp,
                                                      y_temp,
                                                      stratify=y_temp,
                                                      test_size=relative_frac_test,
                                                      random_state=random_state)

    assert len(df_input) == len(df_train) + len(df_val) + len(df_test)

    return df_train, df_val, df_test

ด้านล่างนี้เป็นตัวอย่างการทำงานที่สมบูรณ์

พิจารณาชุดข้อมูลที่มีป้ายกำกับที่คุณต้องการดำเนินการแบ่งชั้น ป้ายนี้มีการกระจายของตัวเองในชุดเดิมที่บอกว่า 75% foo, 15% barและ baz10% ตอนนี้เรามาแยกชุดข้อมูลออกเป็นรถไฟการตรวจสอบความถูกต้องและการทดสอบเป็นชุดย่อยโดยใช้อัตราส่วน 60/20/20 โดยที่แต่ละส่วนจะมีการกระจายป้ายกำกับเหมือนกัน ดูภาพประกอบด้านล่าง:

ป้อนคำอธิบายภาพที่นี่

นี่คือชุดข้อมูลตัวอย่าง:

df = pd.DataFrame( { 'A': list(range(0, 100)),
                     'B': list(range(100, 0, -1)),
                     'label': ['foo'] * 75 + ['bar'] * 15 + ['baz'] * 10 } )

df.head()
#    A    B label
# 0  0  100   foo
# 1  1   99   foo
# 2  2   98   foo
# 3  3   97   foo
# 4  4   96   foo

df.shape
# (100, 3)

df.label.value_counts()
# foo    75
# bar    15
# baz    10
# Name: label, dtype: int64

ตอนนี้ขอเรียกใช้split_stratified_into_train_val_test()ฟังก์ชันจากด้านบนเพื่อรับการฝึกอบรมการตรวจสอบและทดสอบดาต้าเฟรมตามอัตราส่วน 60/20/20

df_train, df_val, df_test = \
    split_stratified_into_train_val_test(df, stratify_colname='label', frac_train=0.60, frac_val=0.20, frac_test=0.20)

สาม dataframes df_train, df_valและdf_testมีทั้งหมดแถวเดิม แต่ขนาดของพวกเขาจะเป็นไปตามอัตราส่วนดังกล่าวข้างต้น

df_train.shape
#(60, 3)

df_val.shape
#(20, 3)

df_test.shape
#(20, 3)

นอกจากนี้แต่ละสามแยกจะมีการกระจายเดียวกันของฉลากคือ 75% foo, 15% barและ baz10%

df_train.label.value_counts()
# foo    45
# bar     9
# baz     6
# Name: label, dtype: int64

df_val.label.value_counts()
# foo    15
# bar     3
# baz     2
# Name: label, dtype: int64

df_test.label.value_counts()
# foo    15
# bar     3
# baz     2
# Name: label, dtype: int64

NameError: ไม่ได้กำหนดชื่อ 'df' "df" ใน split_stratified_into_train_val_test () ควรแทนที่ด้วย "df_input"
Fantasy Pollock

ขอบคุณ. ฉันซ่อมมัน. ปัญหาอยู่ในเส้นทางการจัดการข้อผิดพลาดของโค้ด
stackoverflowuser2010

2

สะดวกในการใช้งานtrain_test_splitโดยไม่ต้องทำดัชนีซ้ำหลังจากแบ่งเป็นหลายชุดและไม่ต้องเขียนโค้ดเพิ่มเติม คำตอบที่ดีที่สุดข้างต้นไม่ได้กล่าวถึงว่าการแยกสองครั้งโดยtrain_test_splitไม่เปลี่ยนขนาดพาร์ติชันจะไม่ทำให้พาร์ติชันที่ตั้งใจไว้ในตอนแรก:

x_train, x_remain = train_test_split(x, test_size=(val_size + test_size))

จากนั้นส่วนของการตรวจสอบความถูกต้องและชุดทดสอบใน x_remain จะเปลี่ยนไปและสามารถนับเป็น

new_test_size = np.around(test_size / (val_size + test_size), 2)
# To preserve (new_test_size + new_val_size) = 1.0 
new_val_size = 1.0 - new_test_size

x_val, x_test = train_test_split(x_remain, test_size=new_test_size)

ในครั้งนี้พาร์ติชันเริ่มต้นทั้งหมดจะถูกบันทึก


1

ในกรณีของการเรียนรู้ภายใต้การดูแลคุณอาจต้องการแยกทั้ง X และ y (โดยที่ X คืออินพุตของคุณและ y เป็นเอาต์พุตความจริงพื้นดิน) คุณต้องใส่ใจกับการสุ่ม X และ y ในลักษณะเดียวกันก่อนที่จะแยก

ที่นี่ทั้ง X และ y อยู่ในดาต้าเฟรมเดียวกันดังนั้นเราจึงสับเปลี่ยนพวกมันแยกพวกมันและใช้การแยกสำหรับแต่ละอัน (เช่นเดียวกับในคำตอบที่เลือก) หรือ X และ y อยู่ในดาต้าเฟรมสองแบบที่แตกต่างกันดังนั้นเราจึงสลับ X เรียงลำดับ y ใหม่ เช่นเดียวกับ X แบบสับและใช้การแบ่งกับแต่ละอัน

# 1st case: df contains X and y (where y is the "target" column of df)
df_shuffled = df.sample(frac=1)
X_shuffled = df_shuffled.drop("target", axis = 1)
y_shuffled = df_shuffled["target"]

# 2nd case: X and y are two separated dataframes
X_shuffled = X.sample(frac=1)
y_shuffled = y[X_shuffled.index]

# We do the split as in the chosen answer
X_train, X_validation, X_test = np.split(X_shuffled, [int(0.6*len(X)),int(0.8*len(X))])
y_train, y_validation, y_test = np.split(y_shuffled, [int(0.6*len(X)),int(0.8*len(X))])
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.