Phương pháp mới dựa trên đường biên và vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng

Tóm tắt. Phân lớp đối với dữ liệu mất cân bằng là một bài toán có ý nghĩa quan trọng trong thực tế và đang trở thành xu hướng tiếp cận mới của nhiều nhà nghiên cứu. Đặc biệt, trong chẩn đoán y học, số người mắc bệnh chỉ chiếm tỉ lệ rất nhỏ trên tổng số người dân nên khả năng phát hiện người mắc bệnh gặp nhiều khó khăn hoặc sai lệch lớn, gây ra hậu quả nghiêm trọng, thậm chí ảnh hưởng tới tính mạng con người. Vì vậy, hiệu quả phân lớp mất cân bằng đòi hỏi phải có tính chính xác cao. Phương pháp tiền xử lí dữ liệu là một hướng giải quyết phổ biến và đạt kết quả tốt. Bài báo này sẽ giới thiệu một số phương pháp tiếp cận trong phân lớp dữ liệu mất cân bằng như Random Oversampling và Random Undersampling. Từ đó, đề xuất một phương pháp mới dựa trên khái niệm đường biên và vùng an toàn nhằm nâng cao hiệu quả phân lớp. Thuật toán mới được cải tiến dựa trên sự kết hợp từ hai thuật toán Random Boder Oversampling và Random Safe Undersampling nghĩa là đồng thời tăng thêm các phần tử trên đường biên ở lớp thiểu số và loại bỏ các phần tử an toàn ở lớp đa số một cách ngẫu nhiên. Chúng tôi đã cài đặt thuật toán và thực nghiệm trên các bộ dữ liệu chuẩn quốc tế UCI: Yeast, Breast-p, Glass và Pima. Ví dụ, kết quả phân lớp dữ liệu Yeast có chỉ số G-mean của dữ liệu nguyên gốc là 18,85% nhưng khi áp dụng Random Oversampling, Random Undersamling, Random Safe Oversampling, Random Safe Undersampling và Random Safe Undersampling - Random Border Oversampling thì G-mean tăng lên hẳn, lần lượt là 69,31%; 46,52%; 30,69%, 41,00% và 74,86%. Từ kết quả thực nghiệm cho thấy hiệu quả phân lớp dữ liệu mất cân bằng khi áp dụng phương pháp mới của chúng tôi được cải tiến một cách đáng kể.

pdf9 trang | Chia sẻ: thanhle95 | Lượt xem: 386 | Lượt tải: 1download
Bạn đang xem nội dung tài liệu Phương pháp mới dựa trên đường biên và vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng, để tải tài liệu về máy bạn click vào nút DOWNLOAD ở trên
JOURNAL OF SCIENCE OF HNUE DOI: 10.18173/2354-1075.2015-0057 Educational Sci., 2015, Vol. 60, No. 7A, pp. 103-111 This paper is available online at PHƯƠNG PHÁP MỚI DỰA TRÊN ĐƯỜNG BIÊN VÀ VÙNG AN TOÀN NÂNG CAO HIỆU QUẢ PHÂN LỚP DỮ LIỆU MẤT CÂN BẰNG 1Khúc Quỳnh Hương, 2Đào Thu Hiền, 1Nguyễn Thị Hồng và 1Đặng Xuân Thọ 1Khoa Công nghệ Thông tin, Trường Đại học Sư phạm Hà Nội 2Khoa Toán-tin, Trường Đại học Sư phạm Hà Nội Tóm tắt. Phân lớp đối với dữ liệu mất cân bằng là một bài toán có ý nghĩa quan trọng trong thực tế và đang trở thành xu hướng tiếp cận mới của nhiều nhà nghiên cứu. Đặc biệt, trong chẩn đoán y học, số người mắc bệnh chỉ chiếm tỉ lệ rất nhỏ trên tổng số người dân nên khả năng phát hiện người mắc bệnh gặp nhiều khó khăn hoặc sai lệch lớn, gây ra hậu quả nghiêm trọng, thậm chí ảnh hưởng tới tính mạng con người. Vì vậy, hiệu quả phân lớp mất cân bằng đòi hỏi phải có tính chính xác cao. Phương pháp tiền xử lí dữ liệu là một hướng giải quyết phổ biến và đạt kết quả tốt. Bài báo này sẽ giới thiệu một số phương pháp tiếp cận trong phân lớp dữ liệu mất cân bằng như Random Oversampling và Random Undersampling. Từ đó, đề xuất một phương pháp mới dựa trên khái niệm đường biên và vùng an toàn nhằm nâng cao hiệu quả phân lớp. Thuật toán mới được cải tiến dựa trên sự kết hợp từ hai thuật toán Random Boder Oversampling và Random Safe Undersampling nghĩa là đồng thời tăng thêm các phần tử trên đường biên ở lớp thiểu số và loại bỏ các phần tử an toàn ở lớp đa số một cách ngẫu nhiên. Chúng tôi đã cài đặt thuật toán và thực nghiệm trên các bộ dữ liệu chuẩn quốc tế UCI: Yeast, Breast-p, Glass và Pima. Ví dụ, kết quả phân lớp dữ liệu Yeast có chỉ số G-mean của dữ liệu nguyên gốc là 18,85% nhưng khi áp dụng Random Oversampling, Random Undersamling, Random Safe Oversampling, Random Safe Undersampling và Random Safe Undersampling - Random Border Oversampling thì G-mean tăng lên hẳn, lần lượt là 69,31%; 46,52%; 30,69%, 41,00% và 74,86%. Từ kết quả thực nghiệm cho thấy hiệu quả phân lớp dữ liệu mất cân bằng khi áp dụng phương pháp mới của chúng tôi được cải tiến một cách đáng kể. Từ khóa: Dữ liệu mất cân bằng; Phân lớp dữ liệu; Mức độ an toàn; Đường biên; Sinh thêm phần tử ngẫu nhiên; Giảm bớt phần tử ngẫu nhiên. 1. Mở đầu Với sự phát triển nhanh chóng của lĩnh vực công nghệ thông tin thì các kĩ thuật khai phá dữ liệu, trích rút thông tin lại càng được quan tâm nghiên cứu trong đó phân lớp dữ liệu là một trong những bài toán điển hình về nhận dạng mẫu. Phân lớp là bài toán có ứng dụng rộng rãi trong nhiều lĩnh vực: công nghệ thông tin, tài chính, viễn thông... Trong đó, rất nhiều bài toán mà phân bố dữ liệu có sự chênh lệch rất lớn, ví dụ trong chẩn đoán y khoa số người bị bệnh ung thư chiếm tỉ lệ Ngày nhận bài: 15/7/2015 Ngày nhận đăng: 01/11/2015 Liên hệ: Khúc Quỳnh Hương, e-mail: khucquynhhuong1490@gmail.com 103 Khúc Quỳnh Hương, Đào Thu Hiền, Nguyễn Thị Hồng và Đặng Xuân Thọ rất nhỏ trên tổng số người dân hay những cuộc gọi gian lận chiếm tỉ lệ rất ít trên tổng số các cuộc gọi [8]. Mặc dù số lượng những người bị ung thư hay số lượng cuộc gọi rất ít nhưng việc phát hiện ra người bị ung thư hay cuộc gọi gian lận đóng vai trò rất quan trọng. Việc nghiên cứu về bài toán phân lớp được rất nhiều nhà khoa học quan tâm. Đã có nhiều thuật toán học phân lớp được công bố như: k – láng giềng gần nhất, cây quyết định, Naı¨ve Bayes, máy véc tơ hỗ trợ [7]. . . Đó là những thuật toán chuẩn áp dụng cho các trường hợp phân lớp không mất cân bằng và đã được thực nghiệm kiểm chứng. Tuy nhiên, việc áp dụng những thuật toán này cho dữ liệu mà sự chênh lệch về số lượng các phần tử của các lớp lớn thì hiệu quả không cao. Vì vậy, cần có những hướng tiếp cận mới đối với trường hợp dữ liệu mất cân bằng. Mất cân bằng dữ liệu là trường hợp dữ liệu có số lượng các phần tử của các lớp có sự chênh lệch đáng kể. Khi đó, lớp có nhiều phần tử được gọi là lớp đa số (Majority Class), lớp có ít phần tử được gọi là lớp thiểu số (Minority Class). Khi xảy ra vấn đề mất cân bằng dữ liệu, nhiều thực nghiệm đã cho thấy, do sự áp đảo về số lượng các phần tử lớp đa số làm cho hiệu quả của quá trình phân lớp bị giảm đáng kể. Chẳng hạn, bộ dữ liệu Mamography gồm 11.183 mẫu dữ liệu, trong đó có 10.923 mẫu được gán nhãn “Negative” (không ung thư) và 260 mẫu được gán nhãn “Positive” (ung thư). Giả sử một mô hình phân lớp chỉ đạt độ chính xác 10% nghĩa là có 234 mẫu lớp thiểu số bị phân lớp sai thành lớp đa số dẫn đến 234 người bị ung thư nhưng được chẩn đoán là không bị ung thư [9]. Rõ ràng việc phân lớp nhầm bệnh nhân như vậy sẽ gây hậu quả nghiêm trọng hơn việc phân lớp nhầm từ không bị bệnh thành bị bệnh. Vì vậy, bài toán phân lớp dữ liệu mất cân bằng là bài toán có ứng dụng quan trọng trong thực tế vàđược rất nhiều nhà khoa học trong lĩnh vực khai phá dữ liệu quan tâm. Hiện nay có nhiều công trình nghiên cứu giải quyết bài toán phân lớp dữ liệu mất cân bằng theo những hướng tiếp cận khác nhau [8]. Trong đó, một trong những hướng tiếp cận hiệu quả là tiền xử lí dữ liệu bằng cách tạo ra các phần tử nhân tạo nhằm tăng số lượng các phần tử của lớp thiểu số để giảm tính mất cân bằng giữa các lớp. Sau đó, chúng ta có thể áp dụng các thuật toán học phân lớp chuẩn như đã nêu ở trên. 2. Nội dung nghiên cứu 2.1. Các phương pháp liên quan Để cải thiện kết quả phân lớp trong trường hợp dữ liệu mất cân bằng, người ta có thể tiếp cận bằng nhiều phương pháp khác nhau như tiếp cận trên mức độ dữ liệu nghĩa là điều chỉnh dữ liệu giảm bớt tính mất cân bằng, tiếp cận trên mức độ thuật toán nghĩa là điều chỉnh thuật toán phân lớp sao cho hiệu quả phân lớp dữ liệu mất cân bằng không bị giảm. Phương pháp điều chỉnh dữ liệu là một phương pháp đã được nhiều thực nghiệm chứng minh là đơn giản và đạt được hiệu quả cao trên nhiều bộ dữ liệu. Điều chỉnh dữ liệu cũng có nhiều cách: giảm kích thước mẫu dữ liệu hoặc tăng kích thước mẫu dữ liệu. Thuật toán đại diện cho kĩ thuật này là Random Oversamplingvà Random Undersampling. Ngoài ra, có thể kết hợp cả hai phương pháp trên để nâng cao hiệu quả phân lớp [1]. Ramdom Oversampling (RO) là một phương pháp điều chỉnh tăng kích thước mẫu. Thuật toán nàysẽ lựa chọn ngẫu nhiên các phần tử trong lớp thiểu số và nhân bản chúng, làm cho bộ dữ liệu giảm bớt sự mất cân bằng. Ngoài ra, cũng có một số cách sinh phần tử có chủ đích như: tăng phần tử thiểu số ở vùng an toàn (Safe level), tăng phần tử ở đường biên (Borderline) [2]. . . Phương pháp điều chỉnh giảm kích thước mẫu Random Undersampling (RU) sẽ loại bỏ các phần tử ở lớp đa số một cách ngẫu nhiên đến khi tỉ số giữa các phần tử lớp thiểu số và các phần tử lớp đa số phù hợp. Do đó số lượng các phần tử của tập huấn luyện sẽ giảm đáng kể. Hai phương pháp trên đã được thực nghiệm chứng minh là hiệu quả, nhưng trong một số 104 Phương pháp mới dựa trên đường biên và vùng an toàn nâng cao hiệu quả phân lớp dữ liệu... trường hợp vẫn chưa đạt kết quả mong muốn. Vì vậy, chúng tôi đã nghiên cứu cách thức tăng (giảm) phần tử của lớp mất cân bằng dựa trên khái niệm đường biên và mức độ an toàn. Đồng thời đề xuất một phương pháp mới vừa sinh các phần tử trên đường biên ở lớp thiểu số vừa loại bỏ các phần tử an toàn ở lớp đa số một cách ngẫu nhiên. 2.2. Phương pháp mới dựa trên đường biên và vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng 2.2.1. Random Border Oversampling (RBO) Trong bài toán phân lớp dữ liệu mất cân bằng, tất cả các thuật toán phân loại và các thuật toán tiền xử lí dữ liệu đều cố gắng xác định được đường phân chia ranh giới giữa hai lớp càng chính xác càng tốt. Đường phân chia danh giới đó được gọi là đường biên của hai lớp. Phần tử biên (nằm trên hoặc gần đường biên) sẽ nằm gần với các phần tử lớp khác nhiều hơn so với những phần tử nằm xa biên. Do vậy những phần tử này thường bị gán nhãn sai cao hơn với những phần tử xa biên. Vì vậy, chúng có vai trò quan trọng trong việc quyết định hiệu quả phân lớp. Cải tiến thuật toán Random Oversampling và sử dụng việc sinh ngẫu nhiên phần tử trên đường biên, thuật toán Random Border Oversampling tìm ra các phần tử nằm ở biên của lớp thiểu số, sau đó chỉ sinh thêm các phần tử nhân tạo giữa các phần tử biên đã tìm được. Việc sinh thêm các phần tử nhân tạo giữa các phần tử biên làm tăng cường mật độ các phần tử trên đường biên lớp thiểu số, từ đó làm tăng khả năng nhận dạng các phần tử lớp thiểu số. Để xác định một phần tử có phải là phần tử biên hay không, thuật toán xác định dựa vào số láng giềng là thuộc lớp đa số m trong tổng số k láng giềng gần nhất. Nếu có k/2 ≤ m < k thì phần tử đó là phần tử biên. Ngược lại, nếu m < k/2 thì phần tử đó không phải phần tử biên [1, 3]. Khi đó, thuật toán sẽ chọn ngẫu nhiên n phần tử biên thuộc lớp thiểu số vừa tìm được, sao chép các phần tử đó thành những bản sao giống hệt nhau. Những phần tử mới được sinh thêm này giống hệt các phần tử lớp thiểu số được chọn từ thuộc tính đến nhãn lớp. Thuật toán này có ưu điểm hơn thuật toán Random Oversamping ở việc nhân bản có mục tiêu là những phần tử biên lớp thiểu số. Thuật toán Random Border Oversampling: Input: Bộ dữ liệu huấn luyện T trong đó có tập các phần tử lớp thiểu số D. t: Tỉ lệ phần trăm số phần tử positive biên sinh thêm. k: Số láng giềng gần nhất đối với một phần tử lớp đa số (k nguyên). m: Số phần tử lớp đa số trên đường biên. Output: Bộ dữ liệu huấn luyện T và tập các phần tử sinh ngẫu nhiên trên đường biên D’. Các bước thực hiện của thuật toán như sau: • D’ = Ø • Tính k láng giềng gần nhất của p trong T • Tính số láng giềng thuộc lớp đa số m • if (k/2 ≤ m) and (m < k) • Sinh thêm phần tử p biên đang xét theo tỉ lệ t • return D’. 2.2.2. Random Safe Undersampling (RSU) Phát triển từ thuật toán Random Undersampling kết hợp với khái niệm vùng an toàn, thuật toán Random Safe Undersampling sẽ loại bỏ các phần tử an toàn ở lớp đa số một cách ngẫu nhiên [5]. Thuật toán phân chia mỗi đối tượng xác định ở cấp độ an toàn trước khi loại bỏ các đối 105 Khúc Quỳnh Hương, Đào Thu Hiền, Nguyễn Thị Hồng và Đặng Xuân Thọ tượng ngẫu nhiên. Như vậy, trong thuật toán đã áp dụng cả hai cách để loại bỏ phần tử, đó là lựa chọn các phần tử an toàn để loại bỏ và loại bỏ các phần tử một cách ngẫu nhiên. Mức độ an toàn được ước tính bởi việc sử dụng láng giềng gần nhất của các đối tượng đa số. Bằng cách tổng hợp nhiều hơn các đối tượng đa số xung quanh cấp độ an toàn lớn hơn, chúng tôi đạt được một hiệu suất chính xác hơn so với trước và so với thuật toán Random Undersampling. Trong giải thuật Random Safe Undersampling, cấp độ an toàn Safe Level (SL) được định nghĩa như trong công thức số (1) [6]. Nếu cấp độ an toàn Safe level của một đối tượng gần với số 0, đối tượng đó gần với phần tử nhiễu. Nếu nó gần với k, đối tượng đó được đặt trong vùng an toàn. Mức độ an toàn của một phần tử negative được định nghĩa trong công thức số (2). Nó thường được chọn vị trí an toàn để loại bỏ các phần tử ở lớp đa số. Safe level (sl) = số láng giềng của lớp đa số trong k láng giềng gần nhất (1). Safe level area (sl_area) = sl của đối tượng thuộc lớp đa số / k láng giềng gần nhất của phần tử đang xét (2). Giả sử n là một phần tử dữ liệu lớp đa số đang xét, thì sl_area là mức độ an toàn của phần tử đó. Đối tượng lớp đa số có bị loại bỏ hay không phụ thuộc vào tỉ lệ sl_area. Nếu sl_area < 0.5, nghĩa là xung quanh phần tử đa số đang xét không có nhiều phần tử cùng nhãn với nó, hoặc có nhiều phần tử nhiễu. Nếu sl_area > 0.5, nghĩa là xung quanh phần tử đa số đang xét có nhiều phần tử cùng nhãn với nó, phần tử đa số đang xét được coi là an toàn, ta loại bỏ ngẫu nhiên phần tử này. Thuật toán Random Safe Undersampling: Input: Bộ dữ liệu huấn luyện T trong đó có tập các phần tử lớp đa số C. z: Số % negative an toàn bị loại bỏ ngẫu nhiên. k: Số láng giềng gần nhất của phần tử negative (k nguyên). Output: Bộ dữ liệu huấn luyện T và tập các phần tử ngẫu nhiên C’. Các bước thực hiện của thuật toán: • C’ = Ø • Tính k láng giềng gần nhất của n trong T • sl = số lượng các đối tượng negative trong k láng giềng gần nhất của n trong T • sl_area = sl / k • if (sl_area > 0.5) and (sl_area ≤ 1) • Loại bỏ phần tử an toàn đang xét theo tỉ lệ z • return C’. 2.2.3. Random Safe Undersampling và Random Border Oversampling (RSU_RBO) Thuật toán mới này sẽ dựa trên đường biên và mức độ an toàn của các đối tượng để vừa sinh thêm ngẫu nhiên các phần tử trên đường biên ở lớp thiểu số, vừa loại bỏ ngẫu nhiên các phần tử an toàn ở lớp đa số. Kết hợp thuật toán Random Safe Undersampling và thuật toán Random Border Oversampling ở trên ta có thuật toán như sau: • D’ = Ø, C’ = Ø • if class = “positive” Thực hiện Thuật toán RBO • if class = “negative” Thực hiện Thuật toán RSU • return D’ ∪ C’. 106 Phương pháp mới dựa trên đường biên và vùng an toàn nâng cao hiệu quả phân lớp dữ liệu... 2.3. Phương pháp mới dựa trên đường biên và vùng an toàn nâng cao hiệu quả phân lớp dữ liệu mất cân bằng 2.3.1. Các tiêu chí đánh giá Bảng 1. Ma trận nhầm lẫn cho vấn đề mất cân bằng hai lớp Positive dự đoán Negative dự đoán Positive thực tế TP FN Negative thực tế FP TN Phân lớp được đánh giá tương đối bởi một ma trận nhầm lẫn như minh họa trong Bảng 1. Các dòng của bảng là nhãn lớp thực tế của một đối tượng, và các cột của bảng là nhãn lớp dự đoán của một đối tượng. Tiêu biểu, nhãn lớp của phân lớp thiểu số gọi là postive, và nhãn lớp của phân lớp đa số gọi là negative. TP là số phần tử có nhãn lớp thực tế là Positive và cũng được mô hình phân lớp dự đoán là Positive. FP là số phần tử có nhãn lớp thực tế là Negative nhưng được mô hình phân lớp dự đoán là Positive. FN là số phần tử có nhãn lớp thực tế là Positive nhưng được mô hình phân lớp dự đoán là Negative. TN là số phần tử có nhãn lớp thực tế là negative và cũng được mô hình phân lớp dự đoán là Negative. Một số độ đo được định nghĩa dựa trên ma trận nhầm lẫn [8]: - Tỉ lệ phần tử Positive được phân loại đúng: TPrate = TP/(TP+FN) - Tỉ lệ phần tử Negative được phân loại đúng: TNrate = TN/(TN+FP) - Giá trị G-mean: √ TPrate ∗ TNrate Trong đó, G-mean là độ đo biểu diễn hiệu quả phân lớp của cả hai lớp thiểu số và lớp đa số. Giá trị G-mean được xác định dựa vào hai giá trị TPrate và TNrate. Và trong phần thực nghiệm, chúng tôi đã sử dụng độ đo G-mean để đánh giá hiệu quả phân lớp giữa các thuật toán [3]. 2.3.2. Dữ liệu Chúng tôi tiến hành thực nghiệm trên các bộ dữ liệu mất cân bằng của từ kho dữ liệu chuẩn quốc tế UCI [10]. Bảng 2 là thông tin về một số bộ dữ liệu mà bài nghiên cứu khoa học sử dụng trong quá trình thực nghiệm. Bảng 2. Dữ liệu chuẩn từ UCI Tên dữ liệu Số phần tử Số thuộc tính Tỉ lệ mất cân bằng Yeast 1484 4 1:29 Glass 193 9 1:6 Breast-p 198 32 1:3 Pima 768 8 1:2 Các bộ dữ liệu trong bảng trên đều là các bộ dữ liệu có sự mất cân bằng lớp. Dữ liệu được gán nhãn hai lớp, lớp đa số được gán nhãn là Negative và thiểu số được gán nhãn là Positive. Trong đó, bộ dữ liệu Yeast có tỉ lệ mất cân bằng rất lớn là 1:29, bộ dữ liệu Breast-p có tỉ lệ mất cân bằng là 1:4, bộ dữ liệu Glass có tỉ lệ mất cân bằng là 1:6 và bộ dữ liệu Pima có tỉ lệ mất cân bằng là 1:2. 2.3.3. Kết quả thực nghiệm và đánh giá Đối với thuật toán Random Oversampling, thuật toán Random Undersampling, thuật toán Random Border Oversampling, thuật toán Random Safe Undersampling và thuật toán kết hợp Random Border Oversampling - Random Safe Undersampling, chúng tôi thực hiện với tham số 107 Khúc Quỳnh Hương, Đào Thu Hiền, Nguyễn Thị Hồng và Đặng Xuân Thọ sinh thêm phần tử npos lần lượt là 100%, 200%, 300%, 400%, 500%, . . . , 800% (với mỗi phần tử được xét, ta sinh thêm tương ứng 1, 2, 3, 4, . . . , 8 phần tử ngẫu nhiên với các láng giềng của nó) và tỉ lệ loại bỏ mneg là 50, 60,. . . tương ứng với số phần tử negative an toàn sẽ bị loại bỏ lần lượt là 50%, 60%,. . . so với số phần tử negative an toàn ban đầu. Để thấy rõ hiệu quả thuật toán mới, chúng tôi tiến hành so sánh kết quả dựa trên nhiều tiêu chí như: TPrate, TNrate, G-mean. Và trong phần thực nghiệm, chúng tôi sử dụng độ đo G-mean để đánh giá hiệu quả phân lớp giữa các thuật toán. Sau khi cài đặt, thống kê kết quả, chúng tôi thực hiện đánh giá hiệu của các thuật toán trên từng bộ dữ liệu như sau: Hình 1. Biểu đồ so sánh G-mean của bộ dữ liệu Glass Bộ dữ liệu Glass với số phần tử là 213, khi áp dụng thuật toán mới Random Safe Undersampling kết hợp thuật toán Random Border Oversampling thì giá trị G-mean thu được là 86,79% cao hơn so với phương pháp sử dụng thuật toán Random Oversampling có giá trị G-mean là 85,03%; phương pháp sử dụng thuật toán Random Undersampling có giá trị G-mean là 86,18%; phương pháp sử dụng thuật toán Random Safe Oversampling có giá trị G-mean là 86,79%; phương pháp sử dụng thuật toán Random Safe Undersampling có giá trịG-mean là 85,99% và phương pháp chỉ chạy bộ dữ liệu gốc có giá trị G-mean là 85,06%. Hình 2. Biểu đồ so sánh G-mean của bộ dữ liệu Yeast Bộ dữ liệu Yeast với số phần tử là 1484, khi áp dụng thuật toán mới Random Safe Undersampling kết hợp với Random Border Oversampling thì giá trị G-mean thu được là 74,86% cao hơn so với phương pháp sử dụng thuật toán Random Oversampling có giá trị G-mean là 69,31%; phương pháp sử dụng thuật toán Random Undersampling có giá trị G-mean là 46,52%; 108 Phương pháp mới dựa trên đường biên và vùng an toàn nâng cao hiệu quả phân lớp dữ liệu... phương pháp sử dụng thuật toán Random Safe Oversampling có giá trị G-mean là 30,69%; phương pháp sử dụng thuật toán Random Safe Undersampling có giá trịG-mean là 41,00% và phương pháp chỉ chạy bộ dữ liệu gốc có giá trị G-mean là 18,85%. Hình 3. Biểu đồ so sánh G-mean của bộ dữ liệu Breast-p Bộ dữ liệu Breast-p với số phần tử là 197, khi áp dụng thuật toán mới Random Safe Undersampling kết hợp với thuật toán Random Border Oversampling thì giá trị G-mean thu được là 66,42% cao hơn hẳn so với phương pháp sử dụng thuật toán Random Oversampling có giá trị G-mean là 64,97%; phương pháp sử dụng thuật toán Random Undersampling có giá trị G-mean là 58,26%; phương pháp sử dụng thuật toán Random Safe Oversampling có giá trịG-mean là 36,26%; phương pháp sử dụng thuật toán Random Safe Undersampling có giá trị G-mean là 57,20% và phương pháp chỉ chạy bộ dữ liệu gốc có giá trị G-mean là 35,5%. Hình 4. Biểu đồ so sánh G-mean của bộ dữ liệu Pima Bộ dữ liệu Pima với số phần tử là 768, khi áp dụng thuật toán mới Random Safe Undersampling kết hợp với Random Border Oversampling thì giá trị G-mean thu được là 75,45% cao hơn so với phương pháp sử dụng thuật toán Random Oversampling có giá trị G-mean là 74,08%; phương pháp sử dụng thuật toán Random Undersampling có giá trị G-mean là 74,61%; phương pháp sử dụng thuật toán Random Safe Oversampling có giá trị G-mean là 73,66%; phương pháp sử dụng thuật toán Random Safe Undersampling có giá trịG-mean là 73,46% và phương pháp chỉ chạy bộ dữ liệu gốc có giá trị G-mean là 69,21%. Các biểu đồ trên so sánh hiệu quả phân lớp của các bộ dữ liệu bằng thuật toán SVM (Support Vector Machine) trước và sau khi điều chỉnh dữ liệu bởi Random Oversampling, 109 Khúc Quỳnh Hương, Đào Thu Hiền, Nguyễn Thị Hồng và Đặng Xuân Thọ Random Undersampling, Random Safe Oversampling, Random Safe Undersamplingvà Random Safe Undersampling - Random Border Oversampling. Kết quả cho thấy, sau khi điều chỉnh bằng thuật toán Random Safe Undersampling - Random Boder Oversampling, hiệu quả phân lớp có tăng lên, điển hình là bộ dữ liệu Yeast và Breast-p tăng lên một cách đáng kể. Thuật toán Random Safe Undersampling-Random Border Oversampling đã sinh thêm các phần tử positive biên thuộc lớp thiểu số, đồng thời xóa các phần tử negative an toàn trong lớp đa số một cách ngẫu nhiên. Làm như vậy, Random Safe Undersampling - Random Border Oversampling không những làm giảm số phần tử lớp negative, mà còn làm tăng số phần tử positive một cách khoa học, tạo nên sự cân bằng dữ liệu. 2.4. Kết quả Trong nghiên cứu này, c
Tài liệu liên quan