Một đề xuất mở rộng Mutual Information cho trường hợp 3 biến

Tóm tắt. Trong lý thuyết thông tin và xác suất thống kê, độ đo Mutual Information (MI) là một độ đo dùng để đo sự phụ thuộc thông tin giữa hai hay nhiều biến ngẫu nhiên. Đối với trường hợp hai biến, ta có thể dễ dàng tính toán và diễn giải ý nghĩa của MI. Tuy nhiên, khi mở rộng định nghĩa MI cho nhiều biến thì rất phức tạp, diễn giải các định nghĩa mở rộng này còn rất nhiều tranh cãi. Cho đến nay, mặc dù đã có một số mở rộng của MI cho trường hợp nhiều biến và cũng có một số cách biểu diễn trực quan độ đo MI. Song, các cách biểu diễn này tỏ ra không phù hợp. Trong bài báo này, chúng tôi đề xuất công thức mở rộng MI cho trường hợp ba biến, đồng thời chúng tôi cũng đưa ra một cách biểu diễn trực quan mới cho MI của hai biến và ba biến. Từ biểu diễn trực quan này, chúng tôi có thể lý giải được sự phụ thuộc của các biến, giống như sự đa dạng của các mối quan hệ trong thế giới thực.

pdf12 trang | Chia sẻ: thanhle95 | Lượt xem: 335 | Lượt tải: 0download
Bạn đang xem nội dung tài liệu Một đề xuất mở rộng Mutual Information cho trường hợp 3 biến, để tải tài liệu về máy bạn click vào nút DOWNLOAD ở trên
JOURNAL OF SCIENCE OF HNUE FIT., 2011, Vol. 56, pp. 17-28 MỘT ĐỀ XUẤT MỞ RỘNG MUTUAL INFORMATION CHO TRƯỜNG HỢP 3 BIẾN Nguyễn Quỳnh Diệp(∗), Phạm Thọ Hoàn Nguyễn Tô Sơn và Trần Đăng Hưng Khoa Công nghệ Thông tin - Trường Đại học Sư phạm Hà Nội (∗)E-mail: diepnq@hnue.edu.vn Tóm tắt. Trong lý thuyết thông tin và xác suất thống kê, độ đo Mutual Information (MI) là một độ đo dùng để đo sự phụ thuộc thông tin giữa hai hay nhiều biến ngẫu nhiên. Đối với trường hợp hai biến, ta có thể dễ dàng tính toán và diễn giải ý nghĩa của MI. Tuy nhiên, khi mở rộng định nghĩa MI cho nhiều biến thì rất phức tạp, diễn giải các định nghĩa mở rộng này còn rất nhiều tranh cãi. Cho đến nay, mặc dù đã có một số mở rộng của MI cho trường hợp nhiều biến và cũng có một số cách biểu diễn trực quan độ đo MI. Song, các cách biểu diễn này tỏ ra không phù hợp. Trong bài báo này, chúng tôi đề xuất công thức mở rộng MI cho trường hợp ba biến, đồng thời chúng tôi cũng đưa ra một cách biểu diễn trực quan mới cho MI của hai biến và ba biến. Từ biểu diễn trực quan này, chúng tôi có thể lý giải được sự phụ thuộc của các biến, giống như sự đa dạng của các mối quan hệ trong thế giới thực. 1. Mở đầu Để kiểm tra các biến (thuộc tính) X1, X2, ..., Xn có độc lập với nhau không ta chỉ cần kiểm tra đẳng thức xác suất P (X1, X2, ..., Xn) = P (X1)P (X2)...P (Xn). Các biến là độc lập nếu đẳng thức xảy ra, còn nếu không thì sẽ có sự phụ thuộc nào đó giữa các biến. Tuy nhiên, ngay cả khi đã biết rằng tồn tại sự phụ thuộc giữa các biến nhưng làm thế nào để biết được sự phụ thuộc đó là gì và mức độ sự phụ thuộc đó là như thế nào thì vẫn là một bài toán mở. Hệ số tương quan Pearson (PC) [11, 12] trong xác suất thống kê là một độ đo có khả năng đo được mức độ phụ thuộc tuyến tính giữa các biến, nhưng nó không thể xác định được sự phụ thuộc phi tuyến. Độ đo thông tin sự phụ thuộc (Mutual Information-MI ) trong lý thuyết thông tin có thể đánh giá được mức độ sự phụ thuộc (tuyến tính hoặc phi tuyến) giữa hai biến [16]. Độ đo MI và tiếp cận lý thuyết thông tin tỏ ra là một tiếp cận tổng quát và hợp lý cho khai phá các sự phụ thuộc trong dữ liệu. Tuy nhiên, hiện tại độ đo MI mới chỉ được ứng dụng phổ biến trong trường hợp 2 biến, giúp nghiên cứu sự phụ thuộc 2 chiều giữa hai thành phần dữ liệu. 17 Nguyễn Quỳnh Diệp, Phạm Thọ Hoàn, Nguyễn Tô Sơn và Trần Đăng Hưng Trong bài báo này, chúng tôi trình bày một cách diễn giải mới về mức độ sự phụ thuộc giữa hai biến nhờ công thức định nghĩa MI và đề xuất một cách biểu diễn trực quan mới cho MI của hai biến. Trên cơ sở đó, chúng tôi đưa ra công thức mở rộng MI, đồng thời biểu diễn trực quan cho MI trong trường hợp ba biến. 2. Nội dung nghiên cứu 2.1. Mutual Information của hai biến 2.1.1. Công thức MI của hai biến Mutual Information của hai biến ngẫu nhiên là một đại lượng dùng để đo sự phụ thuộc thông tin giữa hai biến. Độ phụ thuộc thông tin của hai biến ngẫu nhiên rời rạc được định nghĩa như sau: MI(X, Y ) = ∑ x∈X ∑ y∈Y pX,Y (x, y) log pX,Y (x, y) pX(x)pY (y) (2.1) Trong đó, pX,Y (x, y) là hàm phân bố xác suất đồng thời của X và Y , còn pX(x) và pY (y) là hàm phân bố xác suất lề tương ứng của X và Y . Trong trường hợp các biến liên tục, độ đo phụ thuộc thông tin được xác định như sau: MI(X, Y ) = ∫ ∫ pX,Y (x, y) log pX,Y (x, y) pX(x)pY (y) dxdy (2.2) Trong đó, pX,Y (x, y) là hàm mật độ xác suất đồng thời của X và Y , pX(x) và pY (y) là hàm mật độ xác suất lề của X và Y . Nếu X và Y độc lập thì MI(X, Y ) = 0; nếu chúng phụ thuộc thì MI(X, Y ) tiến đến vô cực. Độ đo MI của hai biến X và Y , ký hiệu là MI(2)(X, Y ) có thể được giải thích theo entropy thông tin như sau [13]: MI(2)(X, Y ) = H(X) +H(Y )−H(X, Y ) (2.3) Từ công thức (2.3), chúng ta thấy độ đo MI có thể được định lượng dựa trên entropy, entropy được định lượng dựa trên hàm mật độ. Nếu dữ liệu là rời rạc thì có thể dễ dàng ước lượng hàm mật độ dựa trên thống kê tần suất. Trong trường hợp dữ liệu liên tục, bài toán ước lượng MI trở nên khó khăn hơn. 2.1.2. Một số cách biểu diễn trực quan MI của hai biến Biểu đồ Venn là một trong các cách biểu diễn trực quan độ đo MI. Đây là phương pháp cổ điển và được sử dụng khá rộng rãi trong các tài liệu về Lý thuyết thông tin cũng như các tài liệu về độ đo MI cho hai biến. Theo phương pháp này, MI giữa hai biến được mô tả trực quan như Hình 1. Trong Hình 1, hai hình tròn biểu diễn lượng thông tin trong mỗi biến. Phần giao của hai hình tròn thể hiện lượng thông tin chung của hai biến. Nhìn vào độ lớn 18 Một đề xuất mở rộng Mutual Information cho trường hợp 3 biến Hình 1: Biểu đồ Venn của MI của hai biến Hình 2: Biểu đồ tương tác của Jakulin giữa hai biến của phần giao giữa hai hình tròn chúng ta có thể khẳng định về mức độ phụ thuộc lẫn nhau giữa hai biến. Phương pháp biểu diễn trực quan này mặc dù phù hợp với dạng công thức MI(3) nhưng có nhược điểm: H(X) và H(Y ) là các con số (số thực) chứ không phải tập hợp. Một phương pháp trực quan khác được Aleks Jakulin và Ivan Bratko đưa ra năm 2003 [15]. Trong phương pháp của Jakulin, sự phụ thuộc giữa hai biến được thể hiện như trong Hình 2. Trong phương pháp Jakulin, mức độ phụ thuộc được mô tả bằng một hình tròn màu xám trên đường nối giữa hai biến. Trong tiếp cận này, Jakulin chỉ tập trung mô tả mối quan hệ phụ thuộc lẫn nhau giữa hai biến. Tuy nhiên, cách tiếp cận này có tính trực quan thấp. Chúng ta không thể nói gì về hình tròn (màu xám) mô tả sự phụ thuộc trong tương quan với các hình tròn biểu diễn các biến X, Y . 2.1.3. Đề xuất một cách biểu diễn trực quan mới cho MI của hai biến Từ những nhược điểm của các phương pháp trên, chúng tôi đề xuất một phương pháp trực quan mới, cho phép kết hợp ưu điểm và khắc phục các nhược điểm của cả phương pháp biểu diễn bằng biểu đồ Venn và phương pháp do Jakulin đề xuất. Ở đây, chúng tôi mô tả tương tác giữa hai biến trong một không gian hai chiều, mỗi chiều đặc trưng cho độ bất định hay lượng thông tin của một biến. Cụ thể, để biểu diễn sự phụ thuộc giữa hai biến, chúng tôi biểu diễn như Hình 3. Trong đó, lượng bất định của mỗi biến được biểu diễn bằng một đoạn thẳng. Chúng tôi giả định một hệ thống S ′ bao gồm hai biến X, Y độc lập, khi đó lượng tin trong S ′ có thể được mô tả bằng một hình chữ nhật với chiều dài và chiều rộng tương ứng với H(X) và H(Y ). Lượng tin thực sự của hệ thống S được xây dựng từ hai biến là H(X, Y ), được thể hiện bằng một hình có dạng bất kỳ (kẻ ca rô) nằm bên trong hình chữ nhật. Nếu hình biểu diễn cho lượng thông tin của S khớp với hình chữ nhật biểu diễn lượng thông tin của S ′ thì khi đó chúng tôi có kết luận rằng hai biến là độc lập. Ngược lại, nếu hình biểu diễn lượng thông tin của S 19 Nguyễn Quỳnh Diệp, Phạm Thọ Hoàn, Nguyễn Tô Sơn và Trần Đăng Hưng Hình 3: Một cách biểu diễn trực quan mới cho MI của hai biến càng thu hẹp so với hình chữ nhật biểu diễn lượng thông tin của S ′ thì sự phụ thuộc giữa hai biến càng lớn. Theo công thức (2.3) đã trình bày ở phần trên thì MI(2)(X, Y ) chính là phần diện tích (kẻ chéo) nằm giữa hình chữ nhật và hình kẻ ca rô. 2.2. Nhìn lại một số mở rộng MI của ba biến Khi mở rộng từ hai biến sang ba biến, các mối quan hệ phụ thuộc trở nên phức tạp hơn. Với hai biến, chỉ có hai khả năng xảy ra là hoặc hai biến độc lập hoặc hai biến phụ thuộc. Tuy nhiên, khi có ba biến biến, một số mối quan hệ mới nảy sinh. Từ đó, cũng có nhiều tiếp cận khác nhau để xem xét những loại quan hệ phụ thuộc trong trường hợp ba biến. 2.2.1. Các kiểu phụ thuộc Ngoài quan hệ phụ thuộc đơn giản giữa hai biến, sự xuất hiện của biến thứ ba làm nảy sinh một số loại quan hệ mới, có thể làm tăng cường hoặc ức chế quan hệ phụ thuộc của hai biến ban đầu. Đầu tiên, phải kể đến là quan hệ hiệp trợ. Có thể có những cặp biến không có quan hệ phụ thuộc gì với nhau nhưng khi có sự xuất hiện của biến thứ ba thì chúng trở nên có sự phụ thuộc hoàn toàn. Ngược lại với sự hiệp trợ, sự ức chế cũng có thể xảy ra. Có những cặp biến đang phụ thuộc nhau lại trở nên hoàn toàn độc lập khi có sự hiện diện của biến thứ ba. Một kiểu quan hệ khác nữa là quan hệ phụ thuộc lẫn nhau giữa ba biến, có thể hiểu đơn giản như là sự liên kết của các thành phần tạo thành một module. Chúng ta không thể phân tách được các thành phần trong module tương tác với nhau như thế nào, nhưng có thể khẳng định rằng chúng tương tác và phụ thuộc lẫn nhau tạo thành một module thống nhất. 2.2.2. Một số công thức mở rộng MI của ba biến Như chúng tôi đã trình bày trong phần mở đầu, mặc dù ý tưởng tổng quát độ đo MI được Fano đưa ra thảo luận trong Lý thuyết thông tin (1961), nhưng cho đến nay những diễn giải cho các công thức tổng quát vẫn chưa được đưa ra. 20 Một đề xuất mở rộng Mutual Information cho trường hợp 3 biến Hình 4: Biểu đồ Venn cho MI của 3 biến Công thức đầu tiên phải kể đến là công thức đo tổng sự phụ thuộc giữa n biến được Wantanable đưa ra năm 1960 [17]. TC(X1, X2, ..., Xn) = n∑ i=1 H(Xi)−H(X1, X2, ..., Xn) (2.4) Tuy nhiên, độ đo TC trong công thức trên chỉ phản ánh độ phụ thuộc chung của n biến. Nhưng như đã trình bày trong mục 2.2.1., khi mở rộng sang trường hợp nhiều biến, có rất nhiều kiểu phụ thuộc chứ không đơn thuần là một kiểu phụ thuộc như trong trường hợp hai biến nữa. Công thức tổng quát thứ hai là công thức Fano đưa ra vào năm 1961 [14]. Trong trường hợp hai biến, ta có: MI(2)(X, Y ) = H(X) +H(Y )−H(X, Y ) (2.5) Trong trường hợp ba biến, ta có: MI(3)(X, Y, Z) = H(X) +H(Y ) +H(Z)− − [H(X, Y ) +H(Y, Z) +H(Z,X)] +H(X, Y, Z) = MI(2)(X, Y )−MI(2)(X, Y | Z) (2.6) Để diễn giải ý nghĩa của các công thức trên, trước tiên, chúng tôi sẽ bắt đầu với phương pháp cổ điển, lý giải bằng biểu đồ Venn. Trong cách tiếp cận của biểu đồ Venn, các mối quan hệ phụ thuộc giữa ba biến được thể hiện như trong Hình 4. Ban đầu cách lý giải bằng biểu đồ Venn có vẻ hợp lý. Sự phụ thuộc lẫn nhau giữa ba biến đặc trưng bởi phần thông tin chung của cả ba biến. Tuy nhiên, trên thực tế tính toán, MI(3)(X, Y, Z) có thể nhận cả giá trị âm và giá trị dương. Khi MI(3)(X, Y, Z) nhận giá trị âm, biểu đồ Venn thực sự không thể biểu diễn được. Cái sai trong cách trực quan của biểu đồ Venn là do một vài nguyên nhân sau: Trong biểu đồ Venn, lượng thông tin được đặc trưng bởi một hình tròn giống như tập hợp. Tuy nhiên, lượng thông tin là đại lượng số, dùng cách biểu trưng này tuy không sai nhưng cũng không hợp lý. Cái sai quan trọng hơn là cách thức trực quan của biểu đồ Venn không bắt nguồn từ bản chất thực sự của công thức MI(3)(X, Y, Z). Biểu đồ Venn quan niệm độ đo MI(3) luôn là phần thông tin chung giữa ba biến. Nhưng như trên đã phân tích thì không phải vậy. 21 Nguyễn Quỳnh Diệp, Phạm Thọ Hoàn, Nguyễn Tô Sơn và Trần Đăng Hưng Hình 5: Biểu đồ Venn cho MI(3) âm Hình 6: Biểu đồ Venn cho MI(3) dương Trong trường hợp MI(3)(X, Y, Z) âm chúng tôi sử dụng biểu đồ Venn có dạng như trong Hình 5. Chúng tôi giải nghĩa biểu đồ Venn trong Hình 5 như sau: Khi không có sự xuất hiện của biến Z sự phụ thuộc giữa X và Y thể hiện ở phần giao nhau giữa H(X) và H(Y ). Khi có sự xuất hiện của Z, do Z có quan hệ phụ thuộc với X và Y , nên Z làm giảm độ bất định của X và Y . Việc giảm độ bất định này làm tăng thêm vai trò của phần thông tin chung giữa X và Y ban đầu. Do đó, sự phụ thuộc giữa X và Y tăng lên dẫn đến MI(3)(X, Y, Z) mang giá trị âm. Tuy nhiên, không thể chỉ ra được đại lượng MI(3)(X, Y, Z) ở đâu vì trong trường hợp này, MI(3)(X, Y, Z) không phải là lượng thông tin chung của ba biến. Biểu đồ Venn đặc trưng cho trường hợp MI(3)(X, Y, Z) dương được thể hiện trong Hình 6. Lý giải tương tự như trên, khi không có sự xuất hiện của Z, sự phụ thuộc giữa X và Y được thể hiện trong phần giao giữa H(X) và H(Y ). Ở đây, Z phụ thuộc vớiX đúng ở phầnX phụ thuộc với Y , Z phụ thuộc với Y cũng đúng ở phần Y phụ thuộc với X. Do vậy, Khi có sự xuất hiện của Z, phần giao giữa H(X) và H(Y ) hoàn toàn đã rõ, dẫn tớiX và Y hoàn toàn độc lập vàMI(3)(X, Y, Z) = MI(2)(X, Y ) có giá trị dương. Lúc này, MI(3)(X, Y, Z) đạt giá trị lớn nhất. Và trong trường hợp này, chúng ta có thể chỉ ra được MI(3)(X, Y, Z) là phần chung của cả ba biến. Phương pháp trực quan hóa thứ hai là của Jakulin. Trong trường hợp ba biến, Jakulin mở rộng thêm khái niệm phụ thuộc (“tương tác“ theo quan niệm của Jakulin) dương và âm. Để biểu diễn điều này, Jakulin dùng hình tròn với màu xám biểu trưng cho sự phụ thuộc âm và màu trắng thể hiện sự phụ thuộc dương như biểu diễn trong Hình 7. Tuy nhiên, cách biểu diễn của Jakulin chỉ thể hiện được cấu trúc của tương tác chứ không phản ánh được mức độ của sự phụ thuộc giữa các biến. 22 Một đề xuất mở rộng Mutual Information cho trường hợp 3 biến Hình 7: Đồ thị tương tác của Jakulin cho ba biến 2.3. Một đề xuất mở rộng MI của ba biến 2.4. Đề xuất công thức MI của ba biến Như đã trình bày trong mục 2.2.1, khi có nhiều hơn hai biến, sẽ xuất hiện nhiều kiểu phụ thuộc. Trong trường hợp 3 biến thì sẽ có các kiểu phụ thuộc sau: sự phụ thuộc đồng thời của 3 biến, sự phụ thuộc giữa một biến với cặp hai biến còn lại. Có thể thấy, mỗi một kiểu phụ thuộc sẽ tương ứng với một phân hoạch D1, D2, ..., Dk. Cụ thể, trong trường hợp ba biến chúng ta có các kiểu phân hoạch sau: 1. {X1} ∪ {X2} ∪ {X3}. 2. {X1} ∪ {X2, X3} hoặc {X2} ∪ {X1, X3} hoặc {X3} ∪ {X1, X2}. Sức mạnh sự phụ thuộc D1, D2, ..., Dk trong các biến {X1, X2, X3} từ dữ liệu quan sát có thể đo bằng lượng tin bị hụt đi giữa dữ liệu quan sát (O) với tập dữ liệu giả định (O1) được sinh ra từ phân bố tích p(D1)...p(Dk) (tức là giả thiết độc lập giữa các nhóm D1, D2, ..., Dk) với p(Di) là phân bố lề của tập dữ liệu quan sát trên Di. Từ đó, chúng tôi đề xuất một công thức tổng quát cho MI của ba biến như sau: MI{X,Y,Z}(X, Y, Z) = H(X) +H(Y ) +H(Z)−H(X, Y, Z) (2.7) Đây chính là công thức TC(X1, X2, X3), công thức (2.4) đo tổng sự phụ thuộc của 3 biến. MI{X,}(X, Y, Z) = H(X) +H(Y, Z)−H(X, Y, Z) (2.8) MI{Y,}(X, Y, Z) = H(Y ) +H(Z,X)−H(X, Y, Z) (2.9) MI{Z,}(X, Y, Z) = H(Z) +H(X, Y )−H(X, Y, Z) (2.10) Ba công thức (2.8),(2.9) và (2.10) dùng để đo sự phụ thuộc thông tin của một biến với cặp hai biến còn lại. 23 Nguyễn Quỳnh Diệp, Phạm Thọ Hoàn, Nguyễn Tô Sơn và Trần Đăng Hưng Hình 8: Mô tả trực quan TC(X, Y, Z) 2.4.1. Biểu diễn trực quan MI của ba biến Trong phần này, chúng tôi đề xuất và phân tích một phương pháp trực quan mới cho MI của ba biến mà ý tưởng cơ bản của nó đã được đề cập trong mục 2.1.3 khi biểu diễn trực quan độ đo MI của hai biến. Trong phương pháp trực quan này, lượng thông tin của mỗi biến được biểu diễn bằng một đoạn thẳng gắn với một chiều của hệ tọa độ. Khi phân tích độ đoMI của hai biến, chúng tôi đã sử dụng một không gian hai chiều để cho thấy mối quan hệ tương quan giữa H(X), H(Y ), H(X)+H(Y ) và H(X, Y ) (như trong Hình 3). Để lý giải độ đo MI cho trường hợp ba biến chúng tôi sẽ xây dựng một không gian ba chiều theo cách tương tự. Giả sử, ta có một hệ thống S được xây dựng từ dữ liệu thực tế, được biểu diễn trực quan bằng một khối với hình dạng méo mó (hình quả khế - gọi là khối HS). Khối HS mô tả H(X, Y, Z) như biểu diễn trong Hình 8. Dựa trên dữ liệu này, ta xây dựng được khối hình hộp H(S ′) với 3 cạnh H(X), H(Y ), H(Z) được biểu diễn là phép chiếu của dữ liệu khối HS lần lượt lên 3 trục Ox,Oy,Oz. Khối hộp H(S ′) mô tả H(X)+H(Y )+H(Z) chính là lượng thông tin của hệ thống S ′ bao gồm ba biến X, Y và Z độc lập. Cách mô tả này phản ánh đúng tính chất của hàm mật độ và bản chất của quan hệ độc lập theo tiếp cận xác suất. Trong trường hợp ba biến, độ đo TC được tính theo công thức (2.11): TC(X, Y, Z) = H(X) +H(Y ) +H(Z)−H(X, Y, Z) (2.11) Như vậy, trong Hình 8 có hai biểu diễn: một là khối hộp HS ′ biểu diễn cho hệ thống giả định S ′ với ba biến hoàn toàn độc lập, hai là khối HS biểu diễn cho hệ thống thực S. Nếu HS khớp với HS ′ thì ba biến trong S độc lập. Ngược lại, nếu HS và HS ′ có sự chênh lệch đủ lớn thì chúng ta có thể khẳng định rằng ba biến trong S là phụ thuộc. Như vậy, căn cứ vào khoảng chênh lệch giữa HS ′ và HS, có thể đi đến kết luận rằng ba biến trong hệ thống S là độc lập hay phụ thuộc. Như vậy, theo công thức (2.11) thì biểu diễn trực quan của độ đo TC chính là 24 Một đề xuất mở rộng Mutual Information cho trường hợp 3 biến Hình 9: Mô tả trực quan MI(2)(XY,Z) phần chênh lệch giữa hình hộp HS ′ với hình quá khế H(S). Bây giờ, chúng tôi sẽ biểu diễn trực quan sự phụ thuộc thông tin của một biến với cặp hai biến còn lại. Với những lập luận tương tự như Hình 8, chúng ta có thể thấy ngay sự độc lập của X, Y với Z. Khi chiếu hình quả khế HS lên mặt phẳng tọa độ Oxy chúng ta sẽ thu được H(X, Y ), còn chiếu lên trục Oz sẽ thu được H(Z). Trong Hình 9, khối hình trụ thể hiện lượng thông tin của hệ thống S” (gọi là khối HS”) với HS” = H(X, Y ) +H(Z). Từ đây, sự phụ thuộc giữa XY với Z (tức MI(2)(XY,Z)) chính là sự chênh lệch giữa hai khối HS và HS” (phần nằm giữa hình quả khế và hình trụ). Như vậy, qua các phân tích trên chúng ta thấy ý nghĩa của các độ đo như sau: các sự phụ thuộc hai chiều, chẳng hạn MI(2)(X, Y ) là sự chênh lệch giữa HS” và HS ′ như trong cách lý giải của Hình 9, và TC(X, Y, Z) là sự chênh lệch giữa HS ′ và HS như trong cách lý giải của Hình 8. Nhìn vào sự tương quan giữa các khối hình này, dễ thấy biểu diễn này quay lại lý giải như trong trường hợp lập luận của biểu đồ Venn trong Hình 5. Tuy nhiên, phương pháp biểu diễn này tỏ ra hợp lý hơn vì sự giao thoa giữa các khối hình là mối quan hệ giữa các hàm mật độ, còn trong biểu đồ Venn là sự giao thoa giữa các lượng thông tin. Điều này sẽ dẫn tới mâu thuẫn không giải quyết được của biểu diễn trong Hình 8. Không những vậy, lý giải về tính âm dương của độ đo MI(3) cũng được thể hiện rõ ràng hơn so với cách biểu diễn bằng biểu đồ Venn. 2.5. Ví dụ Như đã trình bày trong mục 2.4, đối với trường hợp 3 biến, chúng ta sẽ gặp các tương tác giữa ba biến (dạng 1) hoặc tương tác giữa 1 biến với cặp 2 biến còn lại (dạng 2) như sau: 1. MI(X, Y, Z) = H(X) +H(Y ) +H(Z)−H(X, Y, Z) = TC(X, Y, Z). Đây chính là MI{X,Y,Z}(X, Y, Z) và được gọi là độ đo tương hỗ tổng cộng TC 2. MI(X,) Đây chính là MI{X,}(X, Y, Z) và được gọi là độ đo 25 Nguyễn Quỳnh Diệp, Phạm Thọ Hoàn, Nguyễn Tô Sơn và Trần Đăng Hưng Hình 10: Ví dụ 1 tương hỗ bộ phận Trong trường hợp này sẽ có 3 tương tác là: • MI(X,) • MI(Y,) • MI(Z,) Trong phần này, chúng tôi sẽ xét một ví dụ để thấy rằng: khi khảo sát các quan hệ nhiều biến, ngoài độ đo tương hỗ tổng cộng ta còn cần phải quan tâm đến các độ đo tương hỗ bộ phận. Xét dữ liệu Z = XxorY được cho như trong Hình 10: Chúng tôi sẽ giải thích trường hợp này theo hai công thức: công thức tổng quát trước đây, và công thức do chúng tôi đề xuất. 1. Tính theo công thức tổng quát trước đây: Interaction(X ; Y ;Z) = I(X ; Y ;Z) = H(X) +H(Y ) +H(Z)− [H(X, Y ) + + H(Y, Z) +H(Z,X)] +H(X, Y, Z) Ta có: H(X) = −(1/2 ∗ log1/2 + 1/2 ∗ log1/2) = 1 (Vì khả năng X = 0 là 1/2, khả năng X = 1 là 1/2) Tương tự như vậy, H(Y ) = H(Z) = 1 H(X, Y ) = −4∗(1/4∗log1/4) = 2 (Vì (X, Y ) có 4 khả năng (0,0),(0,1),(1,0),(1,1)) Tương tự như vậy, H(Y, Z) = H(Z,X) = 2 Do đó: MI(X, Y ) = MI(Y, Z) = MI(Z,X) = 0, tức là X,Y,Z đôi một độc lập với nhau. Ta có: H(X, Y, Z) = −4 ∗ (1/4 ∗ log1/4) = 2 (Vì (X, Y, Z) có 4 khả năng (0,0,0),(0,1,1), (1,0,1),(1,1,0)) 26 Một đề xuất mở rộng Mutual Information cho trường hợp 3 biến Hình 11: Biểu đồ Venn cho MI(3) của dữ liệu hàm XOR Do đó, Interaction(X ; Y ;Z) = I(X ; Y ;Z) = H(X) +H(Y ) +H(Z)− − [H(X, Y )−H(Y, Z)−H(Z,X)] + + H(X, Y, Z) = 1 + 1 + 1− [2 + 2 + 2] + 2 = −1 Nếu giải thích biểu đồ Venn trường hợp âm này theo như Hình 5 trong mục 2.2.2. là không thể được, vì trong trường hợp này X, Y, Z đôi một độc lập với nhau nên H(X), H(Y ), H(Z) đôi một không giao nhau. Biểu đồ Venn trong trường hợp này phải được biểu diền như Hình 11: 2. Tính theo công thức chúng tôi đề xuất: MI(X, Y, Z) = TC(X, Y, Z) = H(X) +H(Y ) +H(Z)−H(X, Y, Z) = 1 + 1 + 1− 2 = 1 MI(