Ước lượng Bayes cho tỷ lệ trộn trong phân loại và nhận dạng hai tổng thể

Trong bài viết này chúng tôi tiếp tục phát triển ý tưởng trên với giả thiết v có phân phối tiên nghiệm bất kỳ nào đó fprior(v) để tìm hàm mật độ xác suất hậu nghiệm cho v. Vấn đề trên cũng được chúng tôi xem xét cụ thể khi fprior(v) là hàm mật độ xác suất mũ và chuẩn chặt cụt trên (0, 1). Trong [4] xét phân phối beta chuẩn trên (0, 1) và đó là điều đương nhiên vì phân phối này xác định trên (0, 1). Tuy nhiên với phân phối chuẩn thì miền xác định là cả trục số. | TAÏP CHÍ PHAÙT TRIEÅN KH&CN, TAÄP 11, SOÁ 01 - 2008 ƯỚC LƯỢNG BAYES CHO TỶ LỆ TRỘN TRONG PHÂN LOẠI VÀ NHẬN DẠNG HAI TỔNG THỂ Võ Văn Tài(1), Phạm Gia Thụ(2), Tô Anh Dũng(3) (1) Trường Đại học Cần Thơ (2)Trường Đại học Moncton, Canada (3)Trường Đại học Khoa học Tự nhiên, ĐHQG-HCM 1. GIỚI THIỆU Trong thực tế có nhiều vấn đề đòi hỏi chúng ta phải giải quyết bài toán phân loại và nhận dạng hai tổng thể H1 và H2. Có nhiều cách khác nhau để giải quyết bài toán phân loại này. Một phương pháp phân loại có nhiều ưu điểm dựa trên hàm mật độ xác suất của hai tổng thể đó là phương pháp Bayes. Trong phân loại này người ta quan tâm đến tổng thể H3 chứa những phần tử chung của H1 và H2, kết hợp từ mỗi tổng thể với tỷ lệ nào đó. Giả sử trên H1 và H2 ta quan sát biến ngẫu nhiên X, ký hiệu f1(x), f2(x) là hàm mật độ xác suất tương ứng của X trên hai tổng thể, và gọi v là tỷ lệ trộn của những phần tử của H1 trong H3 (0 0 a) v có hàm mật độ xác suất hậu nghiệm j n− j ϕ ( n , j ) ( v ) = Beta( v;α , β ).[1 − Av ] [1 − Bv] / P0( n , j ) ( A, B ) (2) 1 trong đó P0( n , j ) ( ∫ A, B ) = v α −1 ( 1 − v ) β −1 ( 1 − Av ) j ( 1 − Bv ) n − j dv mà ta có thể tính theo định lý Picard (xem [4] ). 0 b) Trung bình hậu nghiệm của v là µ ( n , j ) ( v ) = µ prior ( v ). c) Phương sai hậu nghiệm của v là P1( n , j ) ( A, B ) P0( n , j ) ( A, B ) (3) TAÏP CHÍ PHAÙT TRIEÅN KH&CN, TAÄP 11, SOÁ 01 - 2008 Var ( n , j ) ( v ) = Varprior ( v ) P ( A, B )( 1 − µ prior ( v )) 2 0 ( {( α + 1 )P ( n, j ) 0 ( A, B )P2( n , j ) ( A, B ) − )} − ( α + µ prior ( v )) P1( n , j ) ( A, B ) 2 (4) Đây là định lý đã được tác giả T. Pham-Gia trình bày trong [4] . Hệ quả 2: Khi v có phân phối tiên nghiệm mũ chặt cụt trên (0,1) với tham số b > 0 a) v có phân phối hậu nghiệm: Exp( b )( 1 − Av ) j ( 1 − Bv ) n − j , v ∈ ( 0,1 ) ( n, j ) ϕ ( v )= I ( n, j ) 0 , v ∉ ( 0 ,1 ) (4) 1 ∫ trong đó, I ( n , j ) = be −bv ( 1 − Av ) j ( 1 − Bv ) n − j dv mà ta có thể dùng tích phân truy hồi để .

Không thể tạo bản xem trước, hãy bấm tải xuống
TÀI LIỆU MỚI ĐĂNG
7    74    1    27-04-2024
Đã phát hiện trình chặn quảng cáo AdBlock
Trang web này phụ thuộc vào doanh thu từ số lần hiển thị quảng cáo để tồn tại. Vui lòng tắt trình chặn quảng cáo của bạn hoặc tạm dừng tính năng chặn quảng cáo cho trang web này.