Cách tính hệ số đồng thuận Kappa

Cohen's Kappa là Kappa Cohen. Đây là nghĩa tiếng Việt của thuật ngữ Cohen's Kappa - một thuật ngữ được sử dụng trong lĩnh vực kinh doanh.

Một cách đo lường thỏa thuận trong điều trị thống kê của dữ liệu định tính, chẳng hạn như các cuộc khảo sát sự hài lòng của khách hàng, đó là nhằm giảm bớt tác động của thỏa thuận ngẫu nhiên mà đôi khi được quan sát với các tính toán phần trăm-thỏa thuận. Sử dụng hệ số này được coi là một cách tiếp cận thận trọng hơn, ở chỗ nó có nguy cơ understating chứ không phải là phóng đại thỏa thuận giữa các điểm dữ liệu.

Thuật ngữ Cohen’s Kappa

  • Cohen’s Kappa là gì? Đây là một thuật ngữ Kinh tế tài chính có nghĩa là Cohen's Kappa là Kappa Cohen. Đây là nghĩa tiếng Việt của thuật ngữ Cohen's Kappa - một thuật ngữ được sử dụng trong lĩnh vực kinh doanh.Một cách đo lường thỏa thuận trong điều trị thống kê của dữ liệu định tính, chẳng hạn như các cuộc khảo sát sự hài lòng của khách hàng, đó là nhằm giảm bớt tác động của thỏa thuận ngẫu nhiên mà đôi khi được quan sát với các tính toán phần trăm-thỏa thuận. Sử dụng hệ số này được coi là một cách tiếp cận thận trọng hơn, ở chỗ nó có nguy cơ understating chứ không phải là phóng đại thỏa thuận giữa các điểm dữ liệu.
  • Đây là thuật ngữ được sử dụng trong lĩnh vực .

Đây là thông tin Thuật ngữ Cohen’s Kappa theo chủ đề được cập nhập mới nhất năm 2022.

Thuật ngữ Cohen’s Kappa

Trên đây là thông tin giúp bạn hiểu rõ hơn về Thuật ngữ Cohen’s Kappa. Hãy truy cập tudienso.com để tra cứu thông tin các thuật ngữ chuyên ngành tiếng Anh, Trung, Nhật, Hàn...liên tục được cập nhập.

Thống kê Cohen’s Kappa là một số liệu rất hữu ích nhưng chưa được sử dụng đầy đủ. Đôi khi trong học máy, chúng ta phải đối mặt với vấn đề phân loại nhiều lớp. Trong những trường hợp đó, các thước đo như accuracy, hoặc precision/recall không cung cấp bức tranh toàn cảnh về hiệu suất của bộ phân loại của chúng ta.

Các bài viết liên quan:

  • Data science
  • Confusion Matrix là gì? các yếu tố quan trọng
  • Data Collection trong nghiên cứu
  • Statistical(thống kê) sử dụng Python
  • Computer Network là gì? kiến thức cơ bản
  • Các lớp và Đối tượng ( Class vs Object )
  • Class trong Swift
  • Thuộc tính Swift

Trong một số trường hợp khác, chúng ta có thể gặp phải vấn đề với các lớp không cân bằng. Ví dụ. chúng ta có hai lớp, giả sử A và B, và A xuất hiện trên 5% lần. Accuracy có thể bị sai lệch, vì vậy chúng ta áp dụng các biện pháp như precision/recall. Có nhiều cách để kết hợp cả hai, chẳng hạn như độ đo F, nhưng độ đo F không có cách giải thích trực quan tốt, ngoài việc nó là giá trị trung bình hài hòa của độ chính xác và độ thu hồi.

Thống kê Cohen’s kappa là một thước đo rất tốt có thể xử lý rất tốt các bài toán nhiều lớp và lớp không cân bằng.

Cohen’s kappa được định nghĩa:

Cách tính hệ số đồng thuận Kappa

Trong đó Po là thỏa thuận được quan sát và Pe là thỏa thuận mong đợi. Về cơ bản, nó cho bạn biết bộ phân loại của bạn đang hoạt động tốt hơn bao nhiêu so với hiệu suất của bộ phân loại chỉ đơn giản là đoán ngẫu nhiên theo tần suất của mỗi lớp.

Cohen’s kappa luôn nhỏ hơn hoặc bằng 1. Giá trị bằng 0 hoặc nhỏ hơn, cho biết rằng trình phân loại là vô dụng. Không có cách chuẩn hóa nào để diễn giải các giá trị của nó. Landis và Koch (1977) cung cấp một cách để mô tả các giá trị. Theo sơ đồ của họ, giá trị <0 cho thấy không có thỏa thuận, 0–0,20 là nhẹ, 0,21–0,40 là công bằng, 0,41–0,60 là vừa, 0,61–0,80 là đáng kể và 0,81–1 là thỏa thuận gần như hoàn hảo.

Cohen’s kappa được cung cấp bởi nhiều gói phần mềm và thư viện như caret, Weka và scikit-learning. Vì vậy, lần tới khi bạn gặp vấn đề với các lớp không cân bằng hoặc vấn đề phân loại nhiều lớp, hãy thử!

Cách tính Kappa

Công thức của Kappa là:

Cách tính hệ số đồng thuận Kappa

Chúng tôi tính toán thỏa thuận mong đợi trước tiên bằng cách tính toán các giá trị mong đợi của các ô trong bảng 2 × 2 bằng cách sử dụng các tần số biên, sau đó sử dụng các số ô đó để tính tần suất mà hai phép đo dự kiến ​​sẽ đồng ý:

Chỉ số Kappa (Kappa statistics). Chỉ số đánh giá sự tương đồng giữa các nhận định. Theo kinh nghiệm của Cohen, 1960m 1968. Những diễn giải chủ đạo về Kappa có thể được phân ra các khoảng như sau:

- Kappa <0,2: Chỉ số đồng thuận thấp (poor agreement)

- Kappa từ 0,2 đến 0,4: Chỉ số đồng thuận dưới trung bình (fair)

- Kappa từ 0,4 đến 0,6: Chỉ số đồng thuận trung bình, vừa phải (Moderate)

- Kappa từ 0,6 đến 0,8: Chỉ số  đồng thuận tốt (good)

- Kappa từ 0,8 đến 1: Chỉ số  đồng rất tốt (very good)

Ứng dụng của trường hợp trên cho sự đánh giá của hai cá nhân, chủ thể về cùng một hiện tượng, xét ở mức độ tương đồng của hai cá nhân, chủ thể trên.