Hướng dẫn what does f1 mean in python? - f1 có nghĩa là gì trong python?
Khi sử dụng các mô hình phân loại trong học máy, một số liệu phổ biến mà chúng tôi sử dụng để đánh giá chất lượng của mô hình là điểm F1.F1 Score. Show
Số liệu này được tính là: Điểm F1 = 2 * (độ chính xác * nhớ lại) / (độ chính xác + thu hồi) = 2 * (Precision * Recall) / (Precision + Recall) where:
Ví dụ: giả sử chúng tôi & nbsp; sử dụng mô hình hồi quy logistic để dự đoán có 400 cầu thủ bóng rổ đại học khác nhau có được soạn thảo vào NBA hay không. Ma trận nhầm lẫn sau đây tóm tắt các dự đoán được thực hiện bởi mô hình: Dưới đây là cách tính điểm F1 của mô hình: Độ chính xác = Đúng tích cực / (Đúng dương + dương tính giả) = 120 / (120 + 70) = .63157.63157 Nhớ lại = Đúng tích cực / (Đúng dương + Sai âm) = 120 / (120 + 40) = .75.75 Điểm F1 = 2 * (.63157 * .75) / (.63157 + .75) = .68576857 Ví dụ sau đây cho thấy cách tính điểm F1 cho mô hình chính xác này trong Python. Ví dụ: Tính điểm F1 trong PythonMã sau đây cho thấy cách sử dụng hàm f1_score () từ gói sklearn trong Python để tính điểm F1 cho một mảng các giá trị dự đoán và giá trị thực.f1_score() function from the sklearn package in Python to calculate the F1 score for a given array of predicted values and actual values. import numpy as np from sklearn.metrics import f1_score #define array of actual classes actual = np.repeat([1, 0], repeats=[160, 240]) #define array of predicted classes pred = np.repeat([1, 0, 1, 0], repeats=[120, 40, 70, 170]) #calculate F1 score f1_score(actual, pred) 0.6857142857142857 Chúng ta có thể thấy rằng điểm F1 là 0,6857. Điều này phù hợp với giá trị mà chúng tôi đã tính toán trước đó bằng tay.0.6857. This matches the value that we calculated earlier by hand. Lưu ý: Bạn có thể tìm thấy tài liệu đầy đủ cho hàm f1_score () ở đây.: You can find the complete documentation for the f1_score() function here. Ghi chú về việc sử dụng điểm F1Nếu bạn sử dụng điểm F1 để so sánh một số mô hình, mô hình có điểm F1 cao nhất thể hiện mô hình có khả năng phân loại các quan sát thành các lớp nhất. Ví dụ: nếu bạn phù hợp với một mô hình hồi quy logistic khác với dữ liệu và mô hình đó có điểm F1 là 0,75, mô hình đó sẽ được coi là tốt hơn vì nó có điểm F1 cao hơn. Tài nguyên bổ sungLàm thế nào để thực hiện hồi quy logistic trong Python làm thế nào để tạo ra một ma trận nhầm lẫn trong Python Cách tính độ chính xác cân bằng trong điểm Python F1 so với độ chính xác: Bạn nên sử dụng cái nào?
Các mô hình phân loại được sử dụng trong các vấn đề phân loại để dự đoán lớp mục tiêu của mẫu dữ liệu. Mô hình phân loại dự đoán xác suất mà mỗi trường hợp thuộc về một lớp này hay lớp khác. Điều quan trọng là đánh giá hiệu suất của mô hình phân loại để sử dụng một cách đáng tin cậy các mô hình này trong sản xuất để giải quyết các vấn đề trong thế giới thực. Các biện pháp hiệu suất trong các mô hình phân loại học máy được sử dụng để đánh giá cách thức các mô hình phân loại học máy hoạt động tốt trong một bối cảnh nhất định. Các số liệu hiệu suất này bao gồm độ chính xác, độ chính xác, thu hồi và điểm F1. Bởi vì nó giúp chúng tôi hiểu được điểm mạnh và hạn chế của các mô hình này khi đưa ra dự đoán trong các tình huống mới, hiệu suất mô hình là điều cần thiết cho việc học máy. Trong bài đăng trên blog này, chúng tôi sẽ khám phá bốn số liệu hiệu suất mô hình phân loại máy học này thông qua ví dụ Python Sklearn. accuracy, precision, recall, and F1-score. Because it helps us understand the strengths and limitations of these models when making predictions in new situations, model performance is essential for machine learning. In this blog post, we will explore these four machine learning classification model performance metrics through Python Sklearn example.
Là một nhà khoa học dữ liệu, bạn phải hiểu rõ về các khái niệm liên quan đến những điều trên liên quan đến việc đo lường hiệu suất của mô hình phân loại. Trước khi chúng ta đi vào các chi tiết của các số liệu hiệu suất như được liệt kê ở trên, hãy hiểu các thuật ngữ chính như tích cực thực, dương tính giả, âm tính đúng và âm tính giả với sự trợ giúp của ma trận nhầm lẫn. Các thuật ngữ này sẽ được sử dụng trên các số liệu hiệu suất khác nhau.
Thuật ngữ - Tích cực thực sự, dương tính giả, âm tính đúng, âm tính giảĐiểm chính xác là bao nhiêu?benign or malignant breast cancer class. You can load the dataset using the following code: Các kịch bản trong thế giới thực khác nhau khi điểm chính xác có thể được sử dụng làm số liệu đánh giá Điểm thu hồi là gì? from sklearn.model_selection import train_test_split # # Create training and test split # X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.30, random_state=1, stratify=y) Các kịch bản trong thế giới thực khác nhau khi điểm thu hồi có thể được sử dụng làm số liệu đánh giáactual negative is 64 records. Let’s train the model and get the confusion matrix. Here is the code for training the model and printing the confusion matrix. from sklearn.preprocessing import StandardScaler from sklearn.svm import SVC from sklearn.metrics import confusion_matrix from sklearn.metrics import precision_score, recall_score, f1_score, accuracy_score import matplotlib.pyplot as plt # # Standardize the data set # sc = StandardScaler() sc.fit(X_train) X_train_std = sc.transform(X_train) X_test_std = sc.transform(X_test) # # Fit the SVC model # svc = SVC(kernel='linear', C=10.0, random_state=1) svc.fit(X_train, y_train) # # Get the predictions # y_pred = svc.predict(X_test) # # Calculate the confusion matrix # conf_matrix = confusion_matrix(y_true=y_test, y_pred=y_pred) # # Print the confusion matrix using Matplotlib # fig, ax = plt.subplots(figsize=(5, 5)) ax.matshow(conf_matrix, cmap=plt.cm.Oranges, alpha=0.3) for i in range(conf_matrix.shape[0]): for j in range(conf_matrix.shape[1]): ax.text(x=j, y=i,s=conf_matrix[i, j], va='center', ha='center', size='xx-large') plt.xlabel('Predictions', fontsize=18) plt.ylabel('Actuals', fontsize=18) plt.title('Confusion Matrix', fontsize=18) plt.show() Ma trận nhầm lẫn sau đây được in:confusion matrix is printed: Hình 1. Ma trận nhầm lẫn biểu thị dự đoán so với thực tế trên dữ liệu thử nghiệmConfusion Matrix representing predictions vs Actuals on Test DataCác kết quả dữ liệu dự đoán trong sơ đồ trên có thể được đọc theo cách sau đây cho 1 đại diện cho ung thư ác tính (dương tính).1 represents malignant cancer (positive).
Với các định nghĩa trên, hãy để Lôi thử và hiểu khái niệm về độ chính xác, độ chính xác, thu hồi và điểm số F1. Điểm chính xác là bao nhiêu?Điểm chính xác mô hình đo tỷ lệ của các nhãn dự đoán tích cực thực sự chính xác. Độ chính xác còn được gọi là giá trị dự đoán tích cực. Độ chính xác được sử dụng cùng với việc thu hồi để đánh đổi các dương tính giả và phủ định sai. Độ chính xác bị ảnh hưởng bởi phân phối lớp. Nếu có nhiều mẫu hơn trong lớp thiểu số, thì độ chính xác sẽ thấp hơn. Độ chính xác có thể được coi là một thước đo của độ chính xác hoặc chất lượng. Nếu chúng ta muốn giảm thiểu các tiêu cực sai, chúng ta sẽ chọn một mô hình có độ chính xác cao. Ngược lại, nếu chúng tôi muốn giảm thiểu các dương tính giả, chúng tôi sẽ chọn một mô hình có thu hồi cao. Độ chính xác chủ yếu được sử dụng khi chúng ta cần dự đoán lớp dương tính và có chi phí lớn hơn liên quan đến dương tính giả so với các tiêu cực giả như trong chẩn đoán y tế hoặc lọc thư rác. Ví dụ: nếu một mô hình chính xác 99% nhưng chỉ có độ chính xác 50%, điều đó có nghĩa là một nửa thời gian khi dự đoán email là một thư rác, nó thực sự không phải là thư rác.model precision score measures the proportion of positively predicted labels that are actually correct. Precision is also known as the positive predictive value. Precision is used in conjunction with the recall to trade-off false positives and false negatives. Precision is affected by the class distribution. If there are more samples in the minority class, then precision will be lower. Precision can be thought of as a measure of exactness or quality. If we want to minimize false negatives, we would choose a model with high precision. Conversely, if we want to minimize false positives, we would choose a model with high recall. Precision is mainly used when we need to predict the positive class and there is a greater cost associated with false positives than with false negatives such as in medical diagnosis or spam filtering. For example, if a model is 99% accurate but only has 50% precision, that means that half of the time when it predicts an email is a spam, it is actually not spam. Điểm chính xác là một thước đo hữu ích cho sự thành công của dự đoán khi các lớp rất mất cân bằng.success of prediction when the classes are very imbalanced. Mathematically, it represents the ratio of true positive to the sum of true positive and false positive. Điểm chính xác = TP / (FP + TP) Từ công thức trên, bạn có thể nhận thấy rằng giá trị của dương tính giả sẽ ảnh hưởng đến điểm chính xác. Do đó, trong khi xây dựng các mô hình dự đoán, bạn có thể chọn tập trung một cách thích hợp để xây dựng các mô hình có dương tính giả thấp hơn nếu điểm chính xác cao là quan trọng đối với các yêu cầu kinh doanh. Điểm chính xác từ ma trận nhầm lẫn ở trên sẽ xuất hiện như sau: Điểm chính xác = 104 / (3 + 104) = 104/107 = 0,972 = 104 / (3 + 104) = 104/107 = 0.972 Có thể đạt được điểm số tương tự bằng cách sử dụng phương pháp precision_score từ sklearn.metricsprecision_score method from sklearn.metrics print('Precision: %.3f' % precision_score(y_test, y_pred)) Các kịch bản trong thế giới thực khác nhau khi điểm chính xác có thể được sử dụng làm số liệu đánh giáĐiểm chính xác có thể được sử dụng trong kịch bản mà mô hình học máy được yêu cầu để xác định tất cả các ví dụ tích cực mà không có bất kỳ dương tính giả nào. Ví dụ, các mô hình học máy được sử dụng trong các ứng dụng chẩn đoán y tế trong đó bác sĩ muốn các mô hình học máy sẽ không cung cấp nhãn viêm phổi nếu bệnh nhân không mắc bệnh này. Các bác sĩ ung thư lý tưởng muốn các mô hình có thể xác định tất cả các tổn thương ung thư mà không cần bất kỳ kết quả dương tính giả nào và do đó người ta có thể sử dụng điểm chính xác trong các trường hợp như vậy. Lưu ý rằng một số lượng lớn các dương tính giả sẽ dẫn đến rất nhiều căng thẳng cho bệnh nhân nói chung mặc dù điều đó có thể không gây tử vong từ góc độ sức khỏe. Các thử nghiệm tiếp theo sẽ có thể phủ nhận dự đoán dương tính giả. Ví dụ khác trong đó điểm chính xác có thể hữu ích là phát hiện gian lận thẻ tín dụng. Trong các vấn đề phát hiện gian lận thẻ tín dụng, các mô hình phân loại được đánh giá bằng cách sử dụng điểm chính xác để xác định có bao nhiêu mẫu tích cực được phân loại chính xác theo mô hình phân loại. Bạn không muốn có một số lượng cao các dương tính giả nếu không bạn có thể sẽ chặn nhiều thẻ tín dụng và do đó rất nhiều sự thất vọng với người dùng cuối. Một ví dụ khác mà bạn muốn độ chính xác lớn hơn là các bộ lọc thư rác. Một số lượng lớn các dương tính giả trong bộ lọc thư rác có nghĩa là một hoặc nhiều email quan trọng có thể được gắn thẻ là thư rác và chuyển sang các thư mục spam. Điều này có thể cản trở theo nhiều cách khác nhau bao gồm tác động đến công việc hàng ngày của bạn.spam filters. A greater number of false positives in a spam filter would mean that one or more important emails could be tagged as spam and moved to spam folders. This could hamper in so many different ways including impact on your day-to-day work. Điểm thu hồi là gì?Điểm thu hồi mô hình đại diện cho khả năng mô hình để dự đoán chính xác các tích cực từ các mặt tích cực thực tế. Điều này không giống như độ chính xác, trong đó đo lường có bao nhiêu dự đoán được thực hiện bởi các mô hình thực sự tích cực trong tất cả các dự đoán tích cực được đưa ra. Ví dụ: nếu mô hình học máy của bạn đang cố gắng xác định các đánh giá tích cực, điểm thu hồi sẽ là bao nhiêu phần trăm các đánh giá tích cực đó, mô hình học máy của bạn dự đoán chính xác là tích cực. Nói cách khác, nó đo lường mức độ tốt của mô hình máy học của chúng tôi trong việc xác định tất cả các tích cực thực tế trong tất cả các tích cực tồn tại trong một bộ dữ liệu. Điểm thu hồi càng cao, mô hình máy học càng tốt trong việc xác định cả các ví dụ tích cực và tiêu cực. Nhớ lại còn được gọi là độ nhạy hoặc tỷ lệ dương thực sự. Điểm thu hồi cao chỉ ra rằng mô hình tốt trong việc xác định các ví dụ tích cực. Ngược lại, điểm thu hồi thấp chỉ ra rằng mô hình không tốt trong việc xác định các ví dụ tích cực. Nhớ lại thường được sử dụng cùng với các số liệu hiệu suất khác, chẳng hạn như độ chính xác và độ chính xác, để có được một bức tranh hoàn chỉnh về hiệu suất của mô hình. Về mặt toán học, nó đại diện cho tỷ lệ dương tính thực với tổng của dương tính và âm tính giả. Ghi nhớ điểm = TP / (FN + TP) Từ công thức trên, bạn có thể nhận thấy rằng giá trị của âm tính giả sẽ tác động đến điểm thu hồi. Do đó, trong khi xây dựng các mô hình dự đoán, bạn có thể chọn tập trung một cách thích hợp để xây dựng các mô hình có tiêu cực giả thấp hơn nếu điểm thu hồi cao là quan trọng đối với các yêu cầu kinh doanh. Điểm thu hồi từ ma trận nhầm lẫn ở trên sẽ xuất hiện như sau: Điểm nhớ lại = 104 / (3 + 104) = 104/107 = 0,972 = 104 / (3 + 104) = 104/107 = 0.972 Có thể đạt được điểm số tương tự bằng cách sử dụng phương pháp reBle_score từ sklearn.metricsrecall_score method from sklearn.metrics print('Recall: %.3f' % recall_score(y_test, y_pred)) Điểm thu hồi có thể được sử dụng trong kịch bản mà các nhãn không được phân chia như nhau giữa các lớp. Ví dụ: nếu có tỷ lệ mất cân bằng lớp là 20:80 (dữ liệu mất cân bằng), thì điểm thu hồi sẽ hữu ích hơn độ chính xác vì nó có thể cung cấp thông tin về việc mô hình học máy xác định các sự kiện hiếm hơn. Các kịch bản trong thế giới thực khác nhau khi điểm thu hồi có thể được sử dụng làm số liệu đánh giáĐiểm thu hồi là một số liệu quan trọng cần xem xét khi đo lường hiệu quả của các mô hình học máy của bạn. Nó có thể được sử dụng trong một loạt các kịch bản trong thế giới thực, và điều quan trọng là luôn luôn nhằm mục đích cải thiện điểm thu hồi và điểm chính xác cùng nhau. Sau đây là các ví dụ về một số kịch bản trong thế giới thực trong đó điểm thu hồi có thể được sử dụng làm số liệu đánh giá:
Điểm chính xác là gì?Độ chính xác của mô hình là một số liệu hiệu suất phân loại mô hình học máy được định nghĩa là tỷ lệ tích cực thực sự và tiêu cực thực sự cho tất cả các quan sát tích cực và tiêu cực. Nói cách khác, độ chính xác cho chúng ta biết tần suất chúng ta có thể mong đợi mô hình học máy của mình sẽ dự đoán chính xác kết quả trong tổng số lần nó đưa ra dự đoán. Ví dụ: Hãy giả sử rằng bạn đang kiểm tra mô hình học máy của mình với bộ dữ liệu gồm 100 bản ghi và mô hình học máy của bạn dự đoán tất cả 90 trong số các trường hợp đó một cách chính xác. Số liệu chính xác, trong trường hợp này, sẽ là: (90/100) = 90%. Tỷ lệ chính xác là tuyệt vời nhưng nó không cho chúng ta biết bất cứ điều gì về các lỗi mà các mô hình học máy của chúng ta tạo ra trên dữ liệu mới mà chúng ta đã thấy trước đây.is a machine learning classification model performance metric that is defined as the ratio of true positives and true negatives to all positive and negative observations. In other words, accuracy tells us how often we can expect our machine learning model will correctly predict an outcome out of the total number of times it made predictions. For example: Let’s assume that you were testing your machine learning model with a dataset of 100 records and that your machine learning model predicted all 90 of those instances correctly. The accuracy metric, in this case, would be: (90/100) = 90%. The accuracy rate is great but it doesn’t tell us anything about the errors our machine learning models make on new data we haven’t seen before. Về mặt toán học, nó đại diện cho tỷ lệ của tổng của các tiêu cực tích cực và thực sự trong tất cả các dự đoán. Điểm chính xác = (TP + TN)/ (TP + FN + TN + FP) Điểm chính xác từ trên ma trận nhầm lẫn ở trên sẽ xuất hiện như sau: Điểm chính xác = (104 + 61) / (104 + 3 + 61 + 3) = 165/171 = 0.965 = (104 + 61) / (104 + 3 + 61 + 3) = 165/171 = 0.965 Có thể đạt được điểm số tương tự bằng cách sử dụng phương pháp chính xác_score từ sklearn.metricsaccuracy_score method from sklearn.metrics print('Accuracy: %.3f' % accuracy_score(y_test, y_pred)) Thận trọng với các số liệu / điểm số chính xácSau đây là một số vấn đề với số liệu / điểm chính xác:issues with accuracy metrics / score:
Người ta nên thận trọng khi dựa vào các số liệu chính xác của mô hình để đánh giá hiệu suất mô hình. Hãy xem ma trận nhầm lẫn sau đây. Đối với độ chính xác của mô hình được biểu thị bằng cả hai trường hợp (trái và phải), độ chính xác là 60%. Tuy nhiên, cả hai mô hình thể hiện các hành vi khác nhau.cautious when relying on the accuracy metrics of model to evaluate the model performance. Take a look at the following confusion matrix. For model accuracy represented using both the cases (left and right), the accuracy is 60%. However, both the models exhibit different behaviors. Hiệu suất mô hình được biểu thị bằng ma trận nhầm lẫn bên trái cho thấy mô hình có tốc độ nhận dạng dương yếu trong khi ma trận nhầm lẫn bên phải biểu thị rằng mô hình có tốc độ nhận dạng tích cực mạnh. Lưu ý rằng độ chính xác là 60% cho cả hai mô hình. Do đó, người ta cần đào sâu hơn để hiểu về hiệu suất mô hình với các số liệu chính xác. Các số liệu chính xác cũng không đáng tin cậy cho các mô hình được đào tạo trên các bộ dữ liệu mất cân bằng. Lấy một kịch bản của bộ dữ liệu với sự mất cân bằng 95% (dữ liệu 95% là lớp tiêu cực). Độ chính xác của trình phân loại sẽ rất cao vì nó sẽ thực hiện chính xác dự đoán đúng đưa ra âm tính trong hầu hết thời gian. Một trình phân loại tốt hơn thực sự liên quan đến vấn đề mất cân bằng lớp học, có khả năng có điểm số liệu chính xác tồi tệ hơn. Trong kịch bản như vậy của bộ dữ liệu mất cân bằng, một số liệu khác AUC (khu vực theo đường cong ROC) mạnh hơn so với điểm số liệu chính xác. AUC tham gia vào việc xem xét, phân phối lớp trong bộ dữ liệu mất cân bằng.accuracy metrics is also not reliable for the models trained on imbalanced datasets. Take a scenario of dataset with 95% imbalance (95% data is negative class). The accuracy of the classifier will be very high as it will be correctly doing right prediction issuing negative most of the time. A better classifier that actually deals with the class imbalance issue, is likely to have a worse accuracy metrics score. In such scenario of imbalanced dataset, another metrics AUC (the area under ROC curve) is more robust than the accuracy metrics score. The AUC takes into the consideration, the class distribution in imbalanced dataset. Điểm số F1 là gì?Điểm F1 mô hình đại diện cho điểm số mô hình là một hàm của điểm chính xác và thu hồi. F-Score là một số liệu hiệu suất của mô hình học máy cho trọng lượng tương đương với cả độ chính xác và thu hồi để đo lường hiệu suất của nó về độ chính xác, làm cho nó trở thành một thay thế cho các số liệu chính xác (nó không yêu cầu chúng ta phải biết tổng số quan sát ). Nó thường được sử dụng như một giá trị duy nhất cung cấp thông tin cấp cao về chất lượng đầu ra của mô hình. Đây là một thước đo hữu ích của mô hình trong các kịch bản trong đó người ta cố gắng tối ưu hóa điểm chính xác hoặc thu hồi điểm và kết quả là, hiệu suất mô hình phải chịu đựng. Sau đây thể hiện các khía cạnh liên quan đến các vấn đề với tối ưu hóa điểm chính xác hoặc thu hồi điểm: represents the model score as a function of precision and recall score. F-score is a machine learning model performance metric that gives equal weight to both the Precision and Recall for measuring its performance in terms of accuracy, making it an alternative to Accuracy metrics (it doesn’t require us to know the total number of observations). It’s often used as a single value that provides high-level information about the model’s output quality. This is a useful measure of the model in the scenarios where one tries to optimize either of precision or recall score and as a result, the model performance suffers. The following represents the aspects relating to issues with optimizing either precision or recall score:
Về mặt toán học, nó có thể được biểu diễn dưới dạng trung bình hài hòa của điểm chính xác và thu hồi. Điểm F1 = 2 * Điểm chính xác * Điểm nhớ lại/ (Điểm chính xác + Điểm thu hồi/)Precision Score + Recall Score/) Điểm chính xác từ ma trận nhầm lẫn ở trên sẽ xuất hiện như sau: Điểm F1 = (2 * 0,972 * 0,972) / (0,972 + 0,972) = 1,89 / 1.944 = 0,972= (2 * 0.972 * 0.972) / (0.972 + 0.972) = 1.89 / 1.944 = 0.972 Có thể đạt được điểm số tương tự bằng cách sử dụng phương pháp F1_Score từ sklearn.metricsf1_score method from sklearn.metrics print('F1 Score: %.3f' % f1_score(y_test, y_pred)) Kết luậnDưới đây là bản tóm tắt về những gì bạn đã học được liên quan đến độ chính xác, nhớ lại, độ chính xác và điểm số F1.
Kiểm tra cuốn sách mới nhất của tôi về Lý luận bởi các nguyên tắc đầu tiên có tiêu đề là - Nguyên tắc đầu tiên suy nghĩ: Xây dựng các sản phẩm chiến thắng bằng cách sử dụng tư duy nguyên tắc đầu tiên. Bạn cũng có thể kiểm tra blog liên quan - Nguyên tắc đầu tiên tư duy được giải thích với các ví dụ.my latest book on reasoning by first principles titled as – First principles thinking: Building winning products using first principles thinking. You may as well check out the related blog – First principles thinking explained with examples.
Gần đây tôi đã làm việc trong lĩnh vực phân tích dữ liệu bao gồm khoa học dữ liệu và học máy / học sâu. Tôi cũng đam mê các công nghệ khác nhau bao gồm các ngôn ngữ lập trình như Java/JEE, JavaScript, Python, R, Julia, v.v. vv Để cập nhật và blog mới nhất, hãy theo dõi chúng tôi trên Twitter. Tôi rất thích kết nối với bạn trên LinkedIn. Kiểm tra cuốn sách mới nhất của tôi có tiêu đề là Nguyên tắc đầu tiên suy nghĩ: Xây dựng các sản phẩm chiến thắng bằng cách sử dụng suy nghĩ nguyên tắc đầu tiên F1 có nghĩa là gì trong dữ liệu?Điểm F1 được định nghĩa là giá trị trung bình hài hòa của độ chính xác và thu hồi.Như một lời nhắc nhở ngắn, giá trị trung bình hài hòa là một số liệu thay thế cho trung bình số học phổ biến hơn.Nó thường hữu ích khi tính toán một tỷ lệ trung bình.Trong điểm F1, chúng tôi tính toán trung bình của độ chính xác và thu hồi.harmonic mean of precision and recall. As a short reminder, the harmonic mean is an alternative metric for the more common arithmetic mean. It is often useful when computing an average rate. In the F1 score, we compute the average of precision and recall.
Giá trị F1 là gì?F1-SCORE là một trong những số liệu đánh giá quan trọng nhất trong học máy.Nó tổng hợp một cách tao nhã hiệu suất dự đoán của một mô hình bằng cách kết hợp hai số liệu cạnh tranh khác - độ chính xác và thu hồi.one of the most important evaluation metrics in machine learning. It elegantly sums up the predictive performance of a model by combining two otherwise competing metrics — precision and recall.
Điểm F1 được sử dụng để làm gì?Điểm F1 là bao nhiêu?Điểm F1 thường được sử dụng để đo lường hiệu suất phân loại nhị phân, nhưng các phần mở rộng cho các phân loại đa lớp tồn tại.to measure performance of binary classification, but extensions to multi-class classifications exist.
Điểm F1 là 0,5 có nghĩa là bao nhiêu?Điểm chính xác thấp (your classifier has a high number of False positives which can be an outcome of imbalanced class or untuned model hyperparameters. In an imbalanced class problem, you have to prepare your data beforehand with Over/Under-Sampling or Focal Loss in order to curb FP/FN. |