- 1. học có giám sát
- 1. 1. Mô hình tuyến tính
- 1. 1. 1. Bình phương nhỏ nhất
- 1. 1. 2. Hồi quy và phân loại sườn
- 1. 1. 3. dây cột ngựa
- 1. 1. 4. Lasso đa tác vụ
- 1. 1. 5. lưới đàn hồi
- 1. 1. 6. Mạng đàn hồi đa tác vụ
- 1. 1. 7. Hồi quy góc nhỏ nhất
- 1. 1. 8. LARS Lasso
- 1. 1. 9. Theo đuổi đối sánh trực giao [OMP]
- 1. 1. 10. Hồi quy Bayes
- 1. 1. 11. Hồi quy logistic
- 1. 1. 12. Hồi quy tuyến tính tổng quát
- 1. 1. 13. Độ dốc ngẫu nhiên - SGD
- 1. 1. 14. tri giác
- 1. 1. 15. Thuật toán tích cực thụ động
- 1. 1. 16. hồi quy mạnh mẽ. ngoại lệ và lỗi mô hình
- 1. 1. 17. hồi quy lượng tử
- 1. 1. 18. hồi quy đa thức. mở rộng các mô hình tuyến tính với các hàm cơ sở
- 1. 2. Phân tích phân biệt tuyến tính và bậc hai
- 1. 2. 1. Giảm kích thước bằng cách sử dụng Phân tích phân biệt tuyến tính
- 1. 2. 2. Công thức toán học của các bộ phân loại LDA và QDA
- 1. 2. 3. Công thức toán học của việc giảm kích thước LDA
- 1. 2. 4. Công cụ ước lượng co ngót và hiệp phương sai
- 1. 2. 5. thuật toán ước tính
- 1. 3. Hồi quy sườn hạt nhân
- 1. 4. Hỗ trợ máy Vector
- 1. 4. 1. phân loại
- 1. 4. 2. hồi quy
- 1. 4. 3. Ước tính mật độ, phát hiện tính mới
- 1. 4. 4. phức tạp
- 1. 4. 5. Mẹo sử dụng thực tế
- 1. 4. 6. chức năng hạt nhân
- 1. 4. 7. công thức toán học
- 1. 4. 8. Chi tiết triển khai
- 1. 5. Độ dốc ngẫu nhiên
- 1. 5. 1. phân loại
- 1. 5. 2. hồi quy
- 1. 5. 3. SVM một lớp trực tuyến
- 1. 5. 4. Stochastic Gradient Descent cho dữ liệu thưa thớt
- 1. 5. 5. phức tạp
- 1. 5. 6. tiêu chí dừng
- 1. 5. 7. Mẹo sử dụng thực tế
- 1. 5. 8. công thức toán học
- 1. 5. 9. Chi tiết triển khai
- 1. 6. hàng xóm gần nhất
- 1. 6. 1. Hàng xóm gần nhất không được giám sát
- 1. 6. 2. Phân loại hàng xóm gần nhất
- 1. 6. 3. Hồi quy hàng xóm gần nhất
- 1. 6. 4. Thuật toán láng giềng gần nhất
- 1. 6. 5. Trình phân loại Centroid gần nhất
- 1. 6. 6. Máy biến áp hàng xóm gần nhất
- 1. 6. 7. Phân tích thành phần lân cận
- 1. 7. Quá trình Gaussian
- 1. 7. 1. Hồi quy quá trình Gaussian [GPR]
- 1. 7. 2. Ví dụ về GPR
- 1. 7. 3. Phân loại quy trình Gaussian [GPC]
- 1. 7. 4. Ví dụ về GPC
- 1. 7. 5. Hạt nhân cho quy trình Gaussian
- 1. 8. phân hủy chéo
- 1. 8. 1. PLSCanonical
- 1. 8. 2. PLSSVD
- 1. 8. 3. XIN hồi quy
- 1. 8. 4. Phân tích tương quan Canonical
- 1. 9. Naive Bayes
- 1. 9. 1. Gaussian Naive Bayes
- 1. 9. 2. Naive Bayes đa thức
- 1. 9. 3. Bổ sung Naive Bayes
- 1. 9. 4. Bernoulli Naive Bayes
- 1. 9. 5. Phân loại Naive Bayes
- 1. 9. 6. Phù hợp với mô hình Bayes ngây thơ ngoài cốt lõi
- 1. 10. Cây quyết định
- 1. 10. 1. phân loại
- 1. 10. 2. hồi quy
- 1. 10. 3. Vấn đề đa đầu ra
- 1. 10. 4. phức tạp
- 1. 10. 5. Lời khuyên về sử dụng thực tế
- 1. 10. 6. thuật toán cây. ID3, C4. 5, C5. 0 và GIỎ HÀNG
- 1. 10. 7. công thức toán học
- 1. 10. 8. Cắt tỉa chi phí tối thiểu-phức tạp
- 1. 11. phương pháp tập hợp
- 1. 11. 1. Công cụ ước tính meta đóng gói
- 1. 11. 2. Rừng cây ngẫu nhiên
- 1. 11. 3. AdaBoost
- 1. 11. 4. Tăng cường cây Gradient
- 1. 11. 5. Tăng cường độ dốc dựa trên biểu đồ
- 1. 11. 6. Phân loại bỏ phiếu
- 1. 11. 7. biểu quyết hồi quy
- 1. 11. 8. tổng quát hóa xếp chồng lên nhau
- 1. 12. Thuật toán đa lớp và đa đầu ra
- 1. 12. 1. phân loại nhiều lớp
- 1. 12. 2. phân loại đa nhãn
- 1. 12. 3. Phân loại đa lớp-đa đầu ra
- 1. 12. 4. hồi quy đa đầu ra
- 1. 13. lựa chọn tính năng
- 1. 13. 1. Xóa các tính năng có phương sai thấp
- 1. 13. 2. Lựa chọn tính năng đơn biến
- 1. 13. 3. Loại bỏ tính năng đệ quy
- 1. 13. 4. Lựa chọn tính năng bằng SelectFromModel
- 1. 13. 5. Lựa chọn tính năng tuần tự
- 1. 13. 6. Lựa chọn tính năng như một phần của đường ống
- 1. 14. Học bán giám sát
- 1. 14. 1. Tự đào tạo
- 1. 14. 2. Tuyên truyền nhãn
- 1. 15. Hồi quy đẳng trương
- 1. 16. hiệu chuẩn xác suất
- 1. 16. 1. Đường cong hiệu chuẩn
- 1. 16. 2. Hiệu chỉnh bộ phân loại
- 1. 16. 3. Cách sử dụng
- 1. 17. Mô hình mạng lưới thần kinh [được giám sát]
- 1. 17. 1. Perceptron nhiều lớp
- 1. 17. 2. phân loại
- 1. 17. 3. hồi quy
- 1. 17. 4. Chính quy
- 1. 17. 5. thuật toán
- 1. 17. 6. phức tạp
- 1. 17. 7. công thức toán học
- 1. 17. 8. Mẹo sử dụng thực tế
- 1. 17. 9. Kiểm soát nhiều hơn với warm_start
- 1. 1. Mô hình tuyến tính
- 2. học không giám sát
- 2. 1. Mô hình hỗn hợp Gaussian
- 2. 1. 1. Hỗn hợp Gaussian
- 2. 1. 2. Biến thể hỗn hợp Bayesian Gaussian
- 2. 2. học tập đa dạng
- 2. 2. 1. Giới thiệu
- 2. 2. 2. đẳng đồ
- 2. 2. 3. Nhúng tuyến tính cục bộ
- 2. 2. 4. Sửa đổi nhúng tuyến tính cục bộ
- 2. 2. 5. Bản đồ riêng Hessian
- 2. 2. 6. Nhúng quang phổ
- 2. 2. 7. Sắp xếp không gian tiếp tuyến cục bộ
- 2. 2. 8. Chia tỷ lệ đa chiều [MDS]
- 2. 2. 9. Nhúng hàng xóm ngẫu nhiên phân tán t [t-SNE]
- 2. 2. 10. Lời khuyên về sử dụng thực tế
- 2. 3. phân cụm
- 2. 3. 1. Tổng quan về các phương pháp phân cụm
- 2. 3. 2. K-có nghĩa là
- 2. 3. 3. Tuyên truyền mối quan hệ
- 2. 3. 4. trung bình thay đổi
- 2. 3. 5. phân cụm quang phổ
- 2. 3. 6. phân cụm theo thứ bậc
- 2. 3. 7. DBSCAN
- 2. 3. 8. QUANG HỌC
- 2. 3. 9. BẠCH DƯƠNG
- 2. 3. 10. Đánh giá hiệu suất phân cụm
- 2. 4. phân cụm
- 2. 4. 1. Phân cụm quang phổ
- 2. 4. 2. Phân cụm quang phổ
- 2. 4. 3. đánh giá phân cụm
- 2. 5. Phân tách tín hiệu trong các thành phần [vấn đề nhân tố ma trận]
- 2. 5. 1. Phân tích thành phần chính [PCA]
- 2. 5. 2. Phân tích thành phần chính hạt nhân [kPCA]
- 2. 5. 3. Phân tách giá trị số ít bị cắt ngắn và phân tích ngữ nghĩa tiềm ẩn
- 2. 5. 4. Học từ điển
- 2. 5. 5. Phân tích nhân tố
- 2. 5. 6. Phân tích thành phần độc lập [ICA]
- 2. 5. 7. Hệ số ma trận không âm [NMF hoặc NNMF]
- 2. 5. 8. Phân bổ Dirichlet tiềm ẩn [LDA]
- 2. 6. ước lượng hiệp phương sai
- 2. 6. 1. hiệp phương sai thực nghiệm
- 2. 6. 2. Thu hẹp hiệp phương sai
- 2. 6. 3. Hiệp phương sai nghịch đảo thưa thớt
- 2. 6. 4. Ước tính hiệp phương sai mạnh mẽ
- 2. 7. Phát hiện mới lạ và ngoại lệ
- 2. 7. 1. Tổng quan về các phương pháp phát hiện ngoại lệ
- 2. 7. 2. Phát hiện mới lạ
- 2. 7. 3. Phát hiện ngoại vi
- 2. 7. 4. Phát hiện tính mới với Hệ số ngoại lệ cục bộ
- 2. 8. Ước tính mật độ
- 2. 8. 1. Ước tính mật độ. biểu đồ
- 2. 8. 2. Ước tính mật độ hạt nhân
- 2. 9. Mô hình mạng thần kinh [không giám sát]
- 2. 9. 1. Máy Boltzmann bị hạn chế
- 2. 1. Mô hình hỗn hợp Gaussian
- 3. Lựa chọn và đánh giá mô hình
- 3. 1. xác thực chéo. đánh giá hiệu suất của công cụ ước tính
- 3. 1. 1. Tính toán các chỉ số được xác thực chéo
- 3. 1. 2. Trình lặp xác thực chéo
- 3. 1. 3. Một lưu ý về xáo trộn
- 3. 1. 4. Xác thực chéo và lựa chọn mô hình
- 3. 1. 5. Điểm kiểm tra hoán vị
- 3. 2. Điều chỉnh các siêu tham số của một công cụ ước tính
- 3. 2. 1. Tìm kiếm lưới toàn diện
- 3. 2. 2. Tối ưu hóa tham số ngẫu nhiên
- 3. 2. 3. Tìm kiếm các thông số tối ưu với halving liên tiếp
- 3. 2. 4. Mẹo tìm kiếm tham số
- 3. 2. 5. Các lựa chọn thay thế cho tìm kiếm tham số brute force
- 3. 3. Số liệu và chấm điểm. Định lượng chất lượng dự báo
- 3. 3. 1. Tham số
scoring
. xác định quy tắc đánh giá mô hình - 3. 3. 2. số liệu phân loại
- 3. 3. 3. Chỉ số xếp hạng nhiều nhãn
- 3. 3. 4. số liệu hồi quy
- 3. 3. 5. Số liệu phân cụm
- 3. 3. 6. ước tính giả
- 3. 3. 1. Tham số
- 3. 4. đường cong xác nhận. vẽ điểm số để đánh giá các mô hình
- 3. 4. 1. đường cong xác nhận
- 3. 4. 2. Đường cong học tập
- 3. 1. xác thực chéo. đánh giá hiệu suất của công cụ ước tính
- 4. Điều tra
- 4. 1. Biểu đồ phụ thuộc một phần và kỳ vọng có điều kiện cá nhân
- 4. 1. 1. sơ đồ phụ thuộc một phần
- 4. 1. 2. Biểu đồ kỳ vọng có điều kiện cá nhân [ICE]
- 4. 1. 3. định nghĩa toán học
- 4. 1. 4. phương pháp tính toán
- 4. 2. Tầm quan trọng của tính năng hoán vị
- 4. 2. 1. Phác thảo của thuật toán tầm quan trọng hoán vị
- 4. 2. 2. Liên quan đến tầm quan trọng dựa trên tạp chất trong cây
- 4. 2. 3. Giá trị sai lệch trên các tính năng tương quan mạnh
- 4. 1. Biểu đồ phụ thuộc một phần và kỳ vọng có điều kiện cá nhân
- 5. trực quan
- 5. 1. Tiện ích vẽ sơ đồ có sẵn
- 5. 1. 1. Chức năng
- 5. 1. 2. Hiển thị đối tượng
- 5. 1. Tiện ích vẽ sơ đồ có sẵn
- 6. Chuyển đổi tập dữ liệu
- 6. 1. Đường ống và công cụ ước tính tổng hợp
- 6. 1. 1. đường ống. chuỗi ước tính
- 6. 1. 2. Chuyển đổi mục tiêu trong hồi quy
- 6. 1. 3. Tính năngUnion. không gian đặc trưng tổng hợp
- 6. 1. 4. ColumnTransformer cho dữ liệu không đồng nhất
- 6. 1. 5. Trực quan hóa công cụ ước tính tổng hợp
- 6. 2. Khai thác tính năng
- 6. 2. 1. Đang tải các tính năng từ dicts
- 6. 2. 2. tính năng băm
- 6. 2. 3. Khai thác tính năng văn bản
- 6. 2. 4. Khai thác tính năng hình ảnh
- 6. 3. tiền xử lý dữ liệu
- 6. 3. 1. Tiêu chuẩn hóa, hoặc loại bỏ trung bình và nhân rộng phương sai
- 6. 3. 2. chuyển đổi phi tuyến tính
- 6. 3. 3. bình thường hóa
- 6. 3. 4. Mã hóa các tính năng phân loại
- 6. 3. 5. rời rạc
- 6. 3. 6. Quy nạp các giá trị còn thiếu
- 6. 3. 7. Tạo các tính năng đa thức
- 6. 3. 8. máy biến áp tùy chỉnh
- 6. 4. Quy nạp các giá trị còn thiếu
- 6. 4. 1. Đơn biến so với. quy nạp đa biến
- 6. 4. 2. Tính năng đơn biến
- 6. 4. 3. Tính năng đa biến
- 6. 4. 4. Người giới thiệu
- 6. 4. 5. gán ghép hàng xóm gần nhất
- 6. 4. 6. Đánh dấu các giá trị quy nạp
- 6. 4. 7. Công cụ ước tính xử lý các giá trị NaN
- 6. 5. Giảm kích thước không giám sát
- 6. 5. 1. PCA. phân tích thành phần chính
- 6. 5. 2. phép chiếu ngẫu nhiên
- 6. 5. 3. tích tụ tính năng
- 6. 6. Phép chiếu ngẫu nhiên
- 6. 6. 1. Bổ đề Johnson-Lindenstrauss
- 6. 6. 2. Phép chiếu ngẫu nhiên Gaussian
- 6. 6. 3. Phép chiếu ngẫu nhiên thưa thớt
- 6. 6. 4. biến đổi nghịch đảo
- 6. 7. Xấp xỉ hạt nhân
- 6. 7. 1. Phương pháp Nystroem để xấp xỉ hạt nhân
- 6. 7. 2. Hạt nhân chức năng cơ sở xuyên tâm
- 6. 7. 3. Hạt nhân bình phương Chi phụ gia
- 6. 7. 4. Skewed Chi Squared Kernel
- 6. 7. 5. Xấp xỉ hạt nhân đa thức thông qua Tensor Sketch
- 6. 7. 6. chi tiết toán học
- 6. 8. Số liệu theo cặp, Mối quan hệ và Hạt nhân
- 6. 8. 1. độ đồng dạng cosin
- 6. 8. 2. nhân tuyến tính
- 6. 8. 3. nhân đa thức
- 6. 8. 4. nhân sigmoid
- 6. 8. 5. hạt nhân RBF
- 6. 8. 6. nhân Laplacian
- 6. 8. 7. hạt nhân Chi bình phương
- 6. 9. Biến đổi mục tiêu dự đoán [
y
]- 6. 9. 1. nhị phân hóa nhãn
- 6. 9. 2. mã hóa nhãn
- 6. 1. Đường ống và công cụ ước tính tổng hợp
- 7. Tiện ích tải tập dữ liệu
- 7. 1. bộ dữ liệu đồ chơi
- 7. 1. 1. Bộ dữ liệu giá nhà ở Boston
- 7. 1. 2. Bộ dữ liệu cây Iris
- 7. 1. 3. bộ dữ liệu bệnh tiểu đường
- 7. 1. 4. Nhận dạng quang học của bộ dữ liệu chữ số viết tay
- 7. 1. 5. tập dữ liệu Linnerrud
- 7. 1. 6. Bộ dữ liệu nhận dạng rượu vang
- 7. 1. 7. Bộ dữ liệu wisconsin [chẩn đoán] ung thư vú
- 7. 2. Bộ dữ liệu thế giới thực
- 7. 2. 1. Bộ dữ liệu khuôn mặt Olivetti
- 7. 2. 2. Bộ dữ liệu văn bản 20 nhóm tin
- 7. 2. 3. Bộ dữ liệu nhận dạng khuôn mặt Wild Faces in the Wild
- 7. 2. 4. kiểu che phủ rừng
- 7. 2. 5. Bộ dữ liệu RCV1
- 7. 2. 6. Bộ dữ liệu Kddcup 99
- 7. 2. 7. Bộ dữ liệu Nhà ở California
- 7. 3. bộ dữ liệu được tạo
- 7. 3. 1. Trình tạo để phân loại và phân cụm
- 7. 3. 2. Trình tạo hồi quy
- 7. 3. 3. Máy phát điện cho học tập đa dạng
- 7. 3. 4. Máy phát điện để phân hủy
- 7. 4. Đang tải các bộ dữ liệu khác
- 7. 4. 1. hình ảnh mẫu
- 7. 4. 2. Bộ dữ liệu ở định dạng svmlight/libsvm
- 7. 4. 3. Tải xuống bộ dữ liệu từ openml. kho lưu trữ tổ chức
- 7. 4. 4. Đang tải từ bộ dữ liệu bên ngoài
- 7. 1. bộ dữ liệu đồ chơi
- 8. Tính toán với scikit-learning
- 8. 1. Các chiến lược để mở rộng quy mô tính toán. dữ liệu lớn hơn
- 8. 1. 1. Mở rộng quy mô với các phiên bản sử dụng phương pháp học tập ngoài lõi
- 8. 2. Hiệu suất tính toán
- 8. 2. 1. Độ trễ dự đoán
- 8. 2. 2. Thông lượng dự đoán
- 8. 2. 3. Các mẹo và thủ thuật
- 8. 3. Xử lý song song, quản lý tài nguyên và cấu hình
- 8. 3. 1. song song
- 8. 3. 2. Công tắc cấu hình
- 8. 1. Các chiến lược để mở rộng quy mô tính toán. dữ liệu lớn hơn
- 9. Sự kiên trì của người mẫu
- 9. 1. Tuần tự hóa cụ thể của Python
- 9. 1. 1. Giới hạn về bảo mật và khả năng bảo trì
- 9. 2. Định dạng có thể tương tác
- 9. 1. Tuần tự hóa cụ thể của Python
- 10. Những cạm bẫy phổ biến và thực tiễn được khuyến nghị
- 10. 1. tiền xử lý không nhất quán
- 10. 2. Rò rỉ dữ liệu
- 10. 2. 1. Rò rỉ dữ liệu trong quá trình tiền xử lý
- 10. 2. 2. Cách tránh rò rỉ dữ liệu
- 10. 3. Controlling randomness
- 10. 3. 1. Sử dụng các phiên bản
None
hoặcRandomState
và lặp lại các cuộc gọi tớifit
vàsplit
- 10. 3. 2. Những cạm bẫy và sự tinh tế phổ biến
- 10. 3. 3. Khuyến nghị chung
- 10. 3. 1. Sử dụng các phiên bản