Skip to content
Showing 1-4 of 4 items.
@renovate
Admin 19/11/2021 11:10
Knowledge Distillation – Chắt lọc tri thức từ những mô hình thành công

Giới thiệu Khi nhắc tới việc cải thiện hiệu suất của các tác vụ học máy, chắc hẳn các bạn sẽ nghĩ tới 1 cách đơn giản nhất chính là đào tạo nhiều mô hình trên cùng 1 tập dữ liệu, sau đó tính trung bình dự đoán của chúng hoặc chọn ra mô hình có độ chính xác tốt nhất (thông thường là lấy trung bình dự đoán). Tuy nhiên cách này tức là mình sẽ sử dụng toàn bộ các mô hình, chưa...

Knowledge Distillation Machine Learning Deep Leanring Transfer Learning