Skip to content
Showing 1-2 of 2 items.
@renovate
Admin 08/03/2021 16:20
[B5'] Data-Free Learning of Student Networks

Đây là một bài trong series Báo khoa học trong vòng 5 phút. Nguồn Được viết bởi Chen et. al, đại học Bắc Kinh. Được đăng ở ICCV '19. https://openaccess.thecvf.com/content_ICCV_2019/papers/Chen_Data-Free_Learning_of_Student_Networks_ICCV_2019_paper.pdf Ý tưởng chính Như với Knowledge Distillation truyền thống thì chúng ta sẽ train với data trong domain với label từ mô hình dạy (teacher model), tuy nhiên trong trường hợp chúng...

Happy New Year Knowledge Distillation Data-Free Generative Adversarial Network
@renovate
Admin 19/11/2021 11:10
Knowledge Distillation – Chắt lọc tri thức từ những mô hình thành công

Giới thiệu Khi nhắc tới việc cải thiện hiệu suất của các tác vụ học máy, chắc hẳn các bạn sẽ nghĩ tới 1 cách đơn giản nhất chính là đào tạo nhiều mô hình trên cùng 1 tập dữ liệu, sau đó tính trung bình dự đoán của chúng hoặc chọn ra mô hình có độ chính xác tốt nhất (thông thường là lấy trung bình dự đoán). Tuy nhiên cách này tức là mình sẽ sử dụng toàn bộ các mô hình, chưa...

Knowledge Distillation Machine Learning Deep Leanring Transfer Learning