For a long time, we were training machine learning models by optimizing surrogate functions or log-likelihood rather than evaluation functions. For example, while the evaluation is the 0-1 loss, the
Xin chào các bạn! Ta lại tiếp tục câu chuyện về machine learning. Ở các bài viết trước, ta đã bỏ rất nhiều công sức để xây dựng được
Xin chào các bạn, hôm nay chúng ta sẽ hoàn tất những hiểu biết về overfitting và đưa ra một thuật toán supervised learning hiệu quả hơn ERM để chống
Xin chào các bạn, chúng ta lại trở lại với machine learning. Trước khi bắt đầu, mình xin thú nhận là trong bài viết trước, nhằm mục đích đơn
Mình có suy nghĩ về việc viết một bài hướng dẫn tương tự như bên lập trình. Tuy nhiên, mình lại thấy rằng đưa ra một loạt các paper
Let $X$, $K$ be $m \times n$ matrices. The convolution of $X$ and $K$ is equivalent to element-wise multiplying them in Fourier domain: $$ K \ast X = f^{-1}(f(K) \cdot
Đây là tài liệu được viết bởi mình và bạn Phạm Hy Hiếu về những vấn đề cơ bản nhất của mạng neuron. Mong là tài liệu này
Trong bài viết này mình sẽ cố gắng trả lời ngắn gọn và đơn giản những câu hỏi mà mình nghĩ rằng sẽ có ích đối với các bạn đặc
(Tựa bài cũ là "Tôi đã học Machine Learning như thế nào?" Mình quyết định đổi tên thành "Machine Learning 101" cho ngắn gọn dễ nhớ, và cũng dễ bắt
Xem tiếp phần 2 Biển học là vô bờ. Hai chữ "vô bờ" bản thân nó vốn ám chỉ rằng không có đích đến rồi. Bạn rong ruổi trên