Bài đăng

Tinh chỉnh Batch Size trong Deep Learning

  Tinh chỉnh Batch Size trong Deep Learning: Dựa trên Kiến trúc Mô hình, Dữ liệu, Số Epoch và Thuật toán Tối ưu Batch size là siêu tham số quan trọng ảnh hưởng đến tốc độ học và khả năng tổng quát hóa của mô hình học sâu. Việc lựa chọn batch size phù hợp cần xem xét nhiều yếu tố, từ kiến trúc mô hình (đặc biệt là số lượng tham số), độ lớn của tập dữ liệu, số lượng epoch huấn luyện, cho đến thuật toán tối ưu sử dụng (ví dụ: SGD hay Adam). Dưới đây, chúng ta sẽ phân tích cách điều chỉnh batch size dựa trên những yếu tố này, dựa trên kết quả nghiên cứu đã công bố. Ảnh hưởng của Kiến trúc Mô hình (số lượng tham số) đến Batch Size Kiến trúc mô hình, đặc biệt là số lượng tham số, quyết định phần nào giới hạn và hiệu quả của batch size. Mô hình có nhiều tham số thường đòi hỏi bộ nhớ lớn hơn, do đó batch size tối đa có thể bị giới hạn bởi dung lượng GPU . Ví dụ, mô hình ngôn ngữ lớn như BERT với hàng trăm triệu tham số thường chỉ cho phép batch size nhỏ (vd. 16 hoặc 32) khi fine-tune...
Hình ảnh
  Từ SQL đến NoSQL I. Giới thiệu tổng quan: Tại sao mình tìm đến NoSQL và MongoDB? Chào các bạn, mình là một người đang trên con đường học và làm việc với dữ liệu. Gần đây, trong một dự án cá nhân, mình đã gặp phải một vấn đề khá quen thuộc với những ai đã từng làm việc với cơ sở dữ liệu quan hệ (SQL). Việc phải JOIN quá nhiều bảng để lấy thông tin hoàn chỉnh cho một đối tượng, ví dụ như profile người dùng, kèm theo đó là cấu trúc dữ liệu thay đổi liên tục khi thêm tính năng mới, đã khiến mình cảm thấy mô hình SQL trở nên cứng nhắc và chậm chạp. Hãy tưởng tượng, để lấy thông tin của một sinh viên, bạn cần truy vấn bảng Student để lấy tên, sau đó JOIN với bảng Mark để lấy điểm, rồi lại JOIN với bảng Subject để biết tên môn học. Mọi thứ trở nên phức tạp rất nhanh. Đó là lúc mình quyết định phải tìm một hướng đi mới, một giải pháp linh hoạt hơn. Và hành trình khám phá thế giới NoSQL, cụ thể là MongoDB, của mình đã bắt đầu từ đó. Bài viết này là những ghi chép, tổng hợp của ...