« Back to Glossary Index

Activation function

Uploaded by thanhhn

Hàm kích hoạt (activation function) là một thành phần thiết yếu trong mạng nơ-ron nhân tạo. Nó là một hàm toán học được áp dụng lên đầu ra của mỗi nơ-ron để quyết định liệu nơ-ron đó có nên được “kích hoạt” hay không, và truyền tín hiệu đến các nơ-ron ở lớp tiếp theo với cường độ bao nhiêu. Vai trò chính của hàm kích hoạt là đưa tính phi tuyến vào mô hình.

Vai trò của Hàm Kích hoạt

  • Giới thiệu Tính Phi Tuyến: Nếu không có hàm kích hoạt, mọi phép tính trong mạng nơ-ron chỉ là các phép biến đổi tuyến tính (linear transformations). Khi đó, dù bạn có thêm bao nhiêu lớp đi chăng nữa, toàn bộ mạng vẫn chỉ hoạt động như một mô hình hồi quy tuyến tính (linear regression model) đơn giản. Hàm kích hoạt giúp mạng nơ-ron có thể học và mô hình hóa các mối quan hệ phức tạp, phi tuyến tính trong dữ liệu, từ đó giải quyết các bài toán phức tạp hơn như nhận dạng hình ảnh, xử lý ngôn ngữ tự nhiên, v.v.
  • Hỗ trợ Backpropagation: Hầu hết các hàm kích hoạt đều có đạo hàm (derivative), cho phép thuật toán lan truyền ngược (backpropagation) tính toán gradient để cập nhật trọng số (weights) của mạng nơ-ron trong quá trình huấn luyện.

Các Loại Hàm Kích Hoạt Phổ Biến

Có nhiều loại hàm kích hoạt khác nhau, mỗi loại có ưu và nhược điểm riêng. Dưới đây là một số loại phổ biến nhất:

  • Sigmoid: Hàm Sigmoid biến đổi đầu vào thành một giá trị nằm trong khoảng từ 0 đến 1. Nó từng rất phổ biến, nhưng hiện nay ít được sử dụng trong các lớp ẩn do dễ gặp vấn đề “gradient bão hòa” (vanishing gradient), khiến quá trình huấn luyện chậm lại.
  • Hàm Tanh (Hyperbolic Tangent): Giống như Sigmoid, Tanh cũng là một hàm hình chữ S, nhưng nó biến đổi đầu ra thành một giá trị nằm trong khoảng từ -1 đến 1. Nó thường được ưu tiên hơn Sigmoid vì có giá trị trung bình bằng 0, giúp quá trình huấn luyện ổn định hơn.

Found this term helpful?

Support me on Ko-fi