Activation Function
Activation Function é uma função usada nos neurônios de uma rede neural para introduzir não-linearidades. Exemplos comuns incluem ReLU, Sigmoid e Tanh.
Exemplo: A função ReLU (f(x) = max(0, x)
) é usada em redes neurais profundas.