資源簡介
神經網絡最全激活函數,包括sigmoid,tanh,ReLU,ELU,PReLU,softplus,liner等激活函數,應有盡有
代碼片段和文件信息
function?Output?=?Active_Function(Input?config)
%UNtitleD?此處顯示有關此函數的摘要
%???此處顯示詳細說明
active_function?=?config.active_function;
active_function_alpha?=?config.active_function_alpha;
switch(active_function)
????case?‘sigmoid‘
????????Output?=?1?./?(1?+?exp(-Input));
????case?‘tanh‘
????????Output?=?2?./?(1?+?exp(-2?*?Input))?-?1;
????case?‘ReLU‘
????????Output?=?zeros(size(Input));
????????Output(Input?>?0)?=?Input(Input?>?0);
????????Output(Input?<=?0)?=?0;
????case?‘ELU‘
????????Output?=
評論
共有 條評論