如何说服别人做网站ui培训费用
2026/3/16 15:02:09 网站建设 项目流程
如何说服别人做网站,ui培训费用,wordpress图片存储方案,建设网站网页激活函数详解#xff1a;从感知机到神经网络的核心组件 一、感知机的局限性#xff1a;阶跃函数 在感知机模型中#xff0c;我们使用阶跃函数作为激活函数#xff1a; def step_function(x):return np.array(x 0, dtypenp.int)阶跃函数的特点#xff1a; 二元输出从感知机到神经网络的核心组件一、感知机的局限性阶跃函数在感知机模型中我们使用阶跃函数作为激活函数defstep_function(x):returnnp.array(x0,dtypenp.int)阶跃函数的特点二元输出非0即1类似竹筒敲石不连续性输出在阈值处突变缺乏梯度信息不利于反向传播学习二、神经网络的突破Sigmoid函数神经网络采用Sigmoid函数作为激活函数defsigmoid(x):return1/(1np.exp(-x))Sigmoid函数的优势连续性输出随输入连续变化0~1之间可微性处处可导便于梯度计算平滑性类似水车根据输入量调整输出关键特性对比# 两种函数输出对比x_values[-2,-1,0,1,2]sigmoid_output[0.12,0.27,0.50,0.73,0.88]step_output[0,0,0,1,1]三、非线性激活函数的重要性为什么需要非线性线性函数的局限如果激活函数是线性的多层的网络效果等同于单层例如h(x)cxh(x) cxh(x)cx三层网络yc3xy c^3xyc3x等价于yaxy axyax表达能力的提升非线性激活函数使神经网络可以逼近任意复杂函数四、现代神经网络ReLU函数近年来ReLU函数成为主流选择defrelu(x):returnnp.maximum(0,x)ReLU的优势计算简单没有指数运算计算速度快缓解梯度消失在正区间梯度恒为1稀疏激活部分神经元输出为0提高效率五、可视化对比importmatplotlib.pyplotaspltimportnumpyasnp xnp.arange(-5,5,0.1)y_stepstep_function(x)y_sigmoidsigmoid(x)y_relurelu(x)# 绘制三种函数对比plt.figure(figsize(12,4))plt.subplot(1,3,1)plt.plot(x,y_step)plt.title(Step Function)plt.subplot(1,3,2)plt.plot(x,y_sigmoid)plt.title(Sigmoid Function)plt.subplot(1,3,3)plt.plot(x,y_relu)plt.title(ReLU Function)plt.tight_layout()六、实践建议如何选择激活函数早期研究Sigmoid/ Tanh函数现在较少使用默认推荐ReLU及其变体Leaky ReLU, PReLU等特殊情况二分类输出层Sigmoid多分类输出层Softmax需要负值输出Tanh梯度表现对比Sigmoid输出在0~1梯度在0.25以下易梯度消失Tanh输出在-11梯度在01之间ReLU正区间梯度为1负区间梯度为0dead ReLU问题七、深入理解从生物学角度神经元的全有或全无定律 → 阶跃函数神经递质的连续释放 → Sigmoid函数神经元的阈值特性 → ReLU函数从数学角度激活函数引入了非线性变换使神经网络成为通用函数逼近器决定了网络的收敛性和表达能力八、代码实践示例importnumpyasnpclassActivationFunctions:激活函数实现类staticmethoddefsigmoid(x):Sigmoid激活函数return1/(1np.exp(-x))staticmethoddefsigmoid_derivative(x):Sigmoid导数returnx*(1-x)staticmethoddefrelu(x):ReLU激活函数returnnp.maximum(0,x)staticmethoddefrelu_derivative(x):ReLU导数returnnp.where(x0,1,0)staticmethoddeftanh(x):Tanh激活函数returnnp.tanh(x)staticmethoddeftanh_derivative(x):Tanh导数return1-x**2# 使用示例xnp.array([-2,-1,0,1,2])activationsActivationFunctions()print(Sigmoid:,activations.sigmoid(x))print(ReLU:,activations.relu(x))print(Tanh:,activations.tanh(x))总结激活函数是神经网络的核心组件它引入非线性使网络可以学习复杂模式决定信息流控制信号的传递和转换影响训练梯度传播和收敛速度从阶跃函数到Sigmoid再到ReLU激活函数的发展反映了深度学习领域的进步。理解不同激活函数的特性和适用场景是构建高效神经网络模型的基础。思考题在实际项目中你会如何根据具体任务选择激活函数欢迎在评论区分享你的经验

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询