成,每个电极的表面积是0.115×0.09m2。稀释容量和浓缩容量分别是0.12×0.1×0.003m3和0.12×0.1×0.006m3。
NaCl(氯化钠)溶液被输入到电渗析池的三个单元格中。阳离子交换膜(CEM)和阴离子交换膜(AEM)分别有阳离子渗透性和阴离子渗透性。两层膜被并排沉浸在溶液中,并有电流通过溶液。正离子迁移到阴极,阴离子迁移到阳极。注入的溶液被划分成两个流。一个是稀释水,另一个是浓缩水。在一定的流速下,可以操作电渗析池去除电离子。
离子在电渗析池中被电解,阴极和阳极发生的反应如下所示: 阳极反应: 2Cl??2e→Cl2↑ H2O?2e→1/2O2↑+2H+ 阴极反应:
2H2O+2e→H2↑+2OH?。
在阳极反应中,生成了Cl2和O2。此外,在阴极反应中生成了H2。这些气体可能增加电渗析池的电阻,因此两个小洞被用来释放电渗析池板上的气体。集中的气流被处理掉,以防止这些气体积聚。电解膜的物理和化学特性列表(表2)。 2.3.电渗析设备安装程序
电渗析设备安装包括注入溶液的一个水槽(TK-01)、直流电源供应器和控制注入溶液的流动速率的两个阀门(GB-01, GB-02)(图3)。电渗析设备的总高度是0.5m。两个集中的浓缩流和稀释流没有循环利用,并为预测和分析电导率收集稀释流。 2.4.实验原理
电渗析过程是膜分离技术之一。根据直接电场电渗析技术利用选择性的离子交换膜将电解质从溶液中分开的能力,以实现稀释、浓缩或纯化溶液的目的(图4)。
2.5. 极限电流密度的测定
极限电流密度(LCD)在电渗析过程中是一个重要参数,用于确定电阻和目前的利用率。通常情况下, 极限电流密度取决于膜、溶液属性、电渗析栈结构以及
3
各种操作参数,如稀释流的速度[23]。极限电流的测量方法是伏安法、pH值法等等。本文用伏安方法来确定极限电流密度,具体步骤如下。
在恒定温度、浓度和流量的情况下,调整电压表按钮并记录每一组的电压和电流。当电压很低时,电流与电压有线性关系。随着电压的增加,电流发生微妙的变化。极限电流是转折点, 我们就得到了极限电流密度。例如,T=35°C,C=0.5g/L,Q=0.5mL/s,随着电压逐渐增加,电流与电压有线性关系。当电流达到0.51A时,电压对电流有轻微影响,所以极限电流即拐点是0.51A(图5)。膜的有效面积是两个0.11×0.09m2,所以极限电流密度是51.515A/m2.
在实验中,工作电流不能超过极限电流。否则电渗析过程中将发生极化,分离百分比的预测也就毫无意义。使用伏安法,在所有的实验条件下获得的极限电流密度(表3)。
为了防止发生电渗析池极化,所有电流被控制限制电流下。在电渗析实验中,极限电流最大值是0.80 A,离子交换膜的有效面积0.11×0.09m2,所以极限电流密度的最大值是80.808A/m2. 2.6.实验数据
实验在极限电流密度下开展(表4)。对四个因素进行研究:进料浓度(0.5 g /
L,1 g / L 和1.5 g / L),稀释舱的流量(0.05毫升/秒,0.25毫升/秒, 0.5毫升/秒,0.75毫升/秒和1毫升/ s),反应温度(20°C,25°C, 30°C,35°C,40°C和45°C),外加电压(2 V,5 V和8 V)。
3.基于BP神经网络算法和改进的BP算法
3.1.BP神经网络
典型BP神经网络是一个全神经网络包括一个输入层、隐藏层和输出层[24,25], 训练过程的目标是调整权值。网络训练是一个无约束非线性最小化问题[26]。研究人员声称,一个隐层的网络所需的任何精度逼近任意连续函数[27-29]。
BP神经网络由向前反馈和误差反向传播两部分组成。向前传播,输入从输入层开始传播,被一些隐藏层处理后到达输出层,输出层的输出预测值与实际输出比较,它们之间的区别是聚合生成的误差。在误差反向传播中,当误差超出误差范围, 误差被调整回传播权值。学习过程一直持续到误差聚合目标值 (图6)。
4
3.2.BP神经网络的构建
有关于BP神经网络的一些预防措施:
(1) 预处理样品。通常样品没有直接使用网络训练,而是从原始数据预处理。实验数据包含一些不确定因素训练。预处理方法是提高训练和测试数据可靠性的必要准备。
(2)优化初始权值。网络的初始权值影响最终的训练结果,影响网络是否能达到可接受的精度。
(3)选择隐藏的图层数和神经元的隐藏图层。隐藏图层和神经元的隐藏图层的选择,是直接影响复杂问题的映射能力的最关键的一步。现在可靠的算法从隐藏层和大量的神经元开始,训练和测试,然后增加它们的数量。比较不同训练和测试样本的结果,选择更合适的隐藏层个数及其神经元。在这项研究中,具有不同神经元隐层的三层神经网络用于这次电渗析实验。
(4)选择训练样本。网络所需的样本取决于复杂程度的映射关系。一般情况下,映射关系越复杂,需要越多训练样本。从所有数据中选择样本时,BPNs需要遵守以下原则:足够数量的、典型的和均匀的。 3.3.改进的BP算法
BPNs基于坚实的理论和严格的推导,然而BPNs包括慢收敛、偶尔出现的局部极值点,所以训练过程中有许多不足之处。在实际应用中,BP算法很难是见效,因此人们提出了一些改进的BP算法,以提高预测能力。有几种方法改进的BP算法,如附加动量方法,自适应学习率方法,灵活的BP算法,等等。在此论文中,自适应学习率方法和灵活的BP算法被用来预测在电渗析过程中的分离百分比并用于与BPNs比较预测能力。 3.3.1.自适应学习算法
BP算法的训练过程受不当学习速率的影响有慢收敛的缺点。BP算法中的权值调整取决于学习速率和斜率。在BP算法中,学习速率是恒定的。事实上,当学习速率较低、训练时间变长,收敛变得较慢。当学习率太高,出现了振荡和分歧,这会造成系统不稳定。自适应学习率如图7中所示。
自适应学习速率的基本原理:当学习速率(η)增加,将造成学习时间缩短;学习速率越高,越难收敛。在这种情况,学习速率应该会减少直到训练过程的收
5
敛。可以通过改变误差和斜率,也可以根据误差函数通过改变学习速率梯度调整学习速率。此外,通过探性地进行调整试可能改变总误差,规则如下所示:
(1)如果的总误差(E)减少,学习速率需要增加。 (2)如果的总误差(E)增加,学习速率需要减少。
当新误差与原来误差的比值超过某一个值时(例如1.04),学习速率迅速下降。
3.3.2.灵活的BP算法
一般来说,用sigmoid函数来将数据从输入层传递到隐藏层。此外,sigmoid函数保持无限输入和有限界内输出。当输入大变量时,sigmoid函数的斜率将接近0。即使梯度发生了微妙的变化,这可能引起权值发生巨大的变化,所以权值逐渐倾斜最佳值,甚至使网络权值在修改过程中停止。
当训练过程振动时,数量可变的权值将会减少。在几个迭代中权值变化方向保持不变时,可变数量的权值将会增加。因此,灵活的BP算法在收敛速度上有超越其他改进BP算法的优势。
4.结果和讨论
BP神经网络和改进的BP算法的设计中,需要确定四个重要方面: 1)神经元传递函数的选择 2)隐藏图层节点的选择 3)学习率增加比率的选择
4)BP神经网络和改进的BP算法的泛化测试
4.1神经元传递函数的选择
传递函数用于彼此相邻的两层中的神经元之间的传递。而且这些传递函数必
须是可诱导的。BP神经网络有一个或多个隐藏层,隐藏层神经元使用Sigmoid传递函数。输出层神经元使用纯线性传递函数且输出可以是任意值。如果输出层神经元的传递函数是Sigmoid传递函数,则整个网络输出会被限制在(?1,1)内。
Sigmoid传递函数包括log-sigmoid和tan-sigmoid两个函数。对于这两个
函数,输入分别映射到(0,1)和(?1,+ 1)。log-sigmoid函数是一个单向传递函数。Tansigmoid函数是一个双向传递函数,并被称为双曲正切函数 (图8)。
6
相关推荐: