可靠性预计看似很理论很体系,但是实际项目感觉没啥用?

英炜硬十 2024-09-17 15:46:39

电路板的可靠性预计通常是基于电子元器件的失效率进行的。常见的做法是根据每个元器件的失效率模型(如MIL-HDBK-217、Telcordia SR-332等标准),结合元器件的使用环境、应力水平和运行时间来计算整个电路板的可靠性指标,如平均故障间隔时间(MTBF)或失效率(FIT,Failures in Time)。

这种基于元器件失效率的可靠性预计主要涉及以下几个步骤:

元器件级别的失效率计算:每个元器件都有特定的失效率模型,考虑其工作条件,如温度、应力、电流、电压等。这些失效率模型可能会受到以下几个因素的影响:

环境因素:温度、湿度等对元器件失效率的影响很大。高温通常会显著增加失效率。

器件极限温度承受能力是高压线,超过后失效率剧增,使用中不允许超过。在极限温度以内,器件失效率与温度仍然强相关,失效率随着温度升高而增加。

问题:是否存在一个安全温度点,只要不超过这个温度点,失效率与温度关系就不密切?

答案:理论与实际表明,多数情况下不存在这样的温度点。器件的失效率始终与温度相关,只是高于某个温度点之后,失效率会急剧上升,出现拐点。

降额设计就是使元器件或产品工作时承受的工作应力适当低于元器件或产品规定的额定值,从而达到降低基本失效率(故障率),提高使用可靠性的目的。20世纪50年代,日本人发现,温度降低10℃,元器件的失效率可降低一半以上。实践证明,对元器件的某些参数适当降额使用,就可以大幅度提高元器件的可靠性。因电子产品的可靠性对其电应力和温度应力比较敏感,故而降额设计技术和热设计技术对电子产品则显得尤为重要。

一款流量计的电源前期设计,未采用降额设计,其调整管仅按计算其功耗为0.8W(在常温20℃~25℃),选用额定功率为1W的晶体管。结果在调试时和在用户使用中发生故障频繁。分析其原因主要是该管额定功耗1W时的环境温度为25℃,而实际工作时该管处于的环境温度为60℃,此管此时实际最大功耗已达1W。经可靠性工程师分析和建议,选用同参数2W的晶体管,这时降额系数S≈0.5。因而产品的故障很快得到解决。

电气应力:电路中元器件的实际工作条件(如电流、电压)相对于其额定值的偏离程度也会影响失效率。

使用时间:失效率通常会随着时间增加,尤其在产品的“浴盆曲线”早期(早期失效期)和后期(损耗失效期)更加明显。

失效率模型的应用:不同的失效率标准采用不同的模型。例如:

MIL-HDBK-217:美国军方标准,包含了广泛的元器件失效率模型,涵盖多种环境和应力因素。

Telcordia SR-332:主要用于通信设备的可靠性预计,常用于工业和商用电子设备。

FIT(Failures in Time):每十亿小时的故障次数,常用于现代商业标准。

系统级别可靠性预计:通过汇总电路板上所有元器件的失效率,可以计算整个电路板的失效率或MTBF。通常采用“串联系统模型”来计算,即假设所有元器件串联工作,如果一个元器件失效,整个系统也会失效:

λsys=λ1+λ2+…+λn\lambda_{sys} = \lambda_1 + \lambda_2 + \ldots + \lambda_nλsys=λ1+λ2+…+λn

其中,λsys\lambda_{sys}λsys是电路板的总失效率,λ1,λ2,…,λn\lambda_1, \lambda_2, \ldots, \lambda_nλ1,λ2,…,λn是各个元器件的失效率。

MTBF的计算:根据总失效率,可以计算平均故障间隔时间(MTBF):

MTBF=1λsysMTBF = \frac{1}{\lambda_{sys}}MTBF=λsys1

这个值反映了系统在统计上平均无故障工作的时间。

虽然这种方法是可靠性预计的主流手段,但它有以下局限性:

未考虑系统级故障:元器件的失效并不总是系统级故障的唯一原因。连接、焊接、热管理等也会导致系统失效,但这些因素通常在预计中被忽略。

环境复杂性:实际运行环境可能比预计模型中的假设要复杂得多,导致实际可靠性与预计值存在显著差距。

元器件失效模式不全:预计模型通常只涵盖一些常见的失效模式,而许多不常见的故障模式,如系统级噪声、电磁干扰、机械应力等,往往无法在预计中反映出来。

因此,虽然基于电子元器件失效率的预计在设计初期有助于评估系统可靠性,但仍需通过实际测试和验证来确认电路板的可靠性。

可靠性预计(Reliability Prediction)在实际设计中的效用常常受到质疑,原因可能包括以下几个方面:

模型假设不够精确:大多数可靠性预计模型(如MIL-HDBK-217、Telcordia等)基于统计数据和历史经验,而这些数据往往是对大量组件的统计平均值,不能反映每个具体应用场景的独特性。它假设的使用环境、应力水平等可能与实际使用情况不符,导致预计结果偏差。

不考虑实际工作条件:很多可靠性预计方法没有充分考虑到组件在实际操作中的复杂工作条件,如温度、湿度、电气应力等因素。在现实中,组件通常工作在特定的环境下,远比预计中的静态或理想条件复杂。

难以反映实际故障模式:实际中的许多故障是复杂的系统级别问题,可能涉及多个子系统、接口或环境因素。传统的可靠性预计主要针对单个组件进行,难以反映系统级别的问题或实际运行中的意外情况,如机械磨损、振动、电磁干扰等。

设计动态变化:在快速发展的技术环境中,设计往往在产品开发的过程中不断修改,可靠性预计基于早期的设计进行计算,无法适应设计变更,导致预计结果在实际生产中失去参考价值。

不适用于新技术:可靠性预计模型通常基于历史数据,但在新技术、材料或生产工艺中缺乏足够的统计数据进行预计。例如,新的半导体技术、3D打印等领域,可能没有成熟的可靠性模型来支撑。

过度依赖数据:可靠性预计依赖于组件的故障数据和统计模型,但实际故障常常由设计缺陷、制造问题或用户误操作引发。这些问题无法通过可靠性预计中的公式和数据直接推导出来。

实际设计中的设计缺陷更多:由于我们设计过程中,例如热设计不满足要求,结构本身的震动特性有缺陷,芯片的电应力、温度应力不满足要求,电源纹波过大,信号与时钟时序不满足全温度范围的要求,等等设计缺陷在设计测试阶段没有完全被暴露和解决,导致带病出货。往往还没到芯片常规失效率的程度,系统本身就挂了,这是当前很多产品的主要矛盾。

在实际设计中,更有效的方法往往是可靠性测试和加速寿命试验,通过模拟实际的工作条件或加速应力测试来评估产品在特定环境下的性能表现。这些测试可以捕捉到预计无法预测的实际使用中的问题。

因此,可靠性预计更多是作为一个参考工具,帮助设计人员初步评估系统的潜在问题,而不是取代实际测试和设计优化的手段。

0 阅读:3

英炜硬十

简介:感谢大家的关注