感觉这个模型也有些值得推敲的地方:
首先,当激光脉冲是2ns时,这个时间尺度已经远低于闪烁体的上升时间和下降时间,相当于给系统一个冲击响应,不论期间会产生多少个光子,系统都会认作一个光子,如果光子数非常多,则会导致这个光脉冲的能量变得非常大,产生的脉冲可以会远高于系统内部运放的到轨电压,导致系统饱和,最后只获得一个可能远低于实际脉冲高度的信号。如果是这样的,则这个脉冲的顶部会削掉一部分,此时信号会出现一个比较明显的拐角,这可能会让主信号后面出现若干毛刺。如果信号没有达到到轨电压,则这个拟合的信号与实际辐射强度符合的较好。
其次,装置打出的是一束低能光子流,排除周围介质的吸收,闪烁体对低能射线的探测效率几乎是100%,如果系统对高能射线的探测效率做了修正,即通过算法提高了高能射线的强度,则会把这个低能光子束误认为是一个高能光子,造成测量数值偏大。
再次,还是基于闪烁体对低能射线的探测效率比较高,假设有10个光子同时进入闪烁体,闪烁体对单光子的探测效率为90%,若能谱不发生重叠,则只能这10个光子中每次只探测一个,则概率为C(10,1)*0.9*0.1^9,这个概率还是非常低的,10个同时测到的概率为0.9^10,大约34%。考虑到闪烁体的分辨率,整体能谱基本上糊成一条平滑的曲线了。如果这个情况是气体探测器的话,因为探测效率比较低,则大概率能分辨出能谱。
时段 | 个数 |
---|---|
{{f.startingTime}}点 - {{f.endTime}}点 | {{f.fileCount}} |