在超级神冈大学使用核去激发γ射线测量中微子和反中微子氧的中性类准弹性相互作用,以从T2K中微子(抗中微子)的14.94(16.35)×1020质子对靶暴露的数据中识别类似信号的相互作用。 )光束。 测得的氧核通量平均截面为⟨σν-NCQE⟩= 1.70±0.17(stat。)-0.38 + 0.51(syst。)×10-38 cm2 /氧气,通量平均能量为0.82 GeV,⟨ 中微子和反中微子的σν-NCQE⟩= 0.98±0.16(stat。)-0.19 + 0.26(syst。)×10-38 cm2 /氧气,通量平均能量为0.68 GeV。 这些结果是迄今为止最精确的结果,抗中微子的结果是该通道的首次横截面测量。 将它们与各种理论预测进行比较。 还讨论了目前和将来的水切伦科夫探测器对搜寻超新星遗迹中微子的背景评价的影响。
2026-03-15 21:34:35 1.59MB Open Access
1
在s = 13 $$ \ sqrt {s} = 13 $$ TeV的pp碰撞下,在Z玻色子的中微子衰变通道中研究了与高能光子相关的Z玻色子的产生(Zγ产生)。 该分析使用的数据样本是2015年和2016年在大型强子对撞机上由ATLAS探测器收集的具有36.1fb-1的综合光度。通过要求显着的横向动量(p T)来选择Z玻色子无形衰减的候选Zγ事件。 双中微子系统与具有大横向能量(ET)的单个孤立光子结合。 Zγ的产生速率是根据光子E T,双中微子系统P T和射流多重性测量的。 在光子E T大于600 GeV的Zγ生产中,正在寻找异常的三重玻色子-玻色子耦合的证据。 相对于标准模型预期,没有观察到过量,并且对ZZγ和Zγγ耦合的强度设置了上限。
2026-03-15 19:22:24 828KB Open Access
1
大块中微子是马约拉纳还是狄拉克粒子,尚待实验确定。 在这方面,最近有人建议在将来的中微子俘获β衰变核(例如,βe + H3→He3)的中微子捕获实验中,检测左旋中微子βL和右旋抗中微子βR的宇宙中微子背景。 (对于PTOLEMY实验而言,+ eâˆ)可能会区分Majorana和Dirac中微子,因为在前一种情况下捕获率是后者的两倍。 在本文中,我们假设惯用的中微子是狄拉克粒子,并且右手中微子γR和左手反中微子βL都可以在早期的宇宙中有效产生,因此我们研究了右手中微子对捕获率的可能影响。 事实证明,由于存在遗留的ÂR和ÂÂL,总密度为95 cm 3,因此捕获率最多可以提高28%,而密度应与336 cm 3的密度进行比较 3宇宙中微子背景。 实际上,增强作用受到中微子世代有效数目的最新宇宙学和天体物理学界限的限制,在95%置信度下,Neff = 3.143.10.43 + 0.44。 为了说明,已经提出了两种可能的方案,用于在早期宇宙中热产生右旋中微子。
2026-03-15 13:19:41 464KB Open Access
1
Pangolin.Professional.Edition.v3.2.5 + 注册机。
2026-03-14 08:52:28 14.39MB Pangolin SQL注入检测
1
从GitHub下载YOLOv26模型权重文件时,由于网络原因,常常遇到下载速度缓慢甚至中途断开,导致需要反复重试的问题。为方便大家快速获取和使用,我已将下载好的文件进行整理打包,并在此分享,以提高下载效率。 压缩包内文件列表包括:yolo26n.pt、yolo26s.pt、yolo26m.pt、yolo26l.pt 文件名中的“n”、“s”、“m”、“l”通常对应不同规模与复杂度的模型,分别代表nano、small、medium、large版本。不同规模的模型适用于多样的性能需求和硬件环境,用户可根据自身项目的实时性要求与计算资源灵活选择。
2026-03-13 10:05:17 108.7MB 目标检测
1
PET透明塑料瓶缺陷检测数据集VOC+YOLO格式包含366张图像,涵盖四种不同类别。具体而言,这些类别包括“pet_blackspot”(黑点缺陷)、“pet_burr”(毛刺缺陷)、“pet_scratch”(划痕缺陷)和“pet_unformed”(未形成完全缺陷)。数据集采用Pascal VOC和YOLO两种标注格式,提供了相应的.jpg图片以及对应的.xml文件和.txt文件。每张图片都有一个对应的标注文件,这些标注文件用于机器学习和深度学习模型的训练,以检测PET透明塑料瓶的缺陷。 在该数据集中,标注的总框数达到1608个,平均分布于四种缺陷类别中。其中,“pet_scratch”类别拥有最多的标注框数,共638个;其次是“pet_blackspot”类别,拥有668个;“pet_unformed”类别有247个;而“pet_burr”类别则有55个。这样的分布有助于模型在学习过程中更好地识别和区分不同的缺陷类型。 标注过程中使用了labelImg工具,这是一种常用的图像标注软件,能有效地为图像中的每个对象绘制边界框,并为这些框分类。这一步骤对机器学习算法而言至关重要,因为良好的标注质量直接影响到模型的训练效果和最终的检测精度。 需要注意的是,尽管该数据集被认真标注,但数据集提供方并不对由此训练出来的模型精度或性能承担任何责任。换言之,使用者需要根据自己的应用需求评估模型表现,并可能需要对模型进行进一步的优化和调整。 数据集的格式设计是为了方便研究人员和开发人员将数据用于各种目标检测框架,尤其是YOLO(You Only Look Once)系统。YOLO是一个流行的实时目标检测系统,因其速度和准确率而在工业界广泛应用。VOC格式则是一个广泛被接受的标准格式,使得数据集可以适用于大多数机器学习框架。 在实际应用中,数据集可以用于训练模型识别PET透明塑料瓶生产过程中的常见缺陷,从而提升产品质量控制。在智能制造和自动化检测领域,这种数据集的使用能够显著提高检测效率和准确性,减少人工检测的成本和错误率。 在使用该数据集时,开发者应该注意不同格式文件之间的对应关系。YOLO格式需要的标注是根据labels文件夹内的classes.txt文件来确定类别顺序的,这有助于在训练过程中正确地识别各个缺陷类型。此外,开发者还需自行确保训练数据的质量,包括图片清晰度、边界框准确性和类别标注的合理性,这些都是决定最终模型性能的关键因素。 数据集附带的图片预览和标注例子能够帮助理解数据集的标注质量和结构,从而为使用该数据集进行机器学习项目提供参考。开发者可以借助这些样例来验证和调整自己的标注流程,确保最终模型能够准确识别出PET塑料瓶的各种缺陷。
2026-03-12 22:44:01 2.21MB 数据集
1
本文介绍了YOLOv11与IGAB(低光照增强)技术的结合,突破了低光图像增强与实时物体检测的极限。通过精准识别和清晰呈现,该技术显著提升了夜间视觉智能的应用效果,可广泛应用于目标检测各领域。文章详细阐述了Retinexformer这一基于Transformer的低光图像增强算法,其通过一阶段Retinex框架(ORF)和照明引导的Transformer(IGT)有效建模图像退化部分,并在多个数据集上超越了现有最先进方法。实验结果表明,Retinexformer在低光图像增强和物体检测任务中表现出色,具有显著的实际应用价值。 在计算机视觉领域,目标检测技术一直是研究的热点。尤其是近年来,随着深度学习技术的快速发展,目标检测算法取得了突破性的进展。YOLO(You Only Look Once)系列算法因其速度快、准确率高等特点,在实时物体检测领域占有重要地位。然而,在低光照环境下,目标检测的性能往往大打折扣,主要是由于低光条件下图像的可见度和对比度下降,这给目标检测带来了极大的挑战。 为了提高低光照环境下的目标检测性能,科研人员将目光转向了图像增强技术。IGAB(Image Enhancement with Global and Local Attentive Blocks)是一种针对低光图像增强的技术,它通过引入全局和局部注意力机制,有效地改善了图像质量,特别是增强了图像中的细节和边缘部分,从而为后续的目标检测任务提供了更清晰的图像输入。 YOLOv11与IGAB技术的结合,正是基于这样的背景而提出的。YOLOv11在目标检测上采用了一种新颖的网络架构,旨在提高检测速度和准确性,同时减少计算成本。而IGAB作为图像增强技术,能够针对性地处理低光照问题,两者结合后,不仅提升了图像质量,还保持了YOLOv11在实时性上的优势,使得在夜间或者光线昏暗的环境中依然能够实现高效准确的目标检测。 文章中提到的Retinexformer算法,它基于Transformer架构,将一阶段Retinex框架(ORF)与照明引导的Transformer(IGT)相结合,有效模拟了图像退化过程。Retinex理论假设图像可以分解为反射率和照明两个部分,通过重建照明和反射率来恢复图像的真实表现。而Transformer则是一个强大的序列到序列的模型,能够捕捉长距离的依赖关系,非常适合处理图像这种高维数据。将这两种模型融合在一起,Retinexformer不仅能够处理低光照图像增强任务,还能够提升图像中的目标特征,为下游的目标检测任务提供了更为丰富的信息。 在多个数据集上的实验结果证明了Retinexformer算法的有效性。该算法不仅在低光照图像增强任务上超越了现有的先进技术,而且在目标检测任务中也展现了优异的性能。这表明Retinexformer对于改善夜间视觉智能应用效果有着显著的实际应用价值。 YOLOv11与IGAB技术的结合,以及Retinexformer算法的提出和验证,为解决低光照条件下的目标检测问题提供了新的思路和有效的技术手段。这对于推动计算机视觉技术的发展,特别是在夜间或低光照环境下的应用具有重要的意义。
2026-03-12 20:37:50 3KB 目标检测 Transformer 计算机视觉
1
UVW对位平台与Halcon联合C#编程在自动化视觉检测与定位领域的应用。首先简述了UVW对位平台的功能及其应用场景,接着讲解了如何在C#项目中引入Halcon库并进行图像获取与处理。随后展示了如何通过Halcon的算法进行目标识别与定位,并最终通过UVW对位平台实现精确的对位控制。文中还提供了具体的代码示例,帮助读者更好地理解和实践。 适合人群:从事自动化视觉检测与定位的技术人员,尤其是有一定C#编程基础和机器视觉经验的研发人员。 使用场景及目标:适用于需要进行高精度视觉检测与定位的工业自动化项目,旨在帮助技术人员掌握UVW对位平台与Halcon联合编程的方法,提升项目的实施效果。 其他说明:本文不仅提供理论指导,还包括大量实用的代码片段和实践经验分享,有助于读者在实际工作中快速上手并解决问题。
2026-03-12 15:37:51 242KB
1
UVW对位平台与Halcon联合C#编程在自动化视觉检测与定位领域的应用。首先简述了UVW对位平台的功能及其应用场景,接着讲解了如何在C#项目中引入Halcon库并进行图像处理、目标识别与定位以及对位控制的具体实现步骤。文中还提供了具体的代码示例,帮助读者更好地理解和掌握这一组合方案的实际操作方法。最后,通过对代码实践的总结,强调了在实际项目中应注意的关键点和技术细节。 适合人群:从事自动化视觉检测与定位工作的工程师和技术人员,尤其是有一定C#编程基础并对机器视觉感兴趣的开发者。 使用场景及目标:适用于希望深入了解UVW对位平台与Halcon联合C#编程的技术人员,旨在提升他们在自动化视觉检测与定位方面的能力,掌握从图像获取到对位控制的完整流程。 其他说明:本文不仅提供理论指导,还附有详细的代码示例,便于读者在实践中验证所学知识。同时,鼓励读者在实际工作中不断优化和完善代码,以适应不同的应用场景。
2026-03-12 15:36:34 276KB
1
本文详细介绍了使用Python-OpenCV实现网球目标检测的两种方法:霍夫变换和颜色分割法。霍夫变换通过检测圆形轮廓来识别网球,适用于轮廓清晰的场景,但易受其他圆形物体干扰。颜色分割法则基于HSV颜色空间,通过提取网球的特定颜色范围来识别,性能更稳定但受摄像头质量影响。文章还提供了两种方法的代码实现和算法流程,并分析了各自的优缺点,为嵌入式系统上的实时网球检测提供了实用解决方案。 在现代计算机视觉领域,目标检测是其核心的研究方向之一。随着技术的不断进步,目标检测的方法日益多样化,其中霍夫变换和颜色分割法是两种常见的检测技术。本项目主要应用了Python语言和OpenCV库来实现网球的检测,提供了一种有效的方法来追踪运动中的球类物体。 霍夫变换是一种在图像中识别简单形状的数学算法,其原理是利用极坐标变换将图像空间映射到参数空间,再在参数空间中通过累加器统计方法来检测图像中的特定形状。在网球检测中,霍夫变换主要用来识别圆形轮廓,从而识别出网球。这种方法的优点在于处理速度快,而且能够很好地在简单的场景中定位圆形物体。然而,霍夫变换也有其局限性,例如它容易受到其他圆形物体的干扰,这可能会导致错误的检测结果。此外,霍夫变换对噪声较为敏感,因此在复杂背景下准确识别网球成为一项挑战。 颜色分割法则是另一种常用的检测技术,它利用颜色信息来识别和分割图像中的目标。具体到本项目,它基于HSV颜色空间进行操作,因为HSV颜色模型更符合人眼观察颜色的方式。在该颜色模型中,通过提取网球的特定颜色范围,可以有效地分割出网球。这种方法的优点在于,相对于霍夫变换,它对环境的适应性更强,不易受其他物体干扰。然而,颜色分割法的效果往往受限于摄像头的捕获质量以及光线条件。在不同的光照环境下,网球的HSV值可能会发生变化,这需要动态调整颜色阈值来适应不同的情况。 为了实现网球的实时检测,本项目提供了两种方法的代码实现和详细的算法流程。通过比较两种方法的优缺点,开发者可以根据实际应用场景选择更为适合的技术路线。此外,这些算法还为嵌入式系统上的实时网球检测提供了实用的解决方案。在实际应用中,这些算法可以嵌入到运动视频分析系统中,对于提升网球训练的效率和质量具有重要的实际意义。 为了更好地适应不同的检测环境,未来的网球检测技术可以考虑将霍夫变换和颜色分割法相结合,利用它们各自的优点来提高整体的检测准确性和鲁棒性。例如,在颜色分割法确定大致目标位置后,可以使用霍夫变换对这些区域进行进一步的验证。这种融合方法可能会在复杂的现实场景中提供更好的检测效果。 本项目通过Python和OpenCV库为网球检测提供了一套完整的解决方案,对于那些希望在计算机视觉领域进一步探索目标检测技术的开发者来说,该项目无疑是一个宝贵的资源和参考。无论是在学术研究还是实际应用中,本项目的方法都具有重要的价值和意义。
2026-03-12 11:17:09 120KB 计算机视觉 OpenCV 目标检测
1