我就废话不多说了,大家还是直接看代码吧~ import tensorflow as tf from sklearn.metrics import roc_auc_score def auroc(y_true, y_pred): return tf.py_func(roc_auc_score, (y_true, y_pred), tf.double) # Build Model... model.compile(loss='categorical_crossentropy', optimizer='adam',metrics=['accuracy', auroc]) 完整例子: def a
2021-12-09 20:49:08 40KB AS auc c
1
pMetrics pMetrics 遵循 GNU 通用公共许可证。 有关详细信息,请参阅许可证。 基本计量经济学模型的 Python 实现。 目前提供普通最小二乘法 (OLS)、工具变量 (IV) 和面板模型,具有异方差稳健方差矩阵(默认),以及自举和/或集群稳健标准误差的可能性(特别是面板稳健的 SE)。 这个模块是非常新的和初期的,因此绝对不能保证方法是正确的(尽管许多方法已经使用其他统计程序进行了测试)并且许多细节尚未实施。 也没有文档,尽管代码本身被大量注释并且应该很容易理解。 这只是一个个人项目,因为我对微观计量经济学的其他开源替代方案感到不满。 我把代码放在 GitHub 上,希望有一天它可能对某人有用。 任何错误、问题或提示请告诉我。 2014年8月9日,我们的状态是: 使用 STATA 13 测试了普通最小二乘法,包括异方差稳健性和聚类 SE,发现是正确的。 B
2021-12-07 17:05:09 38KB Python
1
纤毛指标 Prometheus格式的额外Cilium指标的导出器。 extra-cilium-metrics的目的是提供未提供的额外cilium指标。 我们根据其对我们的有用性来挑选额外的指标。 它们的数据由Cilium API提供,但未作为Prometheus指标公开。 指标的收集是同步操作,即,将在/metrics处理程序调用时从cilium代理收集/metrics 。 该应用程序将作为cilium agent k8s pod sidecar运行。 指标清单 名称 描述 remote_cluster_etcd_has_quorum 远程群集的“ cilium-etcd”群集是否具有仲裁 remote_cluster_etcd_total_observed_leases 属于当前Cilium代理的远程群集'cilium-etcd'群集上观察到的租约ID的总数 remote_c
2021-12-05 23:02:52 41KB prometheus cilium Go
1
:green_book: py可读性指标 使用流行的可读性公式和指标对文本的可读性进行评分,包括: , , , , , , Linsear Write , SMOG和SPACHE 。 :green_book: 安装 pip install py-readability-metrics python -m nltk.downloader punkt 用法 from readability import Readability r = Readability ( text ) r . flesch_kincaid () r . flesch () r . gunning_fog () r . coleman_liau () r . dale_chall () r . ari () r . linsear_write () r . smog () r . spache () *注意: text必须包含> = 100个字*
1
用于目标检测的混淆矩阵 ConfusionMatrix类可用于为对象检测任务生成混淆矩阵。 用法 在测试代​​码中,您需要使用适当的参数声明ConfusionMatrix类。 conf_mat = ConfusionMatrix(num_classes = 3, CONF_THRESHOLD = 0.3, IOU_THRESHOLD = 0.5) 该类具有一个名为process_batch的函数,您可以使用它来更新混淆矩阵。 用法示例可以是: conf_mat.process_batch(preds, gt_boxes)其中preds是模型做出的预测,[N,6] x1,y1,x2,y2,置信度,类和gt_boxes是地面真相标签,[M,4] x1,y1,x2 ,y2,班级。 参考 该存储库使用Pytorch存储库中的函数 和 代码与下面的存储库非常相似,该存储库的主要贡献是Co
1
用于kubernetes(k8s)做HPA时提供CPU 和内存指标,Metrics Server 可以通过标准的 Kubernetes API 把监控数据暴露出来,有了 Metrics Server 之后,我们就完全可以通过标准的 Kubernetes API 来访问我们想要获取的监控数据了
2021-11-24 11:06:36 9.92MB k8s
1
Computer Vision Metrics.pdf,计算机视觉图书
2021-11-10 12:07:21 16.8MB 计算机视觉
1
Computer Vision Metrics provides an extensive survey and analysis of over 100 current and historical feature description and machine vision methods, with a detailed taxonomy for local, regional and global features. This book provides necessary background to develop intuition about why interest point detectors and feature descriptors actually work, how they are designed, with observations about tuning the methods for achieving robustness and invariance targets for specific applications. The survey is broader than it is deep, with over 540 references provided to dig deeper. The taxonomy includes search methods, spectra components, descriptor representation, shape, distance functions, accuracy, efficiency, robustness and invariance attributes, and more. Rather than providing ‘how-to’ source code examples and shortcuts, this book provides a counterpoint discussion to the many fine opencv community source code resources available for hands-on practitioners.
2021-11-10 11:24:39 15.76MB Computer Vision Metrics Survey
1
一个从开源项目 综合数据生成项目的指标 网址: : 文档: : 仓库: : 执照: 发展状况: 概述 SDMetrics库提供了一组与数据集无关的工具,用于通过将综合数据库与建模后的真实数据库进行比较来评估综合数据库的质量。 它支持多种数据模式: 单列:比较代表各个列的一维numpy数组。 列对:比较pandas.DataFrame列如何pandas.DataFrame关联(以2组为一组)。 单个表:比较整个表,以pandas.DataFrame表示。 多表:将以python dict表示的多表和关系数据集与以pandas.DataFrame传递的多个表进行pandas.DataFrame 。 时间序列:比较代表事件顺序的表格。 它包括各种指标,例如: 使用统计检验比较实际和合成分布的统计量度。 使用机器学习来尝试区分真实数据和合成数据的检测指标。 效能
2021-11-06 02:25:57 348KB quality metrics synthetic-data Python
1
CNNIQA 以下论文的PyTorch 1.3实施: 笔记 在这里,选择优化器作为Adam,而不是本文中带有势头的SGD。 data /中的mat文件是从数据集中提取的信息以及有关火车/ val /测试段的索引信息。 LIVE的主观评分来自。 训练 CUDA_VISIBLE_DEVICES=0 python main.py --exp_id=0 --database=LIVE 训练前, im_dir在config.yaml被指定必须的。 可以在config.yaml设置数据库内实验中的Train / Val / Test拆分比率(默认值为0.6 / 0.2 / 0.2)。 评估 测试演示 python test_demo.py --im_path=data/I03_01_1.bmp 交叉数据集 python test_cross_dataset.py --help TODO:
1