关于 一个用于将连续分段线性函数拟合到数据的库。 只需指定所需的线段数并提供数据即可。 查看! 阅读。 现在,您可以执行分段常数拟合和分段多项式! 特征 对于指定数量的线段,您可以确定最佳连续分段线性函数f(x)(并从中进行预测)。 请参阅。 如果知道线段终止的特定x位置,则可以拟合并预测连续的分段线性函数f(x)。 请参阅。 如果要为SciPy差分进化算法传递不同的关键字,请参见此。 您可以使用不同的优化算法,通过使用目标函数来最小化残差平方和,从而找到线段的最佳位置。 请参阅。 现在,您可以使用带有fitfast()函数的多起点梯度优化,而不是使用差分进化。 您可以指定要使用的起点数量。 默认值为2。这意味着将使用2的拉丁超级多维数据集采样(空间填充DOE)来运行2个L-BFGS-B优化。 请参见下面的, 该示例运行fit()函数,然后运行fitfast()来比较运行时差
2022-03-05 17:58:08 1.99MB python segment tensorflow numpy
1
利用CRF++进行中文分词 维护者: 维新公众号:Python爬虫与算法 语料 人民日报中文分词语料 微软中文分词语料 训练集与测试集的比例为9:1,具体的改写脚本可以参考read_segment_corpus.py。 CRF模型 工具采用CRF++,训练命令如下: crf_learn -f 3 -c 4.0 template train.data model -t 模型评估结果 accuary: 0.96405717503858 p: 0.9184067155248071 r: 0.9206969935013926 f1: 0.9195504284452864 classification report: precision recall f1-score support Char 0.92 0.92
2022-02-10 16:18:17 8.27MB 附件源码 文章源码
1
PIC32MX Segment LED Display
2021-12-07 19:03:58 45KB PIC32MX
1
Yolo 语义分割Semantic Segmentation代码修改及训练全纪录
2021-12-07 09:49:56 3.01MB Yolo 语义分割 Semantic Segment
1
实现中英文句子切分算法。实现中英文句子切分算法。实现中英文句子切分算法。实现中英文句子切分算法。实现中英文句子切分算法。
2021-12-06 20:46:19 700KB sentence segment token 分句
1
segment 基于纹理的图像分割 运行程序测试: python gabor.py -infile G_Nat16.png -outfile out_2.png -k 16 -gk 17 -M 35 -sigma 7 -spw 2
2021-12-01 19:50:25 9.25MB Python
1
** 请注意,此代码有两个版本。 这个版本 (V1) 只需要边界条件和另一个版本 (V2),它允许在所有航路点设置约束。 对于版本 2,请访问: https://www.mathworks.com/matlabcentral/fileexchange/78631-a-general-multi-segment-minimum-jerk-trajectory-toolbox-v2 这是一个工具箱,可用于生成和绘制满足以下条件的多段最小加加速度轨迹: 1) 在特定时间通过任意数量的航路点。 2) 满足一定的速度和加速度边界条件(初始和最终速度和加速度)。 特征: 1) 这是一个简单的包,因为一切都在一个文件中,所有用户需要的只是输入很少的输入,然后运行代码。 2)它是通用的,这意味着它适用于 2D 和 3D 轨迹,并且可以处理任意数量的航点。 输入: 1) 航点的位置(2D 或 3D)
2021-11-23 03:58:21 101KB matlab
1
** 请注意,此代码有两个版本。 这个版本 (V1) 只需要边界条件和另一个版本 (V2),它允许在所有航路点设置约束。 对于版本 2,请访问: https://www.mathworks.com/matlabcentral/fileexchange/78619-a-general-multi-segment-minimum-snap-trajectory-toolbox-v2 这是一个工具箱,可用于生成和绘制满足以下条件的多段最小捕捉轨迹: 1) 在特定时间通过任意数量的航路点。 2) 满足一定的速度、加速度和加加速度的边界条件(初始和最终速度、加速度和加加速度)。 特征: 1) 这是一个简单的包,因为一切都在一个文件中,所有用户需要的只是输入很少的输入,然后运行代码。 2)它是通用的,这意味着它适用于 2D 和 3D 轨迹,并且可以处理任意数量的航点。 输入: 1) 航点的位
2021-11-23 03:56:40 16KB matlab
1
“语义分割”处理的是像素级分类问题,是计算机视觉中的基本任务,在自动驾驶、地物检测以及医疗辅助等许多领域,有着巨大的应用价值。常见的基于深度神经网络的语义分割模型,有U-Net,SegNet,PSPNet,以及DeepLab系列,(含论文出处和代码链接)。后续还将进一步整理完善哟!
2021-11-15 22:42:09 2.27MB Semantic segment U-net SegNet
1
统计学中文分词的Python版本 参照《数据之美》第14章(Word Segmentation),和《数学之美》中统计学分词方法,实现的最小统计学分词脚本。其实早就搁置在一边了,最近和朋友聊到中文分词才发现这个东西可能有人需要,放出来共享下。 #!/usr/bin/env python # -*- coding: utf-8 -*- import sys import re, string, random, glob, operator, heapq from collections import defaultdict from math import log10 def memo(f): "Memoize function f." table = {} def fmemo(*args): if args not in table: table[args] = f(*ar
2021-11-11 09:40:59 1.52MB python Python
1