Siamese:孪生神经网络在tf2(tensorflow2)当中的实现 目录 实现的内容 该仓库实现了孪生神经网络(Siamese network),该网络常常用于检测输入进来的两张图片的相似性。该仓库所使用的主干特征提取网络(backbone)为VGG16。 所需环境 tensorflow-gpu==2.2.0 注意事项 训练Omniglot数据集和训练自己的数据集可以采用两种不同的格式。需要注意格式的摆放噢! 文件下载 训练所需的vgg16_weights_tf_dim_ordering_tf_kernels_notop.h5可在百度网盘中下载。 链接: 提取码: 9ij5 我一共会提供两个权重,分别是vgg16_weights_tf_dim_ordering_tf_kernels_notop.h5和Omniglot_vgg.h5。 其中: Omniglot_vgg.h5是Omni
2021-11-03 15:16:48 27KB Python
1
使用TensorFlow 2实现 火车 在config.py更改数据集路径和class_dict 在config.py选择版本 可选, python generate.py为您的数据集生成锚点并在config.py更改锚点 运行python train.py进行培训 测试 运行python test.py 数据集结构 ├── Dataset folder ├── IMAGES ├── 1111.jpg ├── 2222.jpg ├── LABELS ├── 1111.xml ├── 2222.xml ├── train.txt ├── test.txt 笔记 xml文件应为PascalVOC格式 train.txt包含不带扩展名的图像名称 推荐(适用于docker用户) docker pu
2021-10-19 21:17:16 17KB tensorflow tf2 object-detection tensorflow2
1
在TensorFlow 2.0中实现的YoloV3 此仓库使用所有最佳实践在TensorFlow 2.0中提供了YoloV3的干净实现。 主要特点 TensorFlow 2.0 yolov3具有预先训练的权重 yolov3-tiny具有预先训练的权重 推论实例 转移学习的例子 使用tf.GradientTape急切模式训练 使用model.fit图模式训练 具有tf.keras.layers功能模型 使用tf.data输入管道 Tensorflow服务 向量化转换 GPU加速 完全集成的absl-py从 干净的实施 遵循最佳做法 麻省理工学院执照 用法 安装 conda(推荐) # Tensorflow CPU conda env create -f conda-cpu.yml conda activate yolov3-tf2-cpu # Tensorflow GPU conda env create -f conda-gpu.yml conda activate yolov3-tf2-gpu 点子 pip install -r requireme
1
resnet18-tf2 TensorFlow ResNet的正式似乎未包括ResNet-18或ResNet-34。 该代码库提供了ResNet-18和ResNet-34的简单( )TensorFlow 2实现,直接从PyTorch的torchvision转换而来。 模型输出已经过验证,可与火炬视觉模型的输出以浮点精度匹配。 此代码已使用以下软件包版本进行了测试: tensorflow==2.4.1 pytorch==1.2.0 torchvision==0.4.0
2021-10-18 10:25:12 4KB tensorflow pytorch resnet-18 resnet18
1
参数: --task_name=MRPC --do_train=true --do_eval=true --data_dir=$GLUE_DIR\MRPC --vocab_file=$BERT_BASE_DIR\vocab.txt --bert_config_file=$BERT_BASE_DIR\bert_config.json --init_checkpoint=$BERT_BASE_DIR\bert_model.ckpt --max_seq_length=128 --train_batch_size=4 --learning_rate=2e-5 --num_train_epochs=3.0 --output_dir=/tmp/mrpc_output/ 官方output: ***** Eval results ***** eval_accuracy = 0.845588 eval_loss = 0.505248 global_step = 343 loss = 0.505248 本次复现output: ***** Eval results ***** eval_accuracy = 0.5955882 eval_loss = 0.6890294 global_step = 2751 loss = 0.6890294
2021-10-13 22:01:55 395.02MB TF2 BERT MRPC
1
元学习框架TF 2.0 这是一个框架,可以轻松地将元学习技术应用于不同的数据集。 该存储库涵盖了包括UMTRA在内的几种元学习算法。 有关UMTRA发布期间的存储库,请转到 。 只需单击一下即可读取数据集并生成训练/验证/测试类。 然后将任务提供给元学习算法并运行它,并使用张量板记录训练和验证指标。 最后,您可以评估测试集上的结果。 我们支持用于分类的一系列元学习算法,包括 , , , , 和 。 我们正在增加更多,并高兴地欢迎新的贡献。 对于数据集,我们支持著名的元学习基准,包括Omniglot,Mini-Imagenet,CelebA。 我们还支持所有数据。 此外,我们支持跨域元学习的数据集:EuroSat,PlantDisease,ISIC,ChestXRay8。 最后但并非最不重要的一点是,您可以在使用Tensorflow 2.0和Keras定义的任何模型上运行算法
2021-09-28 22:36:54 14.72MB Python
1
带有Tensorflow 2的YOLOv1 为了易于实现,我没有实现与纸张完全相同的实现。 下面介绍的内容与本文的实现方式有所不同。 骨干网。 (我使用Xception代替了本文中提到的网络。) 学习率表(我使用了tf.keras.optimizers.schedules.ExponentialDecay ) 超级参数 数据扩充 等等 。 。 。 预览 即将更新。 。 。 使用Docker构建环境 构建Docker映像 $ docker build -t ${NAME} : ${TAG} . 创建一个容器 $ docker run -d -it --gpus all --shm-size= ${PROPER_VALUE} ${NAME} : ${TAG} /bin/bash Pascal VOC数据集() 带有Pascal VOC数据集 图片数量 火车 验证 测试 帕斯卡VOC
2021-09-24 18:50:03 25KB yolo object-detection tensorflow2 Python
1
带有Tensorflow 2的YOLO 您只看一次:统一的实时对象检测< > @misc{redmon2016look, title={You Only Look Once: Unified, Real-Time Object Detection}, author={Joseph Redmon and Santosh Divvala and Ross Girshick and Ali Farhadi}, year={2016}, eprint={1506.02640}, archivePrefix={arXiv}, primaryClass={cs.CV} }
2021-09-03 14:50:34 14KB Python
1
完整的 tensorflow2.x 对象识别android 平台运行的demo源码。包含.tflite 文件以及lable.txt ,直接android studio 打开即可在手机上运行。或者直接在安装demo 中的TF2.apk 即可运行。
2021-08-27 09:13:38 34.33MB tensorflow TF2 TFlite lable.txt
1
unet-tf2-main11.rar
2021-08-17 16:13:21 361.22MB u-net
1