Python中的代理重新加密演示 这是Proxy Re-Encryption(PRE)的演示,演示了如何将其与对称加密正确结合使用,以实现用户数据隐私的极高安全性。 在这种情况下,使用流密码CHACHA20和块密码AES来确保代理(服务器)无法获取用户的私钥和存储在其上的明文数据。 用法 pip3 install -r requirements.txt python3 demo.py 演示/样本输出 A ---------------------Request key pair----------------------> CA A <-----------------A key pair, global param------------------ CA B ---------------------Request key pair-------------
2024-04-09 22:02:21 6KB python aes chacha20 Python
1
nFringe1.3.0.5最新的nFringe,如有bug和疑问,请回复。
2023-12-22 16:27:38 3.18MB
1
编译UC文件的VS2008插件。
2023-12-21 16:02:01 2.4MB
1
afgh-pre:用Javascript编写的AFGH06代理重新加密库 请参阅以下文章: G. Ateniese, K. Fu, M. Green, S. Hohenberger, "Improved proxy re-encryption schemes with applications to secure distributed storage", ACM Trans. Inf. Syst. Secur., 9 (1) (2006 G. Ateniese, K. Fu, M. Green, S. Hohenberger, "Improved proxy re-encryption schemes with applications to secure distributed storage", ACM Trans. Inf. Syst. Secur., 9 (1) (2006 使
2023-01-15 15:22:32 12.47MB JavaScript
1
802.1Qat协议 传统IEEE 802网络标准的特性限制了其无法将普通异步流量与时间敏感的流媒体流量进行优先级划分。为了提供有保障的服务质量(QoS),流预留协议(SRP)确保了AV流设备间端到端的带宽可用性。如果所需的路径带宽可用,整个路径上的所有设备(包括交换机和终端设备)将会对此资源进行锁定。SRP利用IEEE 802.1ak多注册协议(Multiple Registration Protocol,简称MRP)来传递消息,以交换AV流的带宽描述消息并对带宽资源进行预留。符合SRP标准的交换机能够将整个网络可用带宽资源的75%用于AVB链路,剩下25%的带宽留给传统的以太网流量。在SRP中,流服务的提供者叫做Talker,流服务的接收者叫做Listener。同一个Talker提供的流服务可同时被多个Listener接收,SRP允许只保障从Talker到Listener的单向数据流流动。只要从Talker到多个Listener中的任意一条路径上的带宽资源能够协商并锁定,Talker就可以开始提供实时AV服务。SRP内部周期性的状态机维护着Talker及Listener的注册信息,能够动态的对网络节点状态进行监测并更新其内部注册信息数据库,以适应网络拓扑的动态改变。无论Talker还是Listener,都可以随时加入或离开AVB的网络,而不会对AVB网络的整体功能和状态造成不可恢复的影响。SRP包含注册(Registration)和预留(Reservation)两部分,Talker对AV流所需带宽资源进行协商预留,Listener则注册并接收所需的AV流。
2023-01-14 01:25:35 269KB Ethernet AVB Automotive
1
OSEP的先验知识(指南) 这是笔记和资料的资料库,我认为这些资料和资料是我提前选择该课程和获得OSEP认证(逃避和违反防御技术)所必需的 这种材料的汇编在很大程度上受nullg0re(GIT)的影响! ######## ##### ######## ##### ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ## ######## ## ## ######## ## ## ### ## ## ## ## ## ## ## ##
2023-01-05 19:25:25 4KB
1
预训练语言模型(PLMs)是在大规模语料库上以自监督方式进行预训练的语言模型。在过去的几年中,这些PLM从根本上改变了自然语言处理社区。在本教程中,我们旨在从两个角度提供广泛而全面的介绍:为什么这些PLM有效,以及如何在NLP任务中使用它们。本教程的第一部分对PLM进行了一些有见地的分析,部分解释了PLM出色的下游性能。第二部分首先关注如何将对比学习应用于PLM,以改进由PLM提取的表示,然后说明如何在不同情况下将这些PLM应用于下游任务。这些情况包括在数据稀缺的情况下对PLM进行微调,以及使用具有参数效率的PLM。我们相信,不同背景的与会者会发现本教程内容丰富和有用。
2022-12-19 14:28:32 23.95MB 人工智能
1
COCO LM预训练(WIP) 在Pytorch中实现 ,纠正和对比文本序列以进行语言模型预训练。 他们能够以自我监督的方式进行对比学习,以进行语言模型预训练。 似乎是Electra的坚实后继者。 安装 $ pip install coco-lm-pytorch 用法 使用x-transformers库的示例 $ pip install x-transformers 然后 import torch from torch import nn from x_transformers import TransformerWrapper , Encoder from coco_lm_pytorch import COCO # (1) instantiate the generator and discriminator, making sure that the generator is ro
1
ACKiller 0[1][1].31 pre-releaseACKiller 0[1][1].31 pre-releaseACKiller 0[1][1].31 pre-releaseThe file userdb.txt is used to store the external signatures. ;External signatures can be modified by the user as and when he requires. ;The signatures are in the format [Name of the Packer v1.0] signature = 50 E8 ?? ?? ?? ?? 58 25 ?? F0 FF FF 8B C8 83 C1 60 51 83 C0 40 83 EA 06 52 FF 20 9D C3 ep_only = true ;The ?? in the signature represent wildcard bytes (they are skipped while scanning) ;ep_only can be either true or false. When true, the signature is scanned for at the EntryPoint only. ;Else it is scanned throughout the file. ;A '*' in the results of PEiD signifies that the external database was used for scanning the file.
1
H19-369 HCS-Pre-sales-IT学习文档手册.pdf
2022-10-17 19:04:03 488KB 华为