深度学习算法要在手机上落地,caffe依赖太多,手机上也没有cuda,需要个又快又小的前向网络实现,ncnn就诞生了,它目前支持以下平台:跨平台,主要支持 android,次要支持 ios / linux / windows。 input data and extract output #include #include #include net.h int main() { cv::Mat img = cv::imread(image.ppm, CV_LOAD_IMAGE_GRAYSCALE); int w = img.cols; int h = img.r
2023-12-17 00:30:06 42KB
1
四元饱和硝酸盐水溶液体系{ H2O + NH4NO3(sat) + Nd(NO3)3 + Y(NO3)3 }的热力学研究—与类理想溶液模型的对比,何美,王之昌,在T = 298.15 K下,利用等压法系统研究了四元饱和硝酸盐水溶液体系{ H2O + NH4NO3(sat) + Nd(NO3)3 + Y(NO3)3 }的热力学性质。以CaCl2水溶液为参考溶�
2023-12-16 18:59:18 303KB 首发论文
1
植被的存在对保护天然河流和湿地的生态系统和水环境起着重要的作用,但它改变了水流的速度场,从而影响了污染物和生物量的运输。 作为分析通道环境容量的前提,水流的垂直速度分布引起了很多研究关注。 但是,仍然缺乏良好的预测模型。 对于淹没植被的河道,植被下部下部的垂直速度分布与非植被上部流动的垂直速度分布是不同的。 在本文中,在回顾了Baptist等人提出的最新两层模型之后,作者通过引入不同的混合长度标度(λ)提出了一种改进的两层分析模型。 所提出的模型基于流动的动量方程,其中湍流涡流粘度假定为与局部速度的线性关系。 将该模型与文献中针对不同数据集的Baptist模型进行了比较,结果表明,与Baptist模型相比,该模型对于一定范围的数据可以更好地改善垂直速度分布预测。 该研究表明,λ与植被的淹没(H / h)密切相关,如所建议。 当常数β为3/100时,所提出的模型与研究的广泛数据集显示出良好的一致性:1.25至3.33的水深(H)/植被高度(h),1.1至18.5的a的不同植被密度m-1(定义为单位体积植被的前缘面积),床坡度为(1.38-4.0)×10-3。
1
对于淹没的植被流,速度分布在下部区域的植被层和上部非植被区域的表层具有两个独特的分布。 基于混合层的类比,针对两层中的速度分布提出了不同的分析模型。 本文评估了Klopstra等人,Defina和Bixio,Yang等人的四个分析模型。 和Nepf对照文献中提供的各种独立实验数据。 为了检验模型的适用性和鲁棒性,作者使用了19个数据集,这些数据具有不同的相对淹没深度,不同的植被密度和河床坡度(1.8×10-6-4.0×10-3)。 这项研究表明,没有一个模型能够很好地预测所有数据集的速度剖面。 在某些情况下,除了Yang的模型以外的三个模型都表现良好,但在大多数研究的情况下,Yang的模型都失败了。 还发现,如果使用相同的涡流混合长度尺度(λ),则Defina模型与Klopstra模型几乎相同。 最后,仔细检查Defina模型中涡流的混合长度尺度(λ),发现当λ/ h = 1/40(H / h)1/2时,该模型可以很好地预测所有使用的数据集的速度分布。
2023-12-16 13:25:53 1.44MB 水生植被 速度剖面 分析模型 刚性植被
1
误解,在生活中时有发生,轻则令人不快,重则造成严重的人际冲突。语言学家、社会学家、心理学家都试图揭示误解成因。但遗憾的是,这些研究都没有从交际过程出发来探讨误解成因。文章借助于Lakoff的理想认知模型,对误解成因进行充分描述和系统分析并给出误解的消减策略。
2023-12-16 08:40:16 945KB 行业研究
1
第一次做的人头骨,很粗糙
2023-12-15 21:44:06 5.36MB ZB模型
1
了解ChatGPT的实际工作原理! 这个字节大小的课程将让您了解大型语言模型(LLM),包括提示设计、微调和这项激动人心的技术的未来等主题! 课程概述 本课程由对话式人工智能工程师讲授,将教你如何使用大型语言模型(LLM),如ChatGPT,用于你自己的目的。你将学习所有关于提示设计和微调的知识,使用从Reddit刮来的数据或使用你自己的数据集。 你会学到什么 充分了解最流行和最好的公开语言模型的能力和限制: ChatGPT ChatGPT和其他大型语言模型(LLM)的当前和潜在用例 学习如何有效地使用ChatGPT来完成你的任务 了解新兴的提示设计学科,以及它如何适用于基于文本的LLM和图像生成器 ChatGPT是否是真正的人工通用智能(AGI)
2023-12-15 16:29:27 220.22MB 语言模型 人工智能
1
大模型技术具有广泛的应用场景,可以用来赋能不同行业。大模型+传媒可以实现智能新闻写作,降低新闻的生产成本;大模型+影视可以拓宽创作素材,开拓创作思路,激发创作灵感,提升作品质量;大模型+营销可以打造虚拟客服,助力产品营销;大模型+娱乐可以加强人机互动,激发用户参与热情,增加互动的趣味性和娱乐性;大模型+军事可以增强军事情报和决策能力,可以实现实时战场翻译,快速准确的威胁评估、作战任务规划和执行、战场感知、战术决策支持、改进态势感知等;大模型+教育可以赋予教育教材新活力,让教育方式更个性化、更智能;大模型+金融可以帮助金融机构降本增效,让金融服务更有温度;大模型+医疗可以赋能医疗机构诊疗全过程。总之,大模型的发展将给人类带来了非常强大的助推力,让数字世界和现实世界的共生变得更为便捷、更为有效。 大模型的通用性使其被认为是可以成为未来人工智能应用中的关键基础设施,就像 PC 时代的操作系统一样,赋能百业,加速推进国民经济的高质量发展。
2023-12-15 16:26:42 4.62MB 人工智能
1
预训练大模型与医疗.pdf
2023-12-15 15:22:28 24.58MB 健康医疗
1
AI大模型是指具有巨大参数量的深度学习模型,通常包含数十亿甚至数万亿个参数。这些模型可以通过学习大量的数据来提高预测能力,从而在自然语言处理、计算机视觉、自主驾驶等领域取得重要突破。根据OpenAI的分类方法,可以将AI模型分为小型模型、中型模型、大型模型和极大型模型,其中大型模型和极大型模型可以被视为AI大模型。 AI大模型的发展历程非常丰富多样,目前已经涌现了许多具有重要影响力的大模型。然而,随着技术的不断进步和研究的推进,我们可以期待更多更强大的AI大模型的涌现。这些模型将继续通过更大的参数量和更深的网络结构来提升性能,同时也需要更强的计算资源、更优秀的算法优化方法以及更多的训练数据来支持。 AI大模型的出现带来了许多优点,例如更精确的预测能力、更好的泛化能力和更广泛的应用范围。然而,AI大模型也存在一些不足之处,比如需要更高的计算资源和训练时间,以及对数据的依赖性较强。此外,由于模型参数量过大,AI大模型也面临着可解释性不足、难以部署和隐私保护等问题
2023-12-15 15:21:22 267KB 人工智能 课程资源
1