nginx搭建自己的rtmp服务器,已配置好,可直接使用,附讲解文章https://blog.csdn.net/qq_39838728/article/details/135865780?spm=1001.2014.3001.5502
2024-07-04 11:25:33 4.03MB nginx
1
基于docker的nginx.tar镜像,利用docker compose部署server负载均衡的实战。
2024-06-21 21:26:36 99.39MB docker
1
通过lvs+keepalived+nginx+tomcat实现服务负载均衡。 通过memcached实现不同服务器之间session共享。 包含jar文件。 本人亲测实验通过。
2024-06-21 16:11:41 1.83MB 负载均衡 session共享
1
2.1.1 FFmpeg 简介 flfl'mpeg 是一个开源免费跨平台的视频和音频流方案, 屈于自由软件, 采用LGPL 或 GPL 许可证(依据你选择的组件)。它提供了录制、转换以及流化音视频的完整解决方案.
2024-06-20 19:07:37 9.06MB ffmpeg
1
录制电脑屏幕操作,基于ffmpeg库使用C++程序开发的。电脑上需要安装x11grab。
2024-06-19 10:38:57 21MB ffmpeg
1
ffmpeg二进制文件,可以用其对音视频解码,截取视频中图片,和视频中的音频片段等待一些操作。比如根据帧率截取视频中图片,截取视频流中图片
2024-06-07 18:08:08 46.82MB ffmpeg
1
内存中H264数据加原始PCM音频数据封装FLV格式发布出rtmp
2024-06-04 18:58:59 4KB ffmpeg rtmp
1
之前一直用Directshow技术采集摄像头数据,但是觉得涉及的细节比较多,要开发者比较了解Directshow的框架知识,学习起来有一点点难度。最近发现很多人问怎么用FFmpeg采集摄像头图像,事实上FFmpeg很早就支持通过DShow获取采集设备(摄像头、麦克风)的数据了,只是网上提供的例子比较少。如果能用FFmpeg实现采集、编码和录制(或推流),那整个实现方案就简化很多,正因为这个原因,我想尝试做一个FFmpeg采集摄像头视频和麦克风音频的程序。经过一个星期的努力,终于做出来了。我打算把开发的心得和经验分享给大家。我分三部分来讲述:首先第一部分介绍如何用FFmpeg的官方工具(ffmpeg.exe)通过命令行来枚举DShow设备和采集摄像头图像,这部分是基础,能够快速让大家熟悉怎么用FFmpeg测试摄像头采集;第二部分介绍我写的采集程序的功能和用法;第三部分讲解各个模块包括采集、编码、封装和录制是如何实现的。
2024-05-27 21:15:50 22.75MB ffmpeg
1
arm64v8架构docker镜像包括(java8\mysql8\nacos2.1.1\redis7.0.4\nginx1.21.1)
2024-05-23 17:00:44 464.13MB java redis nginx nacos
1