利用ffmpeg库,自定义yuv数据,然后用ffmpeg中的h264编码器,生成h264文件
2022-12-22 09:51:23 3.68MB ffmpeg yuv 264
1
本文档讲叙如何从mp4文件中查找 sps pps等和h264编码信息相关的内容,同时介绍了h264 raw 流中 naul单元的分类。
2022-12-21 22:03:24 36KB h264 naul
1
该编码技术主要解决网络传输视频信息的时候,带宽限制了数据的传输,而我们通过某种方法使得视频流拥有可分级性,当网络带宽较小的时候,只保持基本的视频信息被传输,并根据实际的网络环境决定是否传增强的视频信息以使得图像质量得到加强,以此得到自适应性.这样的方式可以保持拥有网络连接的大部分终端都可以以适当的码流来使用多媒体信息,而不考虑原码流的需求.
2022-12-19 21:21:13 980KB H264 SVC Scalable Video
1
使用方法 首先nuget安装cefsharp 84.4.10 安装完成后使用下载得到的文件中的【cef.redist.x64.84.4.1】、【cef.redist.x86.84.4.1】两个文件夹 替换【packages】原本的文件即可
2022-12-19 17:22:30 245.18MB CefSharp
1
ros_h264_streamer 一个简单的ROS节点通过UDP / TCP套接字流式传输/接收h.264编码的图像
2022-12-19 09:55:22 28KB C++
1
目的是能使用Python进行rtmp推流,方便在h264帧里加入弹幕等操作。 librtmp使用的是0.3.0,使用树莓派noir官方摄像头适配的。 通过wireshark抓ffmpeg的包一点点改动,最终可以在red5和斗鱼上推流了。 没怎么写过python,有不恰当的地方请包涵。 上代码: # -- coding: utf-8 -- # http://blog.csdn.net/luhanglei import picamera import time import traceback import ctypes from librtmp import * global meta_pa
2022-12-16 07:37:25 65KB br h2 li
1
android将Hi64编码成MP4,首先要说明的是H264是编码,而MP4则是一种容器。 1.首先我们需要去下载一个MP4Parser 的Jar包。 2.当我们下载下来的JAR包,放入我们的项目lib目录下,然后再将编译一下即可使用。 3.添加完项目后,我们就可以使用该Jar包,使用方法也是相当的简单。
2022-12-13 17:33:44 1006KB Android H264 mp4
1
采用自封装RtmpLiveSDK实现音视频数据的采集、编码、发布、播放、下载一体化程序 1. 采用DirectShow实现摄像头视频数据和音频数据的采集 2. 采用x264/faac实现音视频的编码 3. 采用librtmp实现编码后音视频数据到Rtmp流媒体服务器的发布 4. 采用Flash技术实现Rtmp流媒体数据的实时播放 5. 采用librtmp实现Rtmp流媒体数据的实时下载
2022-12-08 23:11:14 954KB H264 FAAC RTMP 音视频采集
1
ElecardStreamEyeTools_v2.9.2,支持H264码流解析
2022-12-06 09:29:27 7.93MB elecard
1
博客https://blog.csdn.net/dashuo0501/article/details/128166736?spm=1001.2014.3001.5501 [QT+FFMPEG]使用QT自带的MinGW编译器编译FFMPEG生成LIB库(H264解码) 包含msys2、yasm、ffmpeg-4.3.tar.gz和编译生成的FFMPEG lib库
2022-12-05 10:26:38 84.66MB ffmpeg qt
1