diff --git a/.obsidian/workspace.json b/.obsidian/workspace.json index 650de65..e3fdc16 100644 --- a/.obsidian/workspace.json +++ b/.obsidian/workspace.json @@ -42,7 +42,7 @@ "type": "markdown", "state": { "file": "04. Programming/FFMPEG/Structure.md", - "mode": "source", + "mode": "preview", "source": true } } diff --git a/04. Programming/FFMPEG/Structure.md b/04. Programming/FFMPEG/Structure.md index 6022a99..8e84e20 100644 --- a/04. Programming/FFMPEG/Structure.md +++ b/04. Programming/FFMPEG/Structure.md @@ -184,18 +184,18 @@ int main(int argc, const char *argv[]) { FFMPEG中结构体很多。最关键的结构体可以分成以下几类: -1. 解协议(http,rtsp,rtmp,mms) - AVIOContext,URLProtocol,URLContext主要存储视音频使用的协议的类型以及状态。URLProtocol存储输入视音频使用的封装格式。每种协议都对应一个URLProtocol结构。(注意:FFMPEG中文件也被当做一种协议“file”) +1. 解协议(http, rtsp, rtmp, mms) + `AVIOContext`,`URLProtocol`,`URLContext` 主要存储视音频使用的协议的类型以及状态。`URLProtocol` 存储输入视音频使用的封装格式。每种协议都对应一个 `URLProtocol` 结构。(注意:FFMPEG中文件也被当做一种协议“file”) -2. 解封装(flv,avi,rmvb,mp4) - AVFormatContext主要存储视音频封装格式中包含的信息;AVInputFormat存储输入视音频使用的封装格式。每种视音频封装格式都对应一个AVInputFormat 结构。 +2. 解封装(flv, avi, rmvb, mp4) + `AVFormatContext` 主要存储视音频封装格式中包含的信息;`AVInputFormat` 存储输入视音频使用的封装格式。每种视音频封装格式都对应一个 `AVInputFormat` 结构。 -3. 解码(h264,mpeg2,aac,mp3) - 每个AVStream存储一个视频/音频流的相关数据;每个AVStream对应一个AVCodecContext,存储该视频/音频流使用解码方式的相关数据;每个AVCodecContext中对应一个AVCodec,包含该视频/音频对应的解码器。每种解码器都对应一个AVCodec结构。 +3. 解码(h264, mpeg2, aac, mp3) + 每个 `AVStream` 存储一个视频/音频流的相关数据;每个 `AVStream` 对应一个 `AVCodecContext`,存储该视频/音频流使用解码方式的相关数据;每个 `AVCodecContext` 中对应一个 `AVCodec`,包含该视频/音频对应的解码器。每种解码器都对应一个 `AVCodec` 结构。 4. 存数据 视频的话,每个结构一般是存一帧;音频可能有好几帧 - 解码前数据:AVPacket - 解码后数据:AVFrame + 解码前数据:`AVPacket` + 解码后数据:`AVFrame` 他们之间的对应关系如下所示: ![[Pasted image 20231220095827.png]] \ No newline at end of file