android 音视频硬编解码( 二 )

如果想完整保存每一帧的YUV数据呢?
音频硬解码同样的,首先初始化操作
try {mMediaCodec = MediaCodec.createDecoderByType(MIMETYPE_AUDIO_AAC);MediaFormat mediaFormat = new MediaFormat();mediaFormat.setString(MediaFormat.KEY_MIME, MIMETYPE_AUDIO_AAC);mMediaCodec.configure(mediaFormat, null, null, 0);} catch (IOException e) {throw new RuntimeException(e);}最后,解码音频帧数据并进行播放(需要先准备好AudioTrack)
public void decodeAndRenderA(byte[] in, int offset, int length, long pts) {int inputBufIndex = mMediaCodec.dequeueInputBuffer(TIMEOUT_US);if (inputBufIndex >= 0) {ByteBuffer dstBuf = mMediaCodec.getInputBuffer(inputBufIndex);dstBuf.clear();dstBuf.put(in, offset, length);mMediaCodec.queueInputBuffer(inputBufIndex, 0, length, pts, 0);}ByteBuffer outputBuffer;MediaCodec.BufferInfo info = new MediaCodec.BufferInfo();int outputBufferIndex = mMediaCodec.dequeueOutputBuffer(info, TIMEOUT_US);while (outputBufferIndex >= 0) {outputBuffer = mMediaCodec.getOutputBuffer(outputBufferIndex);byte[] outData = https://www.isolves.com/it/cxkf/ydd/Android/2022-05-24/new byte[info.size];outputBuffer.get(outData);outputBuffer.clear();if (mAudioTrack != null) {mAudioTrack.write(outData, 0, info.size);}mMediaCodec.releaseOutputBuffer(outputBufferIndex, false);outputBufferIndex = mMediaCodec.dequeueOutputBuffer(info, TIMEOUT_US);}}坑的开始
重点来了,通过上面对MediaCodec的使用,可以实现规范的音视频数据帧的硬编解码,然而,在实际的应用中会发现,无论是推流还是收流,都存在不少的坑,比如
编码后的图像呈黑白色
ffmpeg推视频流报non-existing PPS 0 referenced错误
带ADTS数据头的数据帧用ffmpeg推流成功后,再推视频流会一直返回错误码-1094995529
AAC硬解码总是报IllegalStateException异常
解码AAC帧数据硬解码调用dequeueOutputBuffer时,总是返回-1
拉流得到的数据头有变更
这里只列举了印象比较深的几个坑,其它的就不一一列举了,而在解决这各种问题之前,还必须要掌握SPS、PPS以及ADTS的相关知识
SPS和PPSMediaCodec同步方式H.264编码获取SPS和PPS
int outputBufferIndex = mMediaCodec.dequeueOutputBuffer(bufferInfo, TIMEOUT_S);if (outputBufferIndex == MediaCodec.INFO_OUTPUT_FORMAT_CHANGED) {MediaFormat mediaFormat = mMediaCodec.getOutputFormat();ByteBuffer spsb = mediaFormat.getByteBuffer("csd-0");byte[] sps = new byte[spsb.remaining()];spsb.get(sps, 0, sps.length);ByteBuffer ppsb = mediaFormat.getByteBuffer("csd-1");byte[] pps = new byte[ppsb.remaining()];ppsb.get(pps, 0, pps.length);byte[] sps_pps = new byte[sps.length + pps.length];System.arraycopy(sps, 0, sps_pps, 0, sps.length);System.arraycopy(pps, 0, sps_pps, sps.length, pps.length);}相对应的,H.264解码如何获取SPS和PPS信息呢?
通常,H.264编码帧数据都有一个起始码,起始码由三个字节的00 00 01或者四个字节的00 00 00 01组成,起始码之后下一个字节便是帧数据类型Code

android 音视频硬编解码

文章插图
 
nalu type = code & 0x1F
由于设备厂商的不同,起始码紧接的code可能为十进制,也可能为十六进制,我在这里就踩过坑
在解码AAC帧数据前,也需要设置MediaCodec的SPS
int sampleIndex = 4;int chanCfgIndex = 2;int profileIndex = 1;byte[] adtsAudioHeader = new byte[2];adtsAudioHeader[0] = (byte) (((profileIndex + 1) << 3) | (sampleIndex >> 1));adtsAudioHeader[1] = (byte) ((byte) ((sampleIndex << 7) & 0x80) | (chanCfgIndex << 3));ByteBuffer byteBuffer = ByteBuffer.allocate(adtsAudioHeader.length);byteBuffer.put(adtsAudioHeader);byteBuffer.flip();mediaFormat.setByteBuffer("csd-0", byteBuffer);当然,这种方法不够灵活,可以变更为在刚开始接收带ADTS数据头的数据帧时再设置

【android 音视频硬编解码】


推荐阅读