Android音视频之AudioRecord录音(一)

简介: Android音视频之AudioRecord录音(一)在音视频开发中,录音当然是必不可少的。首先我们要学会单独的录音功能,当然这里说的录音是指用AudioRecord来录音,读取录音原始数据,读到的就是所谓的PCM数据。

Android音视频之AudioRecord录音(一)
在音视频开发中,录音当然是必不可少的。首先我们要学会单独的录音功能,当然这里说的录音是指用AudioRecord来录音,读取录音原始数据,读到的就是所谓的PCM数据。对于录音来说,最重要的几个参数要搞明白:

1、simpleRate采样率,采样率就是采样频率,每秒钟记录多少个样本。

2、channelConfig通道配置,其实就是所谓的单通道,双通道之类的,AudioFormat.CHANNEL_IN_MONO单通道,AudioFormat.CHANNEL_IN_STEREO双通道,这里只列了这两种,还有其它的,可自行查阅。

3、audioFormat音频格式,其实就是采样的精度,每个样本的位数,AudioFormat.ENCODING_PCM_8BIT每个样本占8位,AudioFormat.ENCODING_PCM_16BIT每个样本占16位,这里也只用了这两个,别的没研究。

在学习过程中会用到的一些参数,我这里封装了一个类,如下

复制代码
public class AudioParams {

enum Format {
    SINGLE_8_BIT, DOUBLE_8_BIT, SINGLE_16_BIT, DOUBLE_16_BIT
}

private Format format;
int simpleRate;

AudioParams(int simpleRate, Format f) {
    this.simpleRate = simpleRate;
    this.format = f;
}

AudioParams(int simpleRate, int channelCount, int bits) {
    this.simpleRate = simpleRate;
    set(channelCount, bits);
}

int getBits() {
    return (format == Format.SINGLE_8_BIT || format == Format.DOUBLE_8_BIT) ? 8 : 16;
}

int getEncodingFormat() {
    return (format == Format.SINGLE_8_BIT || format == Format.DOUBLE_8_BIT) ? AudioFormat.ENCODING_PCM_8BIT :
        AudioFormat.ENCODING_PCM_16BIT;
}

int getChannelCount() {return (format == Format.SINGLE_8_BIT || format == Format.SINGLE_16_BIT) ? 1 : 2;}

int getChannelConfig() {
    return (format == Format.SINGLE_8_BIT || format == Format.SINGLE_16_BIT) ? AudioFormat.CHANNEL_IN_MONO :
        AudioFormat.CHANNEL_IN_STEREO;
}

int getOutChannelConfig() {
    return (format == Format.SINGLE_8_BIT || format == Format.SINGLE_16_BIT) ? AudioFormat.CHANNEL_OUT_MONO :
        AudioFormat.CHANNEL_OUT_STEREO;
}

void set(int channelCount, int bits) {
    if ((channelCount != 1 && channelCount != 2) || (bits != 8 && bits != 16)) {
        throw new IllegalArgumentException("不支持其它格式 channelCount=$channelCount bits=$bits");
    }
    if (channelCount == 1) {
        if (bits == 8) {
            format = Format.SINGLE_8_BIT;
        } else {
            format = Format.SINGLE_16_BIT;
        }
    } else {
        if (bits == 8) {
            format = Format.DOUBLE_8_BIT;
        } else {
            format = Format.DOUBLE_16_BIT;
        }
    }
}

}
复制代码
这里固定使用了单通道8位,双通道8位,单通道16位,双通道16位,所以用了枚举来限制。

为了方便把录音数据拿出来显示、存储,这里写了一个回调方法如下

复制代码

public interface RecordCallback {
    /**
     * 数据回调
     *
     * @param bytes 数据
     * @param len   数据有效长度,-1时表示数据结束
     */
    void onRecord(byte[] bytes, int len);
}

复制代码
有了这些参数,现在就可以录音了,先看一下样例

复制代码

public void startRecord(AudioParams params, RecordCallback callback) {
    int simpleRate = params.simpleRate;
    int channelConfig = params.getChannelConfig();
    int audioFormat = params.getEncodingFormat();
    // 根据AudioRecord提供的api拿到最小缓存大小
    int bufferSize = AudioRecord.getMinBufferSize(simpleRate, channelConfig, audioFormat);
    //创建Record对象
    record = new AudioRecord(MediaRecorder.AudioSource.MIC, simpleRate, channelConfig, audioFormat, bufferSize);
    recordThread = new Thread(() -> {
        byte[] buffer = new byte[bufferSize];
        record.startRecording();
        recording = true;
        while (recording) {
            int read = record.read(buffer, 0, bufferSize);
            // 将数据回调到外部
            if (read > 0 && callback != null) {
                callback.onRecord(buffer, read);
            }
        }
        if (callback != null) {
            // len 为-1时表示结束
            callback.onRecord(buffer, -1);
            recording = false;
        }
        //释放资源
        release();
    });
    recordThread.start();
}

复制代码
这个方法就是简单的采集音频数据,这个数据就是最原始的pcm数据。

拿到pcm数据以后,如果直接保存到文件是无法直接播放的,因为这只是一堆数据,没有任何格式说明,如果想让普通播放器可以播放,需要在文件中加入文件头,来告诉播放器这个数据的格式,这里是直接保存成wav格式的数据。下面就是加入wav格式文件头的方法

复制代码

private static byte[] getWaveFileHeader(int totalDataLen, int sampleRate, int channelCount, int bits) {
    byte[] header = new byte[44];
    // RIFF/WAVE header
    header[0] = 'R';
    header[1] = 'I';
    header[2] = 'F';
    header[3] = 'F';

    int fileLength = totalDataLen + 36;
    header[4] = (byte) (fileLength & 0xff);
    header[5] = (byte) (fileLength >> 8 & 0xff);
    header[6] = (byte) (fileLength >> 16 & 0xff);
    header[7] = (byte) (fileLength >> 24 & 0xff);
    //WAVE
    header[8] = 'W';
    header[9] = 'A';
    header[10] = 'V';
    header[11] = 'E';
    // 'fmt ' chunk
    header[12] = 'f';
    header[13] = 'm';
    header[14] = 't';
    header[15] = ' ';
    // 4 bytes: size of 'fmt ' chunk
    header[16] = 16;
    header[17] = 0;
    header[18] = 0;
    header[19] = 0;

    // pcm format = 1
    header[20] = 1;
    header[21] = 0;
    header[22] = (byte) channelCount;
    header[23] = 0;

    header[24] = (byte) (sampleRate & 0xff);
    header[25] = (byte) (sampleRate >> 8 & 0xff);
    header[26] = (byte) (sampleRate >> 16 & 0xff);
    header[27] = (byte) (sampleRate >> 24 & 0xff);

    int byteRate = sampleRate * bits * channelCount / 8;
    header[28] = (byte) (byteRate & 0xff);
    header[29] = (byte) (byteRate >> 8 & 0xff);
    header[30] = (byte) (byteRate >> 16 & 0xff);
    header[31] = (byte) (byteRate >> 24 & 0xff);
    // block align
    header[32] = (byte) (channelCount * bits / 8);
    header[33] = 0;
    // bits per sample
    header[34] = (byte) bits;
    header[35] = 0;
    //data
    header[36] = 'd';
    header[37] = 'a';
    header[38] = 't';
    header[39] = 'a';
    header[40] = (byte) (totalDataLen & 0xff);
    header[41] = (byte) (totalDataLen >> 8 & 0xff);
    header[42] = (byte) (totalDataLen >> 16 & 0xff);
    header[43] = (byte) (totalDataLen >> 24 & 0xff);
    return header;
}

复制代码
根据几个参数设置一下文件头,然后直接写入录音采集到的pcm数据,就可被正常播放了。wav文件头格式定义,可点击这里查看或自行百度。

如果想要通过AudioRecord录音直接保存到文件,可参考下面方法

复制代码

public void startRecord(String filePath, AudioParams params, RecordCallback callback) {
    int channelCount = params.getChannelCount();
    int bits = params.getBits();

    final boolean storeFile = filePath != null && !filePath.isEmpty();

    startRecord(params, (bytes, len) -> {
        if (storeFile) {
            if (file == null) {
                File f = new File(filePath);
                if (f.exists()) {
                    f.delete();
                }
                try {
                    file = new RandomAccessFile(f, "rw");
                    file.write(getWaveFileHeader(0, params.simpleRate, channelCount, bits));
                } catch (IOException e) {
                    e.printStackTrace();
                }
            }
            if (len > 0) {
                try {
                    file.write(bytes, 0, len);
                } catch (IOException e) {
                    e.printStackTrace();
                }
            } else {
                try {
                    // 因为在前面已经写入头信息,所以这里要减去头信息才是数据的长度
                    int length = (int) file.length() - 44;
                    file.seek(0);
                    file.write(getWaveFileHeader(length, params.simpleRate, channelCount, bits));
                    file.close();
                } catch (IOException e) {
                    e.printStackTrace();
                }
            }
        }
        if (callback != null) {
            callback.onRecord(bytes, len);
        }
    });
}

复制代码
先通过RandomAccessFile创建文件,先写入文件头,由于暂时我们不知道会录多长,有多少pcm数据,长度先用0表示,等录音结束后,通过seek(int)方法重新写入文件头信息,也可以先把pcm数据保存到临时文件,然后再写入到一个新的文件中,这里就不举例说明了。

最后放入完整类的代码

View Code

如有不对之处还请评论指正

作者:原心木
出处:https://www.cnblogs.com/sskbskdrin

相关文章
|
7月前
|
开发工具 Android开发 开发者
Android如何回调编码后的音视频数据
有开发者提到,在RTMP推送端的基础上,希望能回调编码后的音视频数据,便于开发者对接第三方系统,如GB28181.
|
7月前
|
编解码 监控 网络协议
Android平台音视频推送选RTMP还是GB28181?
早在2015年,我们发布了RTMP直播推送模块,那时候音视频直播这块场景需求,还不像现在这么普遍,我们做这块的初衷,主要是为了实现移动单兵应急指挥系统的低延迟音视频数据传输。好多开发者可能会疑惑,走RTMP怎么可能低延迟?网上看到的RTMP推拉流延迟,总归要2-3秒起,如果是自己实现框架,RTMP推拉流逻辑自己实现的话,延迟确实可以控制在毫秒级,这个已无需赘述。
|
7月前
|
Web App开发 数据采集 物联网
Android平台基于RTMP或RTSP的一对一音视频互动技术方案探讨
随着智能门禁等物联网产品的普及,越来越多的开发者对音视频互动体验提出了更高的要求。目前市面上大多一对一互动都是基于WebRTC,优点不再赘述,我们这里先说说可能需要面临的问题:WebRTC的服务器部署非常复杂,可以私有部署,但是非常复杂。传输基于UDP,很难保证传输质量,由于UDP是不可靠的传输协议,在复杂的公网网络环境下,各种突发流量、偶尔的传输错误、网络抖动、超时等等都会引起丢包异常,都会在一定程度上影响音视频通信的质量,难以应对复杂的互联网环境,如跨区跨运营商、低带宽、高丢包等场景,行话说的好:从demo到实用,中间还差1万个WebRTC。
|
7月前
|
监控 前端开发 网络协议
Android前端音视频数据接入GB28181平台意义
在我们研发Android平台GB28181前端音视频接入模块之前,业内听到最多的是,如何用Android或者Windows端,在没有国标IPC设备的前提下,模拟GB28181的信令和媒体流交互流程,实现GB28181整体方案的测试?
|
7月前
|
Web App开发 开发工具 Android开发
Android平台不需要单独部署流媒体服务如何实现内网环境下一对一音视频互动
我们在做内网环境的一对一音视频互动的时候,遇到这样的技术诉求:如智能硬件场景下(比如操控智能硬件),纯内网环境,如何不要单独部署RTMP或类似流媒体服务,实现一对一音视频互动。
|
7月前
|
编解码 Android开发 数据安全/隐私保护
Android平台GB28181设备接入端对接编码前后音视频源类型浅析
今天主要对Android平台GB28181设备接入模块支持的接入数据类型,做个简单的汇总: 1. 编码前数据(目前支持的有YV12/NV21/NV12/I420/RGB24/RGBA32/RGB565等数据类型),其中,Android平台前后摄像头数据,或者屏幕数据,或者Unity拿到的数据,均属编码前数据; 2. 编码后数据(如无人机等264/HEVC数据,或者本地解析的MP4音视频数据); 3. 拉取RTSP或RTMP流并接入至GB28181平台(比如其他IPC的RTSP流,可通过Android平台GB28181接入到国标平台)。
|
7月前
|
数据采集 编解码 vr&ar
Android平台实现VR头显Unity下音视频数据RTMP推送
随着技术发展的日新月异,虚拟现实产业已经从过去的探索期,自2020年起,慢慢过渡到高速发展期,随着5G时代的到来,大带宽高可靠低延迟网络环境,为虚拟现实产业提供了很好的网络保障,虚拟现实在越来越多的场景下有了应用价值,典型场景如工业互联网、虚拟仿真、文旅文博、智慧交通、智慧能源、智慧医疗、智慧校园、智慧农业等。同事,行业也对清晰度、流畅性和交互感也提出了更高的要求。本文从Android平台的采集推送为例,介绍下基于头显或类似终端的低延迟解决方案。
|
8月前
|
Web App开发 编解码 网络协议
Android平台一对一音视频通话方案对比:WebRTC VS RTMP VS RTSP
Android平台一对一音视频通话方案对比:WebRTC VS RTMP VS RTSP
280 0
|
12月前
|
Web App开发 编解码 前端开发
Android | 音视频方向进阶路线及资源合集
但是系统相机和系统控件VideoView的局限性都是可定制型太差,系统相机的图像分辨率,视频码率以及VideoView的进度条等.
153 0