乡下人产国偷v产偷v自拍,国产午夜片在线观看,婷婷成人亚洲综合国产麻豆,久久综合给合久久狠狠狠9

  • <output id="e9wm2"></output>
    <s id="e9wm2"><nobr id="e9wm2"><ins id="e9wm2"></ins></nobr></s>

    • 分享

      ffmpeg超詳細綜合教程

       mediatv 2016-07-11


      本文的示例將實現(xiàn):讀取安卓手機攝像頭數(shù)據(jù)并使用H.264編碼格式實時編碼保存為flv文件。示例包含了

      1、編譯適用于安卓平臺的ffmpeg庫

      2、在java中通過JNI使用ffmpeg

      3、讀取安卓攝像頭數(shù)據(jù)并在后臺線程中使用ffmpeg進行編碼的基本流程

      具有較強的綜合性。

      編譯適用于安卓平臺的ffmpeg庫

      平 時我們編譯ffmpeg類庫都是在x86平臺下,而安卓手機屬于arm平臺,所以要先通過交叉編譯的方法在x86平臺下編譯出可以在arm平臺下使用的 ffmpeg類庫。Google就為我們提供了一套可以再Linux下完成該任務的交叉編譯工具鏈——NDK,下載時可以看到google同時提供了 ndk的windows版和linux版,前者可以在windows下通過cygwin(可以理解為一個在windows下模擬linux的工具)使用。 我這里使用的是Android-ndk-r10e,在cygwin下使用。ndk的下載安裝基本是傻瓜式的,但要注意linux系統(tǒng)對x86和x64是分 的很清楚的,不像windows那么隨性,此外還需要提醒的是,在下載安裝cygwin時,只需要選擇binutils
      , gcc , gcc-mingw , gdb , make這幾個組件。安裝完成后,在cygwin安裝目錄下點擊cygwin.bat打開命令窗口,輸入make -version驗證是否安裝成功。



      做好以上的準備工作之后就可以正式開始ffmpeg源碼的編譯了。
      首先需要修改configure文件,確保類庫版本號不會出現(xiàn)在.so后綴名的后面,否則安卓平臺無法識別這樣的類庫
      找到下面幾句
      1. SLIBNAME_WITH_MAJOR='$(SLIBNAME).$(LIBMAJOR)'    
      2. LIB_INSTALL_EXTRA_CMD='$$(RANLIB)"$(LIBDIR)/$(LIBNAME)"'    
      3. SLIB_INSTALL_NAME='$(SLIBNAME_WITH_VERSION)'    
      4. SLIB_INSTALL_LINKS='$(SLIBNAME_WITH_MAJOR)$(SLIBNAME)'  
      修改為
      1. SLIBNAME_WITH_MAJOR='$(SLIBPREF)$(FULLNAME)-$(LIBMAJOR)$(SLIBSUF)'    
      2. LIB_INSTALL_EXTRA_CMD='$$(RANLIB)"$(LIBDIR)/$(LIBNAME)"'    
      3. SLIB_INSTALL_NAME='$(SLIBNAME_WITH_MAJOR)'    
      4. SLIB_INSTALL_LINKS='$(SLIBNAME)'  
      之后進行常規(guī)的configure配置,make, make install步驟即可,下面給出一個常規(guī)的腳本示例
      1. make clean    
      2.     
      3. export NDK=xxxx/android-ndk-r10e  
      4. export PREBUILT=$NDK/toolchains/arm-linux-androideabi-4.8/prebuilt    
      5. export PLATFORM=$NDK/platforms/android-8/arch-arm    
      6. export PREFIX=../android_ffmpeglib  
      7.    
      8.   ./configure --target-os=linux --prefix=$PREFIX \    
      9. --enable-cross-compile \    
      10. --enable-runtime-cpudetect \    
      11. --disable-asm \    
      12. --arch=arm \    
      13. --cc=$PREBUILT/windows/bin/arm-linux-androideabi-gcc \    
      14. --cross-prefix=$PREBUILT/windows/bin/arm-linux-androideabi- \    
      15. --disable-stripping \    
      16. --nm=$PREBUILT/windows/bin/arm-linux-androideabi-nm \    
      17. --sysroot=$PLATFORM \    
      18. --enable-gpl --enable-shared --disable-static --enable-small \    
      19. --disable-ffprobe --disable-ffplay --disable-ffmpeg --disable-ffserver --disable-debug \    
      20. --extra-cflags="-fPIC -DANDROID -D__thumb__ -mthumb -Wfatal-errors -Wno-deprecated -mfloat-abi=softfp -marm -march=armv7-a"     
      21.    
      22. make    
      23. make install  
      成功編譯后,可以看到如下類庫



      在java中通過JNI使用ffmpeg

      JNI 即java本地接口,java native interface,它是一個協(xié)議, 該協(xié)議用來溝通Java代碼和外部的本地C/C++代碼, 通過該協(xié)議 Java代碼可以調(diào)用外部的本地代碼, 外部的C/C++ 代碼可以調(diào)用Java代碼。簡單來說,就是將一個C語言的方法映射到Java的某個方法上;

      JNI中的一些概念 :

      -- native : Java語言中修飾本地方法的修飾符, 被該修飾符修飾的方法沒有方法體;

      -- Native方法 : 在Java語言中被native關(guān)鍵字修飾的方法是Native方法;

      -- JNI層 : Java聲明Native方法的部分;

      -- JNI函數(shù) : JNIEnv提供的函數(shù), 這些函數(shù)在jni.h中進行定義;

      -- JNI方法 : Native方法對應的JNI層實現(xiàn)的 C/C++方法, 即在jni目錄中實現(xiàn)的那些C語言代碼;

      具體流程可以參照ndk的sample目錄下的hellojni項目,總結(jié)起來有如下幾個步驟
      1、創(chuàng)建常規(guī)Android項目
      2、聲明Native方法,形如public native String stringFromJNI();
      3、創(chuàng)建c文件
      在工程根目錄下創(chuàng)建 jni 目錄, 然后創(chuàng)建一個c語言源文件, 在文件中引入 include <jni.h>。c語言方法聲明形如

      1. jstring  
      2. Java_com_example_hellojni_HelloJni_stringFromJNI( JNIEnv* env,  
      3.                                                   jobject thiz )  
      jstring 是 Java語言中的String類型, 方法名格式為 : Java_完整包名類名_方法名();

      -- JNIEnv參數(shù) : 代表的是Java環(huán)境, 通過這個環(huán)境可以調(diào)用Java里面的方法;

      -- jobject參數(shù) : 調(diào)用C語言方法的對象, thiz對象表示當前的對象, 即調(diào)用JNI方法所在的類;

      4、編寫Android.mk文件
      就好比常用的makefile,形如
      1. LOCAL_PATH := $(call my-dir)  
      2.   
      3. include $(CLEAR_VARS)  
      4.   
      5. LOCAL_MODULE    := hello-jni  
      6. LOCAL_SRC_FILES := hello-jni.c  
      7.   
      8. include $(BUILD_SHARED_LIBRARY)  
      -- LOCAL_PATH : 代表mk文件所在的目錄;

      -- include $(CLEAR_VARS) : 編譯工具函數(shù), 通過該函數(shù)可以進行一些初始化操作;

      -- LOCAL_MODULE : 編譯后的 .so 后綴文件叫什么名字;

      -- LOCAL_SRC_FILES: 指定編譯的源文件名稱;

      -- include $(BUILD_SHARED_LIBRARY) : 告訴編譯器需要生成動態(tài)庫;

      5、NDK編譯生成動態(tài)庫
      利用上面寫好的.mk文件,進入 cygdrive 找到windows目錄下對應的文件, 編譯完成之后, 會自動生成so文件并放在libs目錄下, 之后就可以在Java中調(diào)用C語言方法了;

      6、java中加載動態(tài)庫
      在Java類中的靜態(tài)代碼塊中使用System.LoadLibrary()方法加載編譯好的 .so 動態(tài)庫,形如
      1. static {  
      2.         System.loadLibrary("hello-jni");  
      3.     }  


      需要說明的是,調(diào)試JNI程序非常麻煩,無法進入c文件中進行單步調(diào)試,只能通過輸出一些信息然后利用logcat進行調(diào)試,所以也可以先在vs里面把c文件的內(nèi)容跑一遍簡單驗證一下。

      參照上面的基本流程,具體到利用ffmpeg實現(xiàn)安卓攝像頭數(shù)據(jù)的編碼
      第一步:我們聲明如下四個Native方法

      1. //JNI  
      2. //初始化,讀取待編碼數(shù)據(jù)的寬和高  
      3.     public native int initial(int width,int height);  
      4. //讀取yuv數(shù)據(jù)進行編碼  
      5.     public native int encode(byte[] yuvimage);  
      6. //清空緩存的幀  
      7.     public native int flush();  
      8. //清理  
      9.     public native int close();  


      第二步:對應的c文件內(nèi)容如下,基本就是一個將yuv數(shù)據(jù)編碼為H.264的flv文件的流程,唯一需要注意的就是安卓攝像頭拍攝數(shù)據(jù)的像素格式為NV21,需要轉(zhuǎn)換為YUV420P才能進行編碼

      1. /** 
      2.  * 基于FFmpeg安卓攝像頭編碼 
      3.  * FFmpeg Android Camera Encoder 
      4.  * 
      5.  * 張暉 Hui Zhang 
      6.  * zhanghuicuc@gmail.com 
      7.  * 中國傳媒大學/數(shù)字電視技術(shù) 
      8.  * Communication University of China / Digital TV Technology 
      9.  * 
      10.  * 
      11.  */  
      12.   
      13. #include <stdio.h>  
      14. #include <time.h>   
      15.   
      16. #include "libavcodec/avcodec.h"  
      17. #include "libavformat/avformat.h"  
      18. #include "libswscale/swscale.h"  
      19. #include "libavutil/log.h"  
      20.   
      21. #ifdef ANDROID  
      22. #include <jni.h>  
      23. #include <android/log.h>  
      24. #define LOGE(format, ...)  __android_log_print(ANDROID_LOG_ERROR, "(>_<)", format, ##__VA_ARGS__)  
      25. #define LOGI(format, ...)  __android_log_print(ANDROID_LOG_INFO,  "(=_=)", format, ##__VA_ARGS__)  
      26. #else  
      27. #define LOGE(format, ...)  printf("(>_<) " format "\n", ##__VA_ARGS__)  
      28. #define LOGI(format, ...)  printf("(^_^) " format "\n", ##__VA_ARGS__)  
      29. #endif  
      30.   
      31. AVFormatContext *ofmt_ctx;  
      32. AVStream* video_st;  
      33. AVCodecContext* pCodecCtx;  
      34. AVCodec* pCodec;  
      35. AVPacket enc_pkt;  
      36. AVFrame *pFrameYUV;  
      37.   
      38. int framecnt = 0;  
      39. int yuv_width;  
      40. int yuv_height;  
      41. int y_length;  
      42. int uv_length;  
      43. int64_t start_time;  
      44.   
      45. //Output FFmpeg's av_log()  
      46. void custom_log(void *ptr, int level, const char* fmt, va_list vl){  
      47.     FILE *fp=fopen("/storage/emulated/0/av_log.txt","a+");  
      48.     if(fp){  
      49.         vfprintf(fp,fmt,vl);  
      50.         fflush(fp);  
      51.         fclose(fp);  
      52.     }  
      53. }  
      54.   
      55. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_initial  
      56.   (JNIEnv *env, jobject obj,jint width,jint height)  
      57. {  
      58.     const char* out_path = "/sdcard/zhanghui/testffmpeg.flv";  
      59.     yuv_width=width;  
      60.     yuv_height=height;  
      61.     y_length=width*height;  
      62.     uv_length=width*height/4;  
      63.   
      64.     //FFmpeg av_log() callback  
      65.     av_log_set_callback(custom_log);  
      66.   
      67.     av_register_all();  
      68.   
      69.     //output initialize  
      70.     avformat_alloc_output_context2(&ofmt_ctx, NULL, "flv", out_path);  
      71.     //output encoder initialize  
      72.     pCodec = avcodec_find_encoder(AV_CODEC_ID_H264);  
      73.     if (!pCodec){  
      74.         LOGE("Can not find encoder!\n");  
      75.         return -1;  
      76.     }  
      77.     pCodecCtx = avcodec_alloc_context3(pCodec);  
      78.     pCodecCtx->pix_fmt = PIX_FMT_YUV420P;  
      79.     pCodecCtx->width = width;  
      80.     pCodecCtx->height = height;  
      81.     pCodecCtx->time_base.num = 1;  
      82.     pCodecCtx->time_base.den = 30;  
      83.     pCodecCtx->bit_rate = 800000;  
      84.     pCodecCtx->gop_size = 300;  
      85.     /* Some formats want stream headers to be separate. */  
      86.     if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER)  
      87.         pCodecCtx->flags |= CODEC_FLAG_GLOBAL_HEADER;  
      88.   
      89.     //H264 codec param  
      90.     //pCodecCtx->me_range = 16;  
      91.     //pCodecCtx->max_qdiff = 4;  
      92.     //pCodecCtx->qcompress = 0.6;  
      93.     pCodecCtx->qmin = 10;  
      94.     pCodecCtx->qmax = 51;  
      95.     //Optional Param  
      96.     pCodecCtx->max_b_frames = 3;  
      97.     // Set H264 preset and tune  
      98.     AVDictionary *param = 0;  
      99.     av_dict_set(?m, "preset""ultrafast", 0);  
      100.     av_dict_set(?m, "tune""zerolatency", 0);  
      101.   
      102.     if (avcodec_open2(pCodecCtx, pCodec, ?m) < 0){  
      103.         LOGE("Failed to open encoder!\n");  
      104.         return -1;  
      105.     }  
      106.   
      107.     //Add a new stream to output,should be called by the user before avformat_write_header() for muxing  
      108.     video_st = avformat_new_stream(ofmt_ctx, pCodec);  
      109.     if (video_st == NULL){  
      110.         return -1;  
      111.     }  
      112.     video_st->time_base.num = 1;  
      113.     video_st->time_base.den = 30;  
      114.     video_st->codec = pCodecCtx;  
      115.   
      116.     //Open output URL,set before avformat_write_header() for muxing  
      117.     if (avio_open(&ofmt_ctx->pb, out_path, AVIO_FLAG_READ_WRITE) < 0){  
      118.         LOGE("Failed to open output file!\n");  
      119.         return -1;  
      120.     }  
      121.   
      122.     //Write File Header  
      123.     avformat_write_header(ofmt_ctx, NULL);  
      124.   
      125.     start_time = av_gettime();  
      126.     return 0;  
      127. }  
      128.   
      129. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_encode  
      130.   (JNIEnv *env, jobject obj, jbyteArray yuv)  
      131. {  
      132.     int ret;  
      133.     int enc_got_frame=0;  
      134.     int i=0;  
      135.   
      136.     pFrameYUV = avcodec_alloc_frame();  
      137.     uint8_t *out_buffer = (uint8_t *)av_malloc(avpicture_get_size(PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height));  
      138.     avpicture_fill((AVPicture *)pFrameYUV, out_buffer, PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);  
      139.   
      140.     //安卓攝像頭數(shù)據(jù)為NV21格式,此處將其轉(zhuǎn)換為YUV420P格式  
      141.     jbyte* in= (jbyte*)(*env)->GetByteArrayElements(env,yuv,0);  
      142.     memcpy(pFrameYUV->data[0],in,y_length);  
      143.     for(i=0;i<uv_length;i++)  
      144.     {  
      145.         *(pFrameYUV->data[2]+i)=*(in+y_length+i*2);  
      146.         *(pFrameYUV->data[1]+i)=*(in+y_length+i*2+1);  
      147.     }  
      148.   
      149.     pFrameYUV->format = AV_PIX_FMT_YUV420P;  
      150.     pFrameYUV->width = yuv_width;  
      151.     pFrameYUV->height = yuv_height;  
      152.   
      153.     enc_pkt.data = NULL;  
      154.     enc_pkt.size = 0;  
      155.     av_init_packet(&enc_pkt);  
      156.     ret = avcodec_encode_video2(pCodecCtx, &enc_pkt, pFrameYUV, &enc_got_frame);  
      157.     av_frame_free(&pFrameYUV);  
      158.   
      159.     if (enc_got_frame == 1){  
      160.         LOGI("Succeed to encode frame: %5d\tsize:%5d\n", framecnt, enc_pkt.size);  
      161.         framecnt++;  
      162.         enc_pkt.stream_index = video_st->index;  
      163.   
      164.         //Write PTS  
      165.         AVRational time_base = ofmt_ctx->streams[0]->time_base;//{ 1, 1000 };  
      166.         AVRational r_framerate1 = {60, 2 };//{ 50, 2 };  
      167.         AVRational time_base_q = { 1, AV_TIME_BASE };  
      168.         //Duration between 2 frames (us)  
      169.         int64_t calc_duration = (double)(AV_TIME_BASE)*(1 / av_q2d(r_framerate1));  //內(nèi)部時間戳  
      170.         //Parameters  
      171.         //enc_pkt.pts = (double)(framecnt*calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base));  
      172.         enc_pkt.pts = av_rescale_q(framecnt*calc_duration, time_base_q, time_base);  
      173.         enc_pkt.dts = enc_pkt.pts;  
      174.         enc_pkt.duration = av_rescale_q(calc_duration, time_base_q, time_base); //(double)(calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base));  
      175.         enc_pkt.pos = -1;  
      176.   
      177.         //Delay  
      178.         int64_t pts_time = av_rescale_q(enc_pkt.dts, time_base, time_base_q);  
      179.         int64_t now_time = av_gettime() - start_time;  
      180.         if (pts_time > now_time)  
      181.             av_usleep(pts_time - now_time);  
      182.   
      183.         ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt);  
      184.         av_free_packet(&enc_pkt);  
      185.     }  
      186.   
      187.     return 0;  
      188. }  
      189.   
      190. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_flush  
      191.   (JNIEnv *env, jobject obj)  
      192. {  
      193.     int ret;  
      194.     int got_frame;  
      195.     AVPacket enc_pkt;  
      196.     if (!(ofmt_ctx->streams[0]->codec->codec->capabilities &  
      197.         CODEC_CAP_DELAY))  
      198.         return 0;  
      199.     while (1) {  
      200.         enc_pkt.data = NULL;  
      201.         enc_pkt.size = 0;  
      202.         av_init_packet(&enc_pkt);  
      203.         ret = avcodec_encode_video2(ofmt_ctx->streams[0]->codec, &enc_pkt,  
      204.             NULL, &got_frame);  
      205.         if (ret < 0)  
      206.             break;  
      207.         if (!got_frame){  
      208.             ret = 0;  
      209.             break;  
      210.         }  
      211.         LOGI("Flush Encoder: Succeed to encode 1 frame!\tsize:%5d\n", enc_pkt.size);  
      212.   
      213.         //Write PTS  
      214.         AVRational time_base = ofmt_ctx->streams[0]->time_base;//{ 1, 1000 };  
      215.         AVRational r_framerate1 = { 60, 2 };  
      216.         AVRational time_base_q = { 1, AV_TIME_BASE };  
      217.         //Duration between 2 frames (us)  
      218.         int64_t calc_duration = (double)(AV_TIME_BASE)*(1 / av_q2d(r_framerate1));  //內(nèi)部時間戳  
      219.         //Parameters  
      220.         enc_pkt.pts = av_rescale_q(framecnt*calc_duration, time_base_q, time_base);  
      221.         enc_pkt.dts = enc_pkt.pts;  
      222.         enc_pkt.duration = av_rescale_q(calc_duration, time_base_q, time_base);  
      223.   
      224.         //轉(zhuǎn)換PTS/DTS(Convert PTS/DTS)  
      225.         enc_pkt.pos = -1;  
      226.         framecnt++;  
      227.         ofmt_ctx->duration = enc_pkt.duration * framecnt;  
      228.   
      229.         /* mux encoded frame */  
      230.         ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt);  
      231.         if (ret < 0)  
      232.             break;  
      233.     }  
      234.         //Write file trailer  
      235.         av_write_trailer(ofmt_ctx);  
      236.         return 0;  
      237. }  
      238.   
      239. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_close  
      240.   (JNIEnv *env, jobject obj)  
      241. {  
      242.     if (video_st)  
      243.         avcodec_close(video_st->codec);  
      244.     avio_close(ofmt_ctx->pb);  
      245.     avformat_free_context(ofmt_ctx);  
      246.     return 0;  
      247. }  


      第三步:編寫Android.mk如下,這里要在jni目錄下放入ffmpeg的頭文件,就跟平時的調(diào)用方法一樣
      1. LOCAL_PATH := $(call my-dir)  
      2.   
      3. # FFmpeg library  
      4. include $(CLEAR_VARS)  
      5. LOCAL_MODULE := avcodec  
      6. LOCAL_SRC_FILES := libavcodec-56.so  
      7. include $(PREBUILT_SHARED_LIBRARY)  
      8.   
      9. include $(CLEAR_VARS)  
      10. LOCAL_MODULE := avdevice  
      11. LOCAL_SRC_FILES := libavdevice-56.so  
      12. include $(PREBUILT_SHARED_LIBRARY)  
      13.   
      14. include $(CLEAR_VARS)  
      15. LOCAL_MODULE := avfilter  
      16. LOCAL_SRC_FILES := libavfilter-5.so  
      17. include $(PREBUILT_SHARED_LIBRARY)  
      18.   
      19. include $(CLEAR_VARS)  
      20. LOCAL_MODULE := avformat  
      21. LOCAL_SRC_FILES := libavformat-56.so  
      22. include $(PREBUILT_SHARED_LIBRARY)  
      23.   
      24. include $(CLEAR_VARS)  
      25. LOCAL_MODULE := avutil  
      26. LOCAL_SRC_FILES := libavutil-54.so  
      27. include $(PREBUILT_SHARED_LIBRARY)  
      28.   
      29. include $(CLEAR_VARS)  
      30. LOCAL_MODULE := postproc  
      31. LOCAL_SRC_FILES := libpostproc-53.so  
      32. include $(PREBUILT_SHARED_LIBRARY)  
      33.   
      34. include $(CLEAR_VARS)  
      35. LOCAL_MODULE := swresample  
      36. LOCAL_SRC_FILES := libswresample-1.so  
      37. include $(PREBUILT_SHARED_LIBRARY)  
      38.   
      39. include $(CLEAR_VARS)  
      40. LOCAL_MODULE := swscale  
      41. LOCAL_SRC_FILES := libswscale-3.so  
      42. include $(PREBUILT_SHARED_LIBRARY)  
      43.   
      44. # Program  
      45. include $(CLEAR_VARS)  
      46. LOCAL_MODULE := encode  
      47. LOCAL_SRC_FILES :=encode.c  
      48. LOCAL_C_INCLUDES += $(LOCAL_PATH)/include  
      49. LOCAL_LDLIBS := -llog -lz  
      50. LOCAL_SHARED_LIBRARIES := avcodec avdevice avfilter avformat avutil postproc swresample swscale  
      51. include $(BUILD_SHARED_LIBRARY)  


      第四步:使用cygwin切換到當前項目的jni目錄下,輸入ndk-build進行編譯即可,如下



      此時就可以在當前項目的libs目錄下看到ffmpeg所有的類庫以及我們自己的類庫,我這里是libencode.so,如下



      第五步:在java中加載動態(tài)庫
      1. static{  
      2.         System.loadLibrary("avutil-54");  
      3.         System.loadLibrary("swresample-1");  
      4.         System.loadLibrary("avcodec-56");  
      5.         System.loadLibrary("avformat-56");  
      6.         System.loadLibrary("swscale-3");  
      7.         System.loadLibrary("postproc-53");  
      8.         System.loadLibrary("avfilter-5");  
      9.         System.loadLibrary("avdevice-56");  
      10.         System.loadLibrary("encode");  
      11.     }  


      至此,就可以在java中調(diào)用我們聲明的四個方法了。

      java部分獲取攝像頭數(shù)據(jù)并編碼的流程

      簡單來說,就是利用Camera的PreviewCallback獲得攝像頭數(shù)據(jù),在通過AsyncTask開啟后臺線程將攝像頭數(shù)據(jù)進行編碼。這里為了避免編碼過程占用過多的硬件資源,將編碼視頻寬和高設(shè)置為了640和480,。
      這 里有兩個坑,一是onPreviewFrame方法的arg0參數(shù)就是YUV數(shù)據(jù)了,不要再轉(zhuǎn)換為YuvImage對象了,否則會在頭部加上一些多余的信 息,導致編碼錯誤,二是用于清空緩存幀的flush方法不能在oncreate主線程中調(diào)用,否則會導致程序閃退,目前還不清楚原因,所以這里連同 close()方法一起放到了onPause方法中進行調(diào)用,在安卓開發(fā)方面我還是新手,希望有了解這個問題怎么解決的朋友多多指教。
      1. package com.zhanghui.test;<br><br>import java.io.IOException;<br>import android.annotation.TargetApi;<br>import android.app.Activity;<br>import android.content.pm.PackageManager;<br>import android.hardware.Camera;<br>import android.os.AsyncTask;<br>import android.os.Build;<br>import android.os.Bundle;<br>import android.util.Log;<br>import android.view.Menu;<br>import android.view.MenuItem;<br>import android.view.SurfaceHolder;<br>import android.view.SurfaceView;<br>import android.view.View;<br>import android.widget.Button;<br>import android.widget.Toast;<br><br>@SuppressWarnings("deprecation")<br>public class MainActivity extends Activity {<br>    private static final String TAG= "MainActivity";<br>    private Button mTakeButton;<br> private Camera mCamera;<br> private SurfaceView mSurfaceView;<br>   private SurfaceHolder mSurfaceHolder;<br>   private boolean isRecording = false;<br>    <br>    private class StreamTask extends AsyncTask<Void, Void, Void>{<br>     <br>        private byte[] mData;<br><br>        // 構(gòu)造函數(shù)<br>        StreamTask(byte[] data) {<br>            this.mData = data;<br>        }<br>        <br>        @Override<br>        protected Void doInBackground(Void... params) {   <br>            // TODO Auto-generated method stub<br>         if(mData!=null){<br>            Log.i(TAG, "fps: " + mCamera.getParameters().getPreviewFrameRate());         <br>            encode(mData);<br>            }<br>            <br>          return null;<br>        }        <br>    }   <br> private StreamTask mStreamTask;<br> <br>    @Override<br>    protected void onCreate(Bundle savedInstanceState) { <br>        super.onCreate(savedInstanceState);<br>        setContentView(R.layout.activity_main);<br>        <br>        final Camera.PreviewCallback mPreviewCallbacx=new Camera.PreviewCallback() {<br>            @Override<br>           public void onPreviewFrame(byte[] arg0, Camera arg1) {<br>              // TODO Auto-generated method stub<br>               if(null != mStreamTask){<br>                       switch(mStreamTask.getStatus()){<br>                        case RUNNING:<br>                           return;<br>                     case PENDING:                                    <br>                           mStreamTask.cancel(false);                      <br>                            break;                      <br>                        }<br>                   }<br>                mStreamTask = new StreamTask(arg0);<br>                 mStreamTask.execute((Void)null);<br>           }<br>       };<br><br>        <br>        mTakeButton=(Button)findViewById(R.id.take_button);<br>        <br>        PackageManager pm=this.getPackageManager();<br>        boolean hasCamera=pm.hasSystemFeature(PackageManager.FEATURE_CAMERA) ||<br>             pm.hasSystemFeature(PackageManager.FEATURE_CAMERA_FRONT) ||<br>             Build.VERSION.SDK_INT<Build.VERSION_CODES.GINGERBREAD;<br>        if(!hasCamera)<br>         mTakeButton.setEnabled(false);<br>        <br>        mTakeButton.setOnClickListener(new View.OnClickListener() {   <br>            @Override<br>           public void onClick(View arg0) {<br>                // TODO Auto-generated method stub<br>              if(mCamera!=null)<br>               {<br>                   if (isRecording) {                      <br>                        mTakeButton.setText("Start");                   <br>                        mCamera.setPreviewCallback(null);    <br>                       Toast.makeText(MainActivity.this, "encode done", Toast.LENGTH_SHORT).show();                                                                   <br>                     isRecording = false;               <br>                 }else {  <br>                       mTakeButton.setText("Stop");<br>                        initial(mCamera.getParameters().getPreviewSize().width,mCamera.getParameters().getPreviewSize().height);<br>                        mCamera.setPreviewCallback(mPreviewCallbacx);<br>                       isRecording = true;  <br>                   } <br>              }<br>           }<br>       });<br>       <br>       <br>        mSurfaceView=(SurfaceView)findViewById(R.id.surfaceView1);<br>        SurfaceHolder holder=mSurfaceView.getHolder();<br>        holder.setType(SurfaceHolder.SURFACE_TYPE_PUSH_BUFFERS);<br>        <br>        holder.addCallback(new SurfaceHolder.Callback() {<br>          <br>            @Override<br>           public void surfaceDestroyed(SurfaceHolder arg0) {<br>              // TODO Auto-generated method stub<br>              if(mCamera!=null)<br>               {<br>                   mCamera.stopPreview();<br>                  mSurfaceView = null;  <br>                  mSurfaceHolder = null;   <br>               }<br>           }<br>           <br>            @Override<br>           public void surfaceCreated(SurfaceHolder arg0) {<br>                // TODO Auto-generated method stub<br>              try{<br>                    if(mCamera!=null){<br>                      mCamera.setPreviewDisplay(arg0);<br>                        mSurfaceHolder=arg0;<br>                    }<br>               }catch(IOException exception){<br>                  Log.e(TAG, "Error setting up preview display", exception);<br>              }<br>           }<br>           <br>            @Override<br>           public void surfaceChanged(SurfaceHolder arg0, int arg1, int arg2, int arg3) {<br>              // TODO Auto-generated method stub<br>              if(mCamera==null) return;<br>               Camera.Parameters parameters=mCamera.getParameters();           <br>                parameters.setPreviewSize(640,480);<br>             parameters.setPictureSize(640,480);<br>             mCamera.setParameters(parameters);<br>              try{<br>                    mCamera.startPreview();<br>                 mSurfaceHolder=arg0;<br>                }catch(Exception e){<br>                    Log.e(TAG, "could not start preview", e);<br>                   mCamera.release();<br>                  mCamera=null;<br>               }<br>           }<br>       });<br>        <br>    }<br>    <br>    @TargetApi(9)<br>    @Override<br>    protected void onResume(){<br>        super.onResume();<br>       if(Build.VERSION.SDK_INT>=Build.VERSION_CODES.GINGERBREAD){<br>          mCamera=Camera.open(0);<br>     }else<br>       {<br>           mCamera=Camera.open();<br>      }<br>    }<br>    <br>    @Override<br>    protected void onPause(){<br>        super.onPause();<br>        flush();<br>        close();<br>        if(mCamera!=null){<br>          mCamera.release();<br>          mCamera=null;<br>       }<br>    }<br>    <br><br>    @Override<br>    public boolean onCreateOptionsMenu(Menu menu) {<br>        // Inflate the menu; this adds items to the action bar if it is present.<br>        getMenuInflater().inflate(R.menu.main, menu);<br>        return true;<br>    }<br><br>    @Override<br>    public boolean onOptionsItemSelected(MenuItem item) {<br>        // Handle action bar item clicks here. The action bar will<br>        // automatically handle clicks on the Home/Up button, so long<br>        // as you specify a parent activity in AndroidManifest.xml.<br>        int id = item.getItemId();<br>        if (id == R.id.action_settings) {<br>            return true;<br>        }<br>        return super.onOptionsItemSelected(item);<br>    }<br>    <br>  //JNI<br>    public native int initial(int width,int height);<br>    public native int encode(byte[] yuvimage);<br>    public native int flush();<br>    public native int close();<br>    <br>    <br>    static{  
      2.         System.loadLibrary("avutil-54");  
      3.         System.loadLibrary("swresample-1");  
      4.         System.loadLibrary("avcodec-56");  
      5.         System.loadLibrary("avformat-56");  
      6.         System.loadLibrary("swscale-3");  
      7.         System.loadLibrary("postproc-53");  
      8.         System.loadLibrary("avfilter-5");  
      9.         System.loadLibrary("avdevice-56");  
      10.         System.loadLibrary("encode");  
      11.     }<br>}<br>  


      至此,就完成了全部功能的開發(fā),程序截圖如下
      首先由用戶按下take鍵開始攝像



      此時按鍵轉(zhuǎn)為stop,按下即可停止攝像



      按下stop后,即停止攝像,彈出encode done信息,退出程序即可在對應目錄下看到編碼的flv視頻



        本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
        轉(zhuǎn)藏 分享 獻花(0

        0條評論

        發(fā)表

        請遵守用戶 評論公約

        類似文章 更多