当前位置: 首页 > 知识库问答 >
问题:

Android Lollipop 5.0.2上慢速H264 1080p@60fps解码

糜博远
2023-03-14

最近,由于系统升级,我们将应用程序移植到Android L版本5.0.2。我的应用程序不能播放像720p@60fps和1080p@60fps这样的高分辨率视频。

同样,这是我关于stackoverflow的问题,请原谅我关于错误的代码格式和直接引用的问题。

public class MainActivity extends Activity {

    static final String TAG = "MainActivity";
    private PlayerThread mPlayer = null;
    private static final String MIME_TYPE = "video/avc";


    private byte[] mSPSPPSFrame = new byte [3000];
    private byte[] sps = new byte[37];
    File videoFile = null;
    File videoFile1 = null;
    TextView tv ;

    FileInputStream videoFileStream = null;
    FileInputStream videoFileStream1 = null;
    int[] tall = null ;
    SpeedControlCallback mspeed = new SpeedControlCallback();

    int mStreamLen = 0;
    FrameLayout game;
    RelativeLayout rl ;
    @Override
    public void onCreate(Bundle savedInstanceState) {
        super.onCreate(savedInstanceState);


        //mVideoSurfaceView = (SurfaceView)findViewById(R.id.videoSurfaceView);
        setContentView(R.layout.activity_main);

        SurfaceView first = (SurfaceView) findViewById(R.id.firstSurface);
        first.getHolder().addCallback(new SurfaceHolder.Callback() {
            @Override
            public void surfaceCreated(SurfaceHolder surfaceHolder) {
                Log.d(TAG, "First surface created!");
            }

            @Override
            public void surfaceChanged(SurfaceHolder surfaceHolder, int i, int i2, int i3) {
                Log.d(TAG, "surfaceChanged()");
                surfaceHolder.getSurface();

                if (mPlayer == null) {
                    mPlayer = new PlayerThread(surfaceHolder.getSurface());
                    mPlayer.start();

                }

            }

            @Override
            public void surfaceDestroyed(SurfaceHolder surfaceHolder) {
                Log.d(TAG, "First surface destroyed!");
            }
        });

        tv = (TextView) findViewById(R.id.textview);

        videoFile = new File("/data/local/tmp/dump60fps.h264");
        videoFile1 = new File("/data/local/tmp/dump60fps.size");

    }

    private class PlayerThread extends Thread {
        private Surface surface;

        public PlayerThread(Surface surface) {
            this.surface = surface;
        }

        @Override
        public void run() {
            try {
                decodeVideo(0, 1920,1080, 50, surface);
            } catch (IOException e) {
                e.printStackTrace();
            } catch (InterruptedException e) {
                e.printStackTrace();
            } catch (Throwable e) {
                e.printStackTrace();
            }

        }
    }




    private void decodeVideo(int testinput, int width, int height,
            int threshold, Surface surface) throws Throwable {

        MediaCodec codec = null;
        MediaFormat mFormat;
        final long kTimeOutUs = 10000;
        MediaCodec.BufferInfo info = new MediaCodec.BufferInfo();
        boolean sawInputEOS = false;
        boolean sawOutputEOS = false;
        MediaFormat oformat = null;
        int errors = -1;
        long presentationTimeUs = 0L;
        boolean mVideoStart = false;
        byte[] byteArray = new byte[65525*5*3];
        int i; 
        int sizeInBytes = 0, index, sampleSize = 0;


        try {

            byte[] bytes = new byte[(int) videoFile1.length()];
            FileInputStream fis = new FileInputStream(videoFile1);
            fis.read(bytes);
            fis.close();
            String[] valueStr = new String(bytes).trim().split("\\s+");
            tall = new int[valueStr.length];
            mStreamLen = valueStr.length;
            Log.e(TAG, "++++++ Total Frames ++++++"+mStreamLen);
            for ( i = 0; i < valueStr.length; i++) {
                tall[i] = Integer.parseInt(valueStr[i]);
            }
        } catch (IOException e1) {
            e1.printStackTrace();
        }

        index =1;
        try {
            videoFileStream = new FileInputStream(videoFile);
        } catch (FileNotFoundException e1) {
            e1.printStackTrace();
        }


        System.currentTimeMillis();

        if (mVideoStart == false) {
            try {
                sizeInBytes = videoFileStream.read(mSPSPPSFrame, 0,37);
                Log.e(TAG, "VideoEngine configure ."+sizeInBytes);
                //for (i = 0 ; i < sizeInBytes; i++){
                //  Log.e(TAG, "VideoEngine  ."+mSPSPPSFrame[i]);}



            } catch (IOException e1) {
                e1.printStackTrace();
            }
            sampleSize = sizeInBytes;
            index++;
            index++;

            mFormat = MediaFormat.createVideoFormat(MIME_TYPE, 1920,1080);
            mFormat.setByteBuffer("csd-0", ByteBuffer.wrap( mSPSPPSFrame,0, sizeInBytes));
            codec = MediaCodec.createDecoderByType(MIME_TYPE);

            codec.configure(mFormat, surface /*surface*/ , null /* crypto */, 0 /* flags */);
            codec.start();
            codec.getInputBuffers();
            codec.getOutputBuffers();

        }

        //  index = 0;
        while (!sawOutputEOS && errors < 0) {


            if (!sawInputEOS) {
                int inputBufIndex = codec.dequeueInputBuffer(kTimeOutUs);
                //Log.d(TAG, String.format("Archana Dqing the input buffer with BufIndex #: %d",inputBufIndex));


                if (inputBufIndex >= 0) {
                    ByteBuffer dstBuf = codec.getInputBuffers()[inputBufIndex];


                    /*
                     * Read data from file and copy to the input ByteBuffer
                     */
                    try {
                        sizeInBytes = videoFileStream.read(byteArray, 0,
                                tall[index] /*+ 4*/);
                        sampleSize = tall[index]/*+ 4*/;
                        index++;

                    } catch (IOException e) {
                        e.printStackTrace();
                    }
                    if (sizeInBytes <= 0) {
                        codec.queueInputBuffer(
                                inputBufIndex,
                                0 /* offset */,
                                0,
                                presentationTimeUs,
                                MediaCodec.BUFFER_FLAG_END_OF_STREAM );
                        sawInputEOS = true;
                    }
                    else {
                        dstBuf.put(byteArray, 0, sizeInBytes);

                        if (mVideoStart == false) mVideoStart = true;

                        codec.queueInputBuffer(
                                inputBufIndex,
                                0 /* offset */,
                                sampleSize,
                                presentationTimeUs,
                                mVideoStart ? 0:MediaCodec.BUFFER_FLAG_CODEC_CONFIG );
                        //Log.d(TAG, String.format(" After queueing the buffer to decoder with inputbufindex and samplesize #: %d ,%d ind %d",inputBufIndex,sampleSize,index));
                    }
                }
            }

            int res = codec.dequeueOutputBuffer(info, kTimeOutUs);
            //Log.d(TAG, String.format(" Getting the information about decoded output buffer flags,offset,PT,size #: %d %d %d %d",info.flags,info.offset,info.presentationTimeUs,info.size));
            //Log.d(TAG, String.format(" Getting the output of decoder in res #: %d",res));

            if (res >= 0) {
                int outputBufIndex = res;

                //Log.d(TAG, "Output PTS "+info.presentationTimeUs);


                //mspeed.preRender(info.presentationTimeUs);
                //mspeed.setFixedPlaybackRate(25);

                codec.releaseOutputBuffer(outputBufIndex, true /* render */);
                //Log.d(TAG, String.format(" releaseoutputbuffer index= #: %d",outputBufIndex));


                if ((info.flags & MediaCodec.BUFFER_FLAG_END_OF_STREAM) != 0) {
                    Log.d(TAG, "saw output EOS.");
                    sawOutputEOS = true;
                }

            } else if (res == MediaCodec.INFO_OUTPUT_BUFFERS_CHANGED) {
                codec.getOutputBuffers();
                Log.d(TAG, "output buffers have changed.");

            } else if (res == MediaCodec.INFO_OUTPUT_FORMAT_CHANGED) {
                oformat = codec.getOutputFormat();
                Log.d(TAG, "output format has changed to " + oformat);
            }

        }
        codec.stop();
        codec.release();
        this.finish();

    }


    @Override
    public boolean onCreateOptionsMenu(Menu menu) {
        getMenuInflater().inflate(R.menu.activity_main, menu);
        return true;
    }
}

共有1个答案

邓昊天
2023-03-14
    null
 类似资料:
  • 问题内容: 我尝试使用AES 128位密钥解密4.2 MB .dcf文件,但是解密(在cipher.doFinal(data)函数上)花费了33秒,这是否正常? 这是一个代码片段: 问题答案: 您应该尝试计算不写入文件所花费的时间,即,在调用之前和之后立即调用。 话虽这么说,基于Android的手机通常使用最新的主频为500 MHz或更高的ARM处理器,并且从理论上讲,这种野兽每秒可以对几兆字节的

  • 我正在使用Apache Commons Net 3.3在Java应用程序中处理FTP传输。 下载似乎工作正常,但我的速度比上传的本地互联网连接能力慢得多。 将文件数据写入流的代码如下所示: BUFF_SIZE=16kB 通过FTPClient缓冲区大小也设置为16kB 问题不在于服务器或我的互联网连接,因为使用Filezilla作为FTP客户端,上传速度要合理得多。 这个问题似乎也发生在Java6

  • 我正在试用Flutter,我的应用程序在仿真器和实际设备上的响应都非常非常慢。我收到这样的警告 跳过了51帧!应用程序可能在其主线程上做了太多的工作。 我知道Dart是一种单线程编程语言,在Android中,我曾使用用于异步的好的旧块来解决这一问题。我试图在Flutter中应用相同的方法,并且我阅读了和排序,但是当您从Internet读取数据时,这些示例似乎是针对这些示例的。我的应用程序在这个阶段

  • 针对Postgres数据库的某个索引SELECT查询所花费的时间非常可变--从50毫秒到多秒,有时甚至是几分钟,即使在最轻的负载下也是如此。 你能为26秒的差距提出一个解释吗? 关于并发的注意事项:即使只有一个请求也有很大的可变性:端到端50-300毫秒,但是当一个用户提交一批大约100个这样的查找时(可能有10-20个同时运行),很可能有几个查找需要5-10秒。然而C3P0的统计数据从来没有比:

  • 问题内容: 我有以下InnoDB表: 使用这些键: 我只是注意到有时我在此表上有一个INSERT查询,耗时超过1秒 我真的很困惑,为什么要花这么长时间。我如何加快速度? 顺便说一句:这样每天大约有80个缓慢的插入和40个缓慢的更新。 问题答案: 有时,不是查询本身会导致速度降低- 在表上运行的另一个查询可能会由于事务隔离和锁定而很容易导致插入速度降低。您的慢查询可能只是在等待其他事务完成。这在繁忙