在AVFoundation中,可以使用AVCaptureSession
和AVCaptureVideoDataOutput
来处理不同宽高比的视频格式。以下是一个示例代码,演示如何通过AVCaptureSession捕获视频,并使用AVCaptureVideoDataOutput处理不同宽高比的视频格式:
import AVFoundation
// 创建AVCaptureSession
let captureSession = AVCaptureSession()
// 设置输入设备(摄像头)
guard let captureDevice = AVCaptureDevice.default(for: .video) else { return }
guard let input = try? AVCaptureDeviceInput(device: captureDevice) else { return }
captureSession.addInput(input)
// 设置输出数据格式(设置视频数据输出)
let videoDataOutput = AVCaptureVideoDataOutput()
videoDataOutput.videoSettings = [kCVPixelBufferPixelFormatTypeKey as String: Int(kCVPixelFormatType_32BGRA)]
videoDataOutput.setSampleBufferDelegate(self, queue: DispatchQueue.main)
captureSession.addOutput(videoDataOutput)
// 设置预览图层
let previewLayer = AVCaptureVideoPreviewLayer(session: captureSession)
previewLayer.videoGravity = .resizeAspectFill
previewLayer.frame = view.frame
view.layer.addSublayer(previewLayer)
// 启动捕获会话
captureSession.startRunning()
在上述代码中,我们先创建了一个AVCaptureSession
对象,并设置输入设备为默认的视频设备。然后创建一个AVCaptureVideoDataOutput
对象来处理视频数据,并设置数据格式为32BGRA(ARGB32,每个像素占用4个字节)。接下来,我们设置了一个预览图层,用于显示实时的摄像头画面。最后,我们启动了捕获会话。
要处理不同宽高比的视频格式,可以在预览图层的videoGravity
属性中设置合适的值。常用的设置包括:
.resizeAspect
:保持原始宽高比,缩放以适应图层的边界。.resizeAspectFill
:保持原始宽高比,缩放以填充图层的边界,可能会裁剪部分视频画面。.resize
:不保持原始宽高比,直接缩放至图层的边界。根据实际需求,选择合适的videoGravity
属性值即可。
上一篇:不同宽度子组的条形图