在Swift中使用AVFoundation相机启动时被放大的问题通常是由于预览图层的尺寸与相机输出的尺寸不一致导致的。下面是一种解决方法:
import AVFoundation
class CameraViewController: UIViewController, AVCaptureVideoDataOutputSampleBufferDelegate {
// 创建一个AVCaptureSession
let captureSession = AVCaptureSession()
// 创建一个预览图层
var previewLayer: AVCaptureVideoPreviewLayer!
override func viewDidLoad() {
super.viewDidLoad()
// 设置相机的代理
captureSession.delegate = self
// 设置相机的分辨率
captureSession.sessionPreset = .high
// 获取相机设备
guard let camera = AVCaptureDevice.default(for: .video) else { return }
do {
// 创建输入设备
let input = try AVCaptureDeviceInput(device: camera)
// 将输入设备添加到会话中
if captureSession.canAddInput(input) {
captureSession.addInput(input)
}
// 创建输出设备
let output = AVCaptureVideoDataOutput()
// 设置输出的数据格式
output.videoSettings = [kCVPixelBufferPixelFormatTypeKey as String: Int(kCVPixelFormatType_32BGRA)]
// 设置输出为主队列
output.setSampleBufferDelegate(self, queue: DispatchQueue(label: "CameraQueue"))
// 将输出设备添加到会话中
if captureSession.canAddOutput(output) {
captureSession.addOutput(output)
}
// 创建预览图层
previewLayer = AVCaptureVideoPreviewLayer(session: captureSession)
previewLayer.videoGravity = .resizeAspectFill
previewLayer.frame = view.bounds
view.layer.addSublayer(previewLayer)
// 启动会话
captureSession.startRunning()
} catch {
print(error.localizedDescription)
}
}
// 相机输出的代理方法
func captureOutput(_ output: AVCaptureOutput, didOutput sampleBuffer: CMSampleBuffer, from connection: AVCaptureConnection) {
// 处理相机输出的图像数据
}
}
viewDidLayoutSubviews
方法中更新预览图层的frame:override func viewDidLayoutSubviews() {
super.viewDidLayoutSubviews()
previewLayer.frame = view.bounds
}
这样做可以确保预览图层的尺寸与相机输出的尺寸保持一致,从而解决相机启动时被放大的问题。