한참을 헤매다가 결국 성공했다. 가장 고생했던 부분은 강의에서 들었던 부분중 도움이 됐던건 딱히..? 가장 큰 힌트는 애플 WWDC21 영상에서 얻게 됐는다. 어려웠던 부분은 카메라로 손을 어떻게 인식하고 그 데이터를 가지고 어떻게 Core ML를 사용해야되는지 그것이 매우 어려웠었다. 인터넷에서 내가 원하는 정보가 없고 하니까 가장 좋은 것은 공식 문서와 애플이 제공하는 영상같은 것을 찾아봐야 한다는 것을 알게 됐다. 애플이 제공하는 WWDC21 영상에서 나오는 내용이다. 1. 카메라를 통해 프레임을 가져온다 2. Vision에 각각 프레임에 대한 정보(손 관절들의 위치)를 요청한다 3. VNDetectHumanHandPoseRequest를 사용하여 손만 인식하도록 처리한다. 4. 요청을 하게되면 VN..
컴퓨터에 Vision 알고리즘을 적용하여 input 이미지와 비디오에서 다양한 작업을 수행할 수 있다. 이번에 해볼 내용은 카메라에 찍히는 물체를 실시간으로 인지하고 구분할 수 있는 앱을 만들어볼 것이다. Overview - Vision 프레임워크를 사용하면 실시간으로 찍히는 물체를 인식할 수 있다. - Core ML 모델을 이용해 만든 Vision 요청은 VNRecognizedObjectObservation 객체를 반환하여 해당 객체를 통해서 화면에 찍힌 물체를 구별할 수 있다. AV live capture는 다른 capture 앱이랑은 비슷하지만 Vision 알고리즘과 가장 잘 작동하도록 카메라를 구성하는 것은 몇 가지 미묘한 차이가 있다. 첫번째로 실시간 캡쳐를 위한 카메라를 구성해야한다. priv..