목록2024/10 (20)
Machineboy空
어떤 정보를 파악할 수 있을까?CLLocationlatitude, longitudeCLLocationCoordinate2DCLFloorCLHeadingLocationManger Class를 선언하고 CLLocationMangerDelegate를 상속하는데 이의 역할이 무엇인지에 관해 읽어보면 좋을 글 https://zeddios.tistory.com/8 iOS ) 왕초보를 위한 delegate정리swift 공부를 하면서 꼭 알아야하는 개념 중 하나가 delegate개념인데요, 저같은 경우에는 자료들도 다 영어고 한글로 된 설명을 봐도 너무 이해하기가 어렵더라구요 :( 요 며칠간 공부를 하다가 어zeddios.tistory.com import SwiftUIimport CoreLocation/// NSObj..
카메라로 특정 건물을 비추면, 그 건물을 인식하여 옆에 시설 정보를 띄울 것이다.사용될 법한 관련 기술을 조사해보겠다.Vision Framework이미지나 영상을 처리하는 알고리즘인 듯하다! 대표 기능 다섯가지를 살펴보자.1) Tracking human and animal body poses or the trajectory of an objecthttps://developer.apple.com/kr/videos/play/wwdc2020/10653/ Detect Body and Hand Pose with Vision - WWDC20 - 비디오 - Apple DeveloperExplore how the Vision framework can help your app detect body and hand pos..
오늘의 목표RealityKit에서 기본으로 제공하는 Detection 기능들을 파헤쳐 보자.저번에 만든 캐릭터가 환경을 인식하여 장애물을 피해서 이동하도록 만들어야 한다.ARWorldTrackingConfigurationARView.debugOptions 활용ARWorldTrackingConfiguration의 다양한 함수들 활용 supportsSceneReconstruction(.meshWithClassification)을 활용해서 환경 인식을 실행해봤다. import SwiftUIimport RealityKitimport ARKitstruct ContentView: View { var body: some View { ARViewContainer().edgesIgnoringSaf..
오늘의 목표Reality Composer Pro에 Animation이 실행되는 usdz파일을 넣고, 이를 ARView에 띄워보겠다.찾아본 것들..https://www.youtube.com/watch?v=pJ3D20zNd18 예전 튜토리얼들을 살펴보면 Reality Composer Pro UI가 달라서Action Sequence 창을 도무지 어떻게 띄우는지를 모르겠다..**저건 Reality Composer였다.. https://developer.apple.com/documentation/visionos/diorama Diorama | Apple Developer DocumentationDesign scenes for your visionOS app using Reality Composer Pro.deve..