목록언어 (22)
Machineboy空
RealityKit의 구성도 Anchoring Type1) 공식 문서상 Anchor의 분류분류Anchor 종류 Surface DetectionARPlaneAnchoranything flat (.vertical, .horizontal)ARMeshAnchor Image DetectionARImageAnchor이미지 인식 후 앵커 추가ARReferenceImage Physical ObjectsARObjectAnchor ARReferenceObject Body Position TrackingARBodyAnchor Face TrackingARFaceAnchor GeotrackingARGeoAnchor Multiuser ExperiencesARParticipantAnchor App ClipARAppClpCodeA..
* 하고 싶은 것modelEntity의 위치에 접근하고 싶다.오른쪽의 경우 평면으로 인지하고 놓인 큐브의 좌표값에 왼쪽의 경우 world(0,0,-5)의 값에 접근해서 로그를 찍어보고 싶다. * 당면한 문제 1 : 양쪽의 Position값이 같게 찍힌다..anchor.position과 model.position이 모두 원점으로 찍히는 이유가..무엇이지? * 시도 방법 1 : scene에서 해당 entity를 찾아가본다. 혹시 scene에 추가되기 이전의 값에 접근하여 원점이 뜨는가 싶어서 anchor에 추가하고 난 뒤,상부부터 차례로 접근해봤다.. 그래도 여전히 같은 결과값// 1번째print("anchor position: \(anchor.position)" )// 2번째print("anchor p..
구현 내용1: ARView를 생성하고 AR World 좌표상 원점이 정해지는 순간, 현 위치의 위도, 경도를 구해 표시해보자!* 하고 싶은 것ARView의 makeUI 함수, 즉 ARView가 생성되는 순간 가장 먼저 한 번 호출되는 함수에 현 위치의 값을 넣어 표시하고 싶다.그렇게 원점에 현 위치를 맵핑해 두고, ARWorld의 다른 좌표들도 현실의 위도 경도와 짝을 지어주고 싶다.* 당면한 문제 1 : location값이 nilLocationManager.location.coordinate에 접근해 띄우고 싶은데,LocationManager의 coordinate는 double타입으로 미세한데다, 위치가 변할 때마다 update하고 있기 때문인지,무언가 변하는 상태를 내가 ARView에서 감지를 잘해주..
어떤 정보를 파악할 수 있을까?CLLocationlatitude, longitudeCLLocationCoordinate2DCLFloorCLHeadingLocationManger Class를 선언하고 CLLocationMangerDelegate를 상속하는데 이의 역할이 무엇인지에 관해 읽어보면 좋을 글 https://zeddios.tistory.com/8 iOS ) 왕초보를 위한 delegate정리swift 공부를 하면서 꼭 알아야하는 개념 중 하나가 delegate개념인데요, 저같은 경우에는 자료들도 다 영어고 한글로 된 설명을 봐도 너무 이해하기가 어렵더라구요 :( 요 며칠간 공부를 하다가 어zeddios.tistory.com import SwiftUIimport CoreLocation/// NSObj..
카메라로 특정 건물을 비추면, 그 건물을 인식하여 옆에 시설 정보를 띄울 것이다.사용될 법한 관련 기술을 조사해보겠다.Vision Framework이미지나 영상을 처리하는 알고리즘인 듯하다! 대표 기능 다섯가지를 살펴보자.1) Tracking human and animal body poses or the trajectory of an objecthttps://developer.apple.com/kr/videos/play/wwdc2020/10653/ Detect Body and Hand Pose with Vision - WWDC20 - 비디오 - Apple DeveloperExplore how the Vision framework can help your app detect body and hand pos..
오늘의 목표RealityKit에서 기본으로 제공하는 Detection 기능들을 파헤쳐 보자.저번에 만든 캐릭터가 환경을 인식하여 장애물을 피해서 이동하도록 만들어야 한다.ARWorldTrackingConfigurationARView.debugOptions 활용ARWorldTrackingConfiguration의 다양한 함수들 활용 supportsSceneReconstruction(.meshWithClassification)을 활용해서 환경 인식을 실행해봤다. import SwiftUIimport RealityKitimport ARKitstruct ContentView: View { var body: some View { ARViewContainer().edgesIgnoringSaf..
오늘의 목표Reality Composer Pro에 Animation이 실행되는 usdz파일을 넣고, 이를 ARView에 띄워보겠다.찾아본 것들..https://www.youtube.com/watch?v=pJ3D20zNd18 예전 튜토리얼들을 살펴보면 Reality Composer Pro UI가 달라서Action Sequence 창을 도무지 어떻게 띄우는지를 모르겠다..**저건 Reality Composer였다.. https://developer.apple.com/documentation/visionos/diorama Diorama | Apple Developer DocumentationDesign scenes for your visionOS app using Reality Composer Pro.deve..
사용자에게 직접 묻거나 행동을 관찰하는 기회가 주어져도 주관을 배제하고 객관적인 설명만으로 디자인의 근거를 마련하기 어렵다. 하지만 인간의 해옹과 사고를 연구하는 심리학의 법칙들에 기대어 디자인의 여러 요소를 설정한다면 쉽게 공감을 얻을 수 있다. 이 책에서 제시하는 10가지 심리학 법칙들은 간편하지만 강력한 설득의 무기가 되어 줄 것이다. 부디 많은 독자가 이 책을 통해 모호한 직관이 아닌 검증된 과학적 분석에 기반헤 사용자가 경험을 설계할 기회를 얻기를 바란다. 사용자 경험(User Experience)이라는 용어는 1993년 애플 근무 당시 도널드 노먼이 만든 용어다. 이후 노먼은 이 책에서 첫 번째로 소개된 제이콥의 법칙을 만든 제이콥 닐슨과 함께 닐슨 노먼 그룹을 설립한다. 노먼은 전기공학을 전..